Les hypothèses de recherche

Les hypothèses de recherche et les développements technologiques sont liés à :

  • La théorie sensori-motrice de la perception [O’R 01],
  • La théorie multimodale de la perception [Spe 12],
  • La théorie du « gain de cécité » [Tho 18].

Au cœur de ce travail se trouve la construction d’un nouveau guide ainsi que l’évaluation et la compréhension de l’expérience utilisateur/utilisatrice. D’une part, le projet IMG fournit un outil essentiel pour enrichir l’accès aux œuvres d’art 2D pour les personnes aveugles et partiellement aveugles dans les musées et les lieux du patrimoine culturel. D’autre part, il offre une expérience multisensorielle qui enrichit et approfondit l’expérience des œuvres d’art 2D de toutes et tous.

Le projet IMG cherche à fournir une équivalence fonctionnelle et non sensorielle, basée sur le principe que des représentations mentales enrichies d’œuvres d’art émergeront par des actions sensorielles, des actions motrices et une description verbale simultanées. Ainsi, en tant qu’outil inclusif, la technologie ad hoc peut contribuer à l’émergence de nouvelles impressions esthétiques qui peuvent être partagées avec d’autres, indépendamment de l’expérience visuelle.

Travailler avec des chercheurs/chercheuses et des utilisateurs/utilisatrices finaux ayant une incapacité visuelle nous permet de mieux comprendre le processus mental qui mène à l’émergence d’impressions esthétiques d’œuvres d’art chez les personnes aveugles, partiellement aveugles et non-aveugles.

Le projet IMG considère les stimulations sensorielles telles que visuelles, sonores et tactiles, les actions motrices telles que haptiques combinées à la compréhension cognitive extraite de la parole (audiodescription).

La théorie sensorimotrice de la perception fournira un cadre pour ces nouvelles façons d’expérimenter l’art qui peuvent être renforcées (assistées) par nos perceptions et les actions associées. De plus, dans le cadre de la notion de « gain de cécité » ce projet aboutira à la création de nouvelles façons d’accéder aux œuvres d’art 2D, tant pour les utilisateurs et utilisatrices aveugles et partiellement aveugles que pour ceux et celles qui voient, de manière à repenser les façons traditionnellement visuelles d’accéder à l’art. IMG le fait en combinant l’art de la description (décrivant spécifiquement les arts visuels de manière non visuelle) comme un outil pour améliorer l’accès de toutes et tous avec l’expérience haptique et auditive (avec ou sans vision).

De plus, les résultats de nos évaluations expérimentales préliminaires auprès des utilisateurs et utilisatrices finaux (aveugles et partiellement aveugles et non-aveugles) des représentations de données 2D de base affichées sur les appareils de stimulation tactile existants ont confirmé que:

  • Il est possible de créer une représentation mentale de la disposition spatiale des œuvres d’art, dérivée de représentations audio et tactiles.
  • Un système multimodal spécifique fondé sur les technologies de l’information et de la communication (TIC) est nécessaire pour aider efficacement les personnes aveugles et partiellement aveugles tant dans la mobilité que dans la perception des œuvres d’art
  • Un tel système présente des avantages supplémentaires, en termes de nouvelles expériences esthétiques, pour tous les utilisateurs et utilisatrices. Ceci est conforme à la recherche sur les audiodescriptions (AD) dans les musées suggérant que l’expérience de l'audiodescription par des utilisateurs et utilisatrices aveugles et partiellement aveugles peut être enrichie par l’utilisation du toucher.

  • [O’R 01] O’Regan J.K., Noë A., « What it is like to see: A sensorimotor theory of visual experience », Synthèse, 2001, 129, 79-103
  • [Spe 12] Spence, Ch. Driver,J., « Crossmodal Space and Crossmodal Attention », Oxford Scholarship Online: March 2012
  • [Tho 18] Thompson, H., “Audio description : turning access to film into Cinema Art”, in Thompson, H., Warne, V. (dir.), « Blindness Arts », Disability Studies Quarterly, vol. 38, n°3, 2018; DOI: http://dx.doi.org/10.18061/dsq.v38i3.6487.

Organisation du projet

Le projet IMG vise à prototyper un nouvel outil de guidage muséal numérique multimodal programmable, interactif et portable (cf. figure 2 et figure 3), adapté à tous les niveaux de vision (totalement aveugle à partiellement aveugle). Cet outil construira, à partir d’images acquises avec un système de vision ad hoc, la représentation multimodale des objets/scènes imagés (carte audio-tactile, représentation audio-tactile d’une œuvre d’art, et objets reconstruits en 3D - maquettes).

Figure 2

La figure 2 représente sous la forme d'un schéma les lots de travail, à savoir le cadre théorique, 
                    l'acquisition des données, leur représentation et l'évaluation

Figure 3

L’organisation pour l’accès à l’espace muséal avec des cartes simplifiées et des graphes de navigation 
                    qui permettent de préparer le déplacement avec une carte tactile accessible.

Le système IMG est composé de matériel et de logiciels coopérants. Ses éléments matériels sont les suivants : un écran (où une image est affichée); un boîtier mécatronique adaptable à la taille de n’importe quel écran et nommé F2T (force feedback tablet), un système de vision et un casque à conduction osseuse (en option). Un ou plusieurs joysticks mobiles et un jeu de touches sur le F2T permettront aux visiteurs et visiteuses du musée d’interagir avec l’écran (création d’images visuelles-tactiles-haptiques).

Plusieurs applications de base (logiciels) seront développées pour permettre la création et l’ajout de cartes géographiques tactiles (intérieures et extérieures), fournir des outils de localisation et de suivi et créer une représentation haptique et interactive combinée à une audiodescription.

Il sera possible de comprendre par le toucher (sans voir), de telles représentations multimodales grâce aux techniques de traitement d’image et de vision par ordinateur. Des algorithmes spécifiques de segmentation des images seront conçus afin de simplifier les images des œuvres, d’en extraire les caractéristiques les plus saillantes, identifiées en collaboration avec les conservateurs/conservatrices de musée et les personnes aveugles et partiellement aveugles, et de les transposer sur la F2T.

Une sensation de profondeur et de texture de l’œuvre sera fournie aux personnes aveugles et partiellement aveugles en créant des maquettes imprimées en 3D haute résolution. De tels modèles 3D seront automatiquement créés en combinant des nuages de points estimés à l’aide de systèmes de type LIDAR avec des estimations d’orientation de surfaces de haute précision obtenues en transformant un système existant d’imagerie par transformation de réflectance (RTI) en une plate-forme de reconstruction 3D photométrique stéréo. Enfin, une bibliothèque de programmation de base sera construite pour la conception d’applications open source utilisant des langages de programmation de haut niveau.

Les Publications

Articles publiés dans des Revues

  • [1] Gay, S., Pissaloux, E., Romeo, K., Truong, N-T. (2021) F2T: A Novel Force-Fedback Haptic Architecture Delivering 2D Data to Visually Impaired People. IEEE Access 2021, 9, 94901-94911 DOI:10.1109/ACCESS.2021.3091441
  • [2] Romeo, K., Pissaloux, E., Gay, S.L., Truong, N.-T., Djoussouf, L. The MAPS: Toward a Novel Mobility Assistance System for Visually Impaired People. Sensors 2022, 22, 3316. https://doi.org/10.3390/s22093316
  • [3] Romeo, K., Chottin, M., Thompson, H. Towards an inclusive approach to discovering artworks. Modelling, measurement and control C, 2022 83 (1-4), pp.14-20. https://doi.org/10.18280/mmc_c.831-403 hal-03910184v1
  • [4] Robin Bruneau, Baptiste Brument, Lilian Calvet, Matthew Cassidy, Jean Mélou, Yvain Quéau, Jean-Denis Dourou, François Lauze. Multi-view stereo of an object immersed in a refractive medium. Journal of Electronic Imaging, 2024, 33 (03), 10.1117/1.JEI.33.3.033005. hal-04567615


Publications

  • Hannah Thompson et Marion Chottin, « Blindness Gain as World-Making: Creative Audiodescription as a new "partage du sensible" », L’Esprit créateur, The International Quaterly of French and Francophone Studies, 61/4, 2021, p. 32-44.
  • M. Chottin, « Le Handicap », dans Un Monde commun. Les savoirs des sciences humaines et sociales, Éditions, 2023, p. 270-273
  • Emma Bourges, "VOUS VERREZ PAR VOS OREILLES :L’audiodescription proposée aux personnes malvoyantes et non voyantes dans les musées de France n’est-elle qu’une pollution sonore ?", Canadian Journal of Disability Studies, 13/1, 2024, p. 120-145
  • Marion Chottin et Corinne Doria, Handicap, déficience, différence. Une introduction aux disability studies, Lyon, ENS Editions, 2025


Conférences Internationales

  • [Pizenberg 2021] Matthieu Pizenberg , Yvain Quéau , Abderrahim Elmoataz. Low-rank registration of images captured under unknown, varying lighting. International Conference on Scale Space and Variational Methods in Computer Vision (SSVM 2021), 2021, Cabourg, France. pp.153-164, ⟨10.1007/978-3-030-75549-2_13⟩ Communication dans un congrès hal-03172399v1
  • [Queau 2021] Yvain Quéau. Photometric 3D-reconstruction. International Conference on Quality Control by Artificial Vision (QCAV 2021), 2021, Tokushima (online), Japan Communication dans un congrès hal-03229589v1
  • [Dao 2022] Son-Duy Dao, Ngoc-Tan Truong, Edwige Pissaloux, Katerine Romeo, Lilia Djoussouf. Automatic Contour "Gist" Creation for Museum Painting Tactile Exploration Ed. K. Miesenberger; G. Kouroupetroglou; K. Mavrou; R. Manduchi; M. Covarrubias Rodriguez; P. Penáz. Computers Helping People with Special Needs. ICCHP-AAATE 2022. Lecture Notes in Computer Science, 13341, Springer Nature; Springer International Publishing, pp.270-277, 2022.
  • [Romeo 2022] Katerine Romeo , Hannah Thompson , Marion Chottin. Inclusive Multimodal Discovery of Cultural Heritage: Listen and Touch. Ed. K. Miesenberger; G. Kouroupetroglou; K. Mavrou; R. Manduchi; M. Covarrubias Rodriguez; P. Penáz. Computers Helping People with Special Needs. ICCHP-AAATE 2022. Lecture Notes in Computer Science, 13341, Springer Nature; Springer International Publishing, pp.278-285, 2022, Lecture Notes in Computer Science, 978-3-031-08647-2. ⟨10.1007/978-3-031-08648-9_32⟩ Chapitre d'ouvrage hal-03910170v1
  • [Pissaloux 2022] E. Pissaloux, L. Djoussouf, K. Romeo, R. Velazquez, S.L. Gay, N-T. Truong, S.D. Dao. A new approach to assist Virtual Image accessibility for Visually Impaired People 16th Universal Access in Human-Computer Interaction, HCII 2022, p251-261. 2022
  • [Queau 2022] Yvain Quéau. Inverse Problems and Cultural Heritage Accessibility SIAM Conference on Imaging Sciences, Mar 2022, Berlin (online), Germany Communication dans un congrès hal-03684351v1
  • [Queau 2023] Yvain Quéau , Robin Bruneau , Jean Mélou , Jean-Denis Durou , François Lauze et al. On Photometric Stereo in the Presence of a Refractive Interface 9th International Conference on Scale Space and Variational Methods in Computer Vision (SSVM 2023), May 2023, Santa Margherita di Pula, Sardinia, Italy. pp.691-703, ⟨10.1007/978-3-031-31975-4_53⟩ Communication dans un congrès hal-04038233v1
  • [Melou 2023] Jean Mélou, Yvain Quéau, Antoine Laurent, Marjorie Redon, Jean-Denis Durou, et al.. Thin Details Meet Large-Scale 3D-Reconstruction: Photometric Stereo for Cultural Heritage. 1st international conference on artificIAl Intelligence and applied MAthematics for History and Archaeology (IAMAHA 2023), CEPAM; INRIA Côte d’Azur; I3S, Nov 2023, Nice, France. pp.Session 3 : AI-AM FOR MATERIALS OF THE PAST. ffhal-04559503f
  • [Djoussouf 2023] Djoussouf, L., Romeo, K., Chottin, M., Thompson, H., Eardley, A.F. Inclusion for Cultural Education in Museums, Audio and Touch Interaction, in Studies in Health Technology and Informatics, No 306, Assistive Technology: Shaping a Sustainable and inclusive world, Ed. D. Archambault, G. Kouroupetroglou, IOS Press, p471-480, AAATE 2023 https://ebooks.iospress.nl/volume/assistive-technology-shaping-a-sustainable-and-inclusive-world-2
  • [Gay 2024] Simon L Gay, Edwige Pissaloux, Jean-Paul Jamont. A bio-inspired model for robust navigation assistive devices. Smart Health, 2024, 33, pp.100484. 10.1016/j.smhl.2024.100484. hal-04600438
  • [Queau 2024] Yvain Quéau, Marjorie Redon, Matthieu Pizenberg, Abderrahim Elmoataz. AI-based Generation of a Multi-Modal Panorama for the Bayeux Tapestry. Advances in Applied Mathematics and Learning Approaches for Cultural Heritage and the Arts, Apr 2024, Cagliari (Sardaigne), Italy. hal-04567887
  • [Brument 2024] Baptiste Brument, Robin Bruneau, Yvain Quéau, Jean Mélou, François Lauze, et al.. RNb-NeuS: Reflectance and Normal-based Multi-View 3D Reconstruction. IEEE / CVF International Conference on Computer Vision and Pattern Recognition (CVPR 2024), IEEE, Jun 2024, Seattle, United States. pp.5230-5239.hal-04526751v2
  • [Hamza 2024] Hamza Ennaji, Yvain Quéau, Abderrahim Elmoataz. A primal-dual algorithm for computing finsler distances and applications. Calcolo, 2024, 61 (3), pp.53. 10.1007/s10092-024-00596-y. hal-03620343
  • [Djoussouf 2024] Djoussouf, L., Charafe, N., Zizi, IM-R., Lecomte, C., Romeo, K. Hierarchical exploration of artworks through 2-DOF haptic device: a usability study. EUROHAPTICS 2024. https://zenodo.org/records/12601235
  • [Romeo 2024] Romeo, K., Chottin, M., Pissaloux, E. Blindness, Low Vision: New Approaches to Perception and ICT Mediation. Int. Conf. on Computers Helping People with Special Needs (ICCHP), Jul 2024, Linz, Austria. pp. 465-472, 2024. https://doi.org/10.1007/978-3-031-62846-7_55
  • [Luo 2024] Luo, W., Djoussouf, L., Lecomte, C., Romeo, K. (2024). Detecting Areas of Interest for Blind People: Deep Learning Saliency Methods for Artworks. In: Miesenberger, K., Peňáz, P., Kobayashi, M. (eds) Computers Helping People with Special Needs. ICCHP 2024. Lecture Notes in Computer Science, vol 14750. Springer, Cham. https://doi.org/10.1007/978-3-031-62846-7_56
  • [Redon 2024] Redon, M., Djoussouf, L., Romeo, K., Quéau, Y., El-Moataz, A. A Comparison of Audio-Tactile Exploration Methods to Discover the Tapestry of the Apocalypse.Int. Conf. on Computers Helping People with Special Needs (ICCHP), Jul 2024, Linz, Austria. pp.481-488, 10.1007/978-3-031-62846-7_57. hal-04638745


Conférences Nationales

  • [DJOU 2022] Vers des représentations multimodales de peintures pour leur accessibilité inclusive Lilia Djoussouf, Edwige Pissaloux, Ngoc-Tan Truong, Katerine Romeo, Simon Gay, Son-Duy Dao G. Thomann; Y. Morère. Handicap 2022 - Humaines et artificielles, les intelligences au service du handicap (12e conférence de 'IFRATH sur les technologies d'assistance), IFRATH, pp.87-92 2022 Chapitre d'ouvrage
  • [CHO 2022] Vers une approche inclusive de découverte des œuvres d’art. Accessibilité à la culture des personnes présentant des incapacités visuelles Marion Chottin , Katerine Romeo , Hannah Thompson. Ed. G. Thomann; Y. Morère. Handicap 2022 - Humaines et artificielles, les au service du handicap (12e conférence de l'IFRATH sur les technologies d'assistance), IFRATH, pp.121-126, 2022 Chapitre d'ouvrage hal-03910180v1
  • [DJO 2023] L'accessibilité des images pour les non-voyants: application au patrimoine culturel L. Djoussouf, K. Romeo ORASIS, 19ièmes journées francophones des jeunes chercheurs en vision par ordinateur, May 2023, Carqueiranne, France
  • [RED 2023] Vers un accès plus inclusif à la Tapisserie de Bayeux par la génération semi-automatique d'objets 3D Marjorie Redon , Matthieu Pizenberg , Yvain Quéau , Abderrahim Elmoataz ORASIS, 19ièmes journées francophones des jeunes chercheurs en vision par ordinateur, May 2023, Carqueiranne, France Communication dans un congrès hal-04075676v1
  • [DJOU 2023] Vers une approche inclusive de description multimédia pour le patrimoine, Djoussouf, L., Romeo, K., Elmoataz, A. GRETSI 2023, 29ième Colloque sur le traitement du signal et des images, No.2023-1397, p1221-1224, Grenoble 2023. https://gretsi.fr/data/colloque/pdf/2023_djoussouf1397.pdf
  • [QUE 2024] Approches classiques et neuronales pour la reconstruction 3D photométrique. Yvain Quéau. Optique Normandie - Congrès de la SFO, 2024, Rouen, France. ⟨hal-04683635⟩
  • [LUO 2024] Détection des zones d’intérêt dans une œuvre d’art. Luo, W., Djoussouf, L., Lecomte, C., Romeo, K. IFRATH, HANDICAP 2024, Des solutions personnalisées pour des besoins spécifiques, Proc. P175-180, 5-7 Juin 2024, Paris
  • [CHO 2024] Co-création d’audio descriptions inclusives, retour sur expérience. Chottin, M., Thompson, H., Poulain, C., Serin, F., Romeo, K., Lecomte, C., Djoussouf, L. IFRATH, HANDICAP 2024, Des solutions personnalisées pour des besoins spécifiques, Proc. P156-160, 5-7 Juin 2024, Paris


Communications

  • GdR IASIS (Information, Apprentissage, Signal, Image et ViSion) est une structure d’animation de CNRS Sciences Informatiques. 3 Octobre 2024
    Marjorie REDON a présenté: Pour un accès plus inclusif aux tapisseries médiévales par la génération semi-automatique d'objets 3D, Marjorie Redon, Yvain Quéau, Abderrahim Elmoataz


Workshop

  • 4th ICCV Workshop 2023Marjorie Redon, Matthieu Pizenberg, Yvain Quéau, Abderrahim Elmoataz. 3D surface Approximation of the Entire Bayeux Tapestry for Improved Pedagogical Access. Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV) Workshops, 4th ICCV Workshop on Electronic Cultural Heritage, Oct 2023, Paris, France. pp.1593-1602.


MOOC

  • Workshop for Inclusive co-created Audio Description (W-ICAD) https://w-icad.org
    Cours en ligne créé par nos partenaires Hannah Thompson et Alison Eardley: Cliquez ici pour information


  • Rapports Scientifiques

    • BMC Scientific Reports Tug-of-War games and PDEs on graphs: simple image and high dimensional data processing Hamza Ennaji , Yvain Quéau , Abderrahim Elmoataz. Scientific Reports, 2023, 13 (1), pp.6045. 10.1038/s41598-023-32354-5 Article dans une revue hal-03675971v2