reunion

reunion gdr stic-santé     présentation calendrier des réunions organisation devenir membre intranet     mon compte [logout] demande de mission proposition de réunion annuaire des membres services     archive stic-sante-all bibliothèque manifestations satellites perte de mot de passe contact inter-gdr © stic-santé cnrs gdr 2647 / inserm   accueil   intranet      calendrier des réunions[ liste | calendrier ] [ proposer une réunion ]11 octobre 2007 de 9h à 18hstic-santé: thème e - analyse, modèles et outils pour les handicaps : approche pluridisciplinairestic-santé: thème e - analyse, modèles et outils pour les handicaps : approche pluridisciplinairestic-santé: e - analyse, modèles et outils pour les handicaps : approche pluridisciplinaireorganise e : perception non visuelle et action pour non voyantschu pitié-salpêtrière 91 boulevard de l'hôpital f-75634 paris cedex 13 aucun compte-rendu : déposer un compte-rendu organisateurspissaloux edwige annonce« perception non visuelle et action pour non voyants »11 octobre 20079h30 à 17h30lieu : chu pitié-salpêtrière91 boulevard de l'hôpital f-75634 paris cedex 13salle 127acces : en bus : ligne 57, 91 (saint marcel-pitié) - ligne 67 ( jenner, jeanne d’arc)en metro : ligne 5, station saint marcel.programme0. présentation  de la journée (9h30, edwige pissaloux, anne-catherine scherlen)(1) identifier des axes de recherche autour de la perception visuelle et du handicap visuel lors de l’interaction homme-espace en établissant des liens entre l’état de nos connaissances en neurosciences, en cognition et en aides technologiques de nouveau type ;(2) définir et stabiliser le vocabulaire du domaine.(3) faire émerger des groupes de recherche (réseau pluridisciplinaire de chercheurs) afin de proposer des actions spécifiques.on visera donc (1) de présenter l’état des connaissances sur le processus neuro cognitif qui sous-tend l’interaction choisie et (2) d’apporter les réponses technologiques existantes pour soutenir l’interaction du handicapé visuel visant à pallier les différences entre ce processus chez un sujet sain et chez un sujet déficient.1 . percevoir l’esapce (9h 40 – 11h40, 4x30min)1.1. yann coello, professeur, lab. ureca (ea 1059) & umr-cnrs 8163 stl, université charles de gaulle-lille3, france, yann.coello@univ-lille3.frcatégorisation spatiale et actionde nombreux travaux expérimentaux suggèrent une relation étroite entre la catégorisation perceptive ou sémantique d’objets visuels, et les dispositions motrices de l’organisme. une interprétation envisagée est que la perception visuelle intègrerait les mécanismes participant à l’élaboration d’une représentation du corps et de ses possibilités d’action. des études récentes suggèrent que la mise en relation des données perceptives et motrices constituerait également le support de la catégorisation pluri-dimensionnelle de l’espace. les éléments en faveur de cette hypothèse seront discutées au regard des résultats obtenus dans des tâches de catégorisation de l’espace péri-corporel chez des sujets sains lorsqu’on inhibe transitoirement leur système moteur par stimulation magnétique transcrânienne, et chez des patients présentant des déficits des traitements sensori-moteurs ou visuo-spatiaux. un modèle neuro-cognitif intégrant l’ensemble de ces données sera présenté suggérant que la catégorisation perceptive de l’espace s’appuie sur des connaissances structurelles et fonctionnelles de l’organisme. 1.2. jp banquet, anim, inserm 742information extéroceptive et proprioceptive dans la construction des cartes  cognitives spatiales pour la navigation et la planificationnous développons en collaboration avec un laboratoire de biorobotique (p. gaussier, neurocybernétique,cergy-pontoise) et un laboratoire de neurobiologie animale (b. poucet, laboratoire de neurobiologie de la cognition, marseille) un modèle biologiquement plausible des relations  hippocampo-corticales pour la navigation et la mémoire, qui sert de système de contrôle pour la navigation et l'apprentissage par imitation de robots mobiles en environnement intérieur ou extérieur. deux types d'information sont utilisées: extéroceptives (allothétiques) essentiellement visuelles et intéroceptives (idiothétiques) générées par le mouvement propre de l'individu, flux optique, proprioception, accélération linéaire ou angulaire, décharge corollaire.... ces deux types d'information génèrent indépendamment des cellules de lieu dans les boucles hippocampiques, directement pour les informations visuelles à  partir de la localisation des amers, ou  indirectement pour les informations idiothétiques, à travers l'intégration de chemin et les cellules grilles. ces signaux de localisation d'origine différente mais de nature comparable sont intégrés au niveau de l'hippocampe propre (gyrus dentelé, ca3, ca1), et transférés au niveau des cortex préfrontal  et/ou pariétal pour la formation de cartes cognitivesspatiales qui permettent la planification et la navigation vers des buts préalablement appris.banquet jp et al. (2005) neural computation,17,6:1339-1384.hok et al. (2005), pnas,102,12:4602-4607.hok et al. (2007), j of neurosc.,472-482.1.3. corinne roumes, imassa (institut de médecine aérospatiale du service de santé des armées, professeur agrégé du service de santé des arméesintégration visuo-auditives pour la perception de l’espace.en interprétant des signaux émis à distance du corps, la vision et l’audition sont les modalités sensorielles qui permettent l’anticipation dans l’environnement. les descriptions de l’espace qu’elles proposent diffèrent par bien des points : limitée à l’hémi-champ antérieur, la vision est un sens privilégié pour la perception spatiale par sa résolution, la rétinotopie de ses différents centres qui reprend en écho la projection rétinienne de l’environnement, la mobilité de ses capteurs ; l’audition, basée sur l’analyse temporelle du signal, n’accède au spatial que par des indices indirects pour ne proposer qu’une faible résolution de l’espace, couvrant cependant l’ensemble des directions. la complémentarité de ces deux sens peut être exploitée dans la présentation de l’information à un opérateur, notamment lorsque la mobilité est cruciale et la perception directe difficile. c’est la motivation d’une série d’études comportementales, menées sur l’homme sain, pour déterminer les conditions de présentation d’informations visuelles et sonores conduisant à leur intégration spontanée pour la perception d’un espace multimodal. en comparant des données de localisation de cibles visuelle, sonores ou bimodales et des données de fusion visuo-auditives, la contribution de chaque modalité au processus intégratif peut être mieux cernée.1.4. jl vercher, dr, cnrs umr 6152 mouvement & perception et université de la méditerranée. le contrôle adaptatif du système visuo moteur : un moyen de maintenir la performance sensorimotricequand la relation spatiale, métrique, qui nous lie, au travers de la vision,  à l’environnement (souvent appelée « visual mapping »), est modifiée de façon durable (par exemple par le port de lunettes), notre comportement s’en trouve altéré aux niveaux sensoriel, moteur et cognitif. le système nerveux central dispose de la capacité à réduire de façon progressive l’erreur motrice résultat de l’altération de l’information visuelle. cette capacité est appelée « contrôle adaptatif ». l’exposé présentera le contrôle adaptatif tant au niveau visuo-manuel qu’au niveau vestibulo-oculaire. un parallèle sera établi entre l’adaptation (au niveau du mapping visuel de ces deux systèmes) à des altérations optiques ordinaires (résultant de l’usage de verres de correction par réfraction) et l’adaptation à des perturbations visuo motrices plus complexes vécues dans des environnements réels ou virtuels.2. mobilité et représentation spatiale 1. (2 x 30 min) (11h 40-12h40 ) 2.1.  s. hanneton, dr, laboratoire de neurophysique et physiologie, cnrs umr 8119 paris descartesperception pseudo-visuelle avec des dispositifs  de substitution sensorielle visuo-auditifs  : principes et obstacles. les technologies liées à la substitution sensorielle (suppléance perceptive) ont quelques dizaines d'années d'existence. or très peu de prototypes ont conduit à des outils servant le quotidien des personnes malvoyantes ou non voyantes. les raisons d'un tel échec ne sont pas ou de moins en moins technologiques. le principe de la substitution sensorielle fonctionne-t-il vraiment et avec tous les types de dispositifs ? quels sont les freins majeurs à leur adoption ? nous tenterons d'apporter quelques éléments de réponse à ces questions à travers notre expérience de développement et de validation de dispositifs de substitution sensorielle visuo-auditifs. nous présenterons notamment des résultats obtenus avec le logiciel « thevibe » qui permet de produire un flux audio à partir d'un flux vidéo provenant par exemple de caméras. ce logiciel utilise une « rétine » artificielle dotée de champs récepteurs permettant un codage versatile des images en sons. contrairement à d'autres dispositifs donnant directement à l'utilisateur une information spatiale (dispositifs télémétriques par exemple), l'utilisateur doit se saisir des signaux sonores « bruts » générés par le système pour se construire ses capacités de perception et de navigation spatiale à travers ses sensations et ses actions. notre expérience montre que si les choix techniques guidant le développement de tels systèmes sont cruciaux, ce sont les apprentissages et notamment les phénomènes d'automatisation associés qui déterminent le degré d'appropriation d'un tel outil.bibliographie° auvray m., hanneton s., lenay c., o'regan k. there is something out there: distal attribution in sensory substitution, twenty years later.  journal of integrative neuroscience 4:505-21 (2005).° auvray m., hanneton s. ,  o’regan k. learning to perceive with a visuo–auditory substitution system : localisation and object recognition with ‘the voice’. perception 36(3):416-430 (2007).° hanneton s. comment l’information et le conseil en aide technique contribuent-ils de manière pertinente au processus d’expression des besoins de la personne?. audition publique "acquisition d'une aide technique : quels acteurs, quel processus ?" du 27 au 28 mars 2007 (evry). ° hanneton s., munoz c. action for perception : influence of handedness in visuo-auditory sensory substitution. enactive 2006 : enaction & complexity, montpellier : france (20/11/2006).° jacobs s., hanneton s., et roby-brami a. aspects neurophysiologiques et neuropsychologiques de l’utilisation d’outils.  arobase 1:114-126 (2005)° lenay c, gapenne o, hanneton s, marque c, genouëlle c. "sensory substitution: limits and perspectives", in touching for knowing eds y hatwell, a streri, e gentaz (amsterdam: john benjamins) pp 275 – 292 (2003). 2.2. sylvie. treuillet, eric royer, lasmea, université clérmont     système portatif de localisation et d'orientation des personnes malvoyantes par vision monoculaire.résumé. le principal verrou des systèmes d'assistance à la navigation pour les personnes aveugles ou malvoyantes est l'obtention d'une précision de localisation suffisante en extérieur comme en intérieur. force est de constater que les performances des systèmes utilisant des récepteurs gps restent décevantes. cette présentation propose une nouvelle approche utilisant une seule caméra pour offrir une localisation et une orientation précises et robustes de la personne le long d'une trajectoire pré-enregistrée. le principe a été validé tant sur des trajets en extérieur qu'en intérieur. la précision de localisation d'une dizaine de centimètres permet de maintenir la personne aveugle dans un couloir de navigation de l'ordre d'un mètre le long d'un trajet déterminé. en association avec une interface de guidage efficace, cette technique devrait permettre la réalisation et la diffusion d'un système individuel portatif d'assistance à la navigation à bas coût permettant d'accroître considérablement la mobilité des déficients visuels.3. mobilité et représentation spatiale 2.  (14h00 - 16h00)3.1. barthélémy durette (1,2), david alleysson (1), jeanny hérault (2)1 laboratoire de psychologie et neurocognition, cnrs umr 5105, grenoble2 gipsa-lab, cnrs umr 5216, grenoble apport des théories sensori-motrices de la vision pour la conception des prothèses visuelles : l'exemple de l'échantillonnage spatialement variant.des travaux récents ont permis de montrer qu'une prothèse visuelle ne peut se résumer à un outil de transmission de l'information visuelle. dans le contexte des théories dites actives de la vision, la définition d'une prothèse visuelle en tant que dispositif de couplage sensori-moteur paraît plus appropriée. dans cette présentation, nous montrerons que ce changement de point de vue pose de nouvelles questions quant à la conception d'une prothèse. en  particulier, il pose la question de la pertinence et de l'efficacité des lois de contingences sensori-motrices qui la caractérise. nous verrons ensuite comment il est possible de manipuler ces lois grâce à un ré-échantillonnage de l'image. nous terminerons par une étude sur les conséquences de ces modifications sur les performances de sujet humain munis d'un dispositif de substitution visuo-auditive dans une tache de localisation.3.2. ch. jouffrais, irit-diamant, cnrs, umr5505, toulouselea: un système de reconnaissance et de localisation d'objets pour les non-voyantsimaginez un instant que vous êtes dans une pièce sombre à la recherche d’une bougie. vous prononcez le mot « bougie » et vous entendez celle-ci répondre « ici » ! c’est précisément le système que nous proposons de créer, non pas pour trouver des bougies dans le noir, mais pour permettre aux non-voyants de repérer des objets dans leur environnent.ce système d’assistance devrait permettre aux non-voyants de reconnaître et de localiser des objets réels dans leur environnement augmenté par des informations acoustiques virtuelles. cette localisation précise permettrait d’accroître l’autonomie des non-voyants dans deux domaines primordiaux :  la navigation (trouver des caps, éviter des obstacles, etc.) et la saisie d’objets.lors de ma présentation, je vous montrerai des résultats préliminaires en perception auditive humaine (localisation auditive dans l’espace peripersonnel) et les avancées parallèles dans la conception et l’évaluation du système de reconnaissance et de localisation d’objets. 3.3. g. uzan , université paris 8, s. lamy et m. hafez (list/cea),  projets de recherche en cours au cea list dans le domaine de l'aide au handicap visuelrésuméle cea list mène depuis de nombreuses années, des travaux de recherche dans le domaine du handicap et en particulier dans le domaine du handicap visuel. les travaux en cours portent sur le développement d'un système de localisation et de navigation à l'intérieur des couloirs du métro ou tout autre bâtiment public. ce navigateur sans gps utilise principalement pour se localiser une centrale inertielle portée par la personne dont les données sont régulièrement recalées au passage de points clefs (escalier, couloir, portillons...). d'autres travaux portent sur le développement d'interface haptique ou tactile permettant de transférer des informations de tout type à la personne aveugle ou mal-voyante. basée sur des architectures mécatroniques et technologies d'actionnement innovantes, cette recherche a conduit aux développements de systèmes faible coût portables permettant d'enrichir l'interaction entre la personne et les ntic (pc, téléphone portable, pda, navigateur ...).3.4. e. fontaine, r. velazquez, e. pissaloux, ch. casanova (isir, univ. paris 6, université de montréal).sur le concept de l'espace et de son intégration dans les assistances pour la navigation de déficients visuels.l’interaction homme-espace pendant le déplacement est basée sur une présentation mentale de l’espace construite par la combinaison multimodale. dans cet exposé nous allons présenter une contribution de la modalité tactile dans la perception de la géométrie de l’espace, qui est à la base de la stratégie de navigation dite par géométrie. une définition formalisée et computationnelle de représentation de l’espace extra-personnel statique sera proposée ; son implantation tactile sera adressée. le paradigme d’intégration de l’espace global à partir des vues locales partielles sera défini (space integration from tactile snapshots). les résultats de l’évaluation expérimentale de ce paradigme, menée sur les sujets sains naîfs aux yeux bandés, lors de la navigation virtuelle confirment qu’il est possible d’apprendre et de comprendre la géométrie d’un espace globale à partir de ses vues tactiles locales convenablement enchaînées. 4. discussion et conclusion (16h00-16h30)participants (40 prévus dont 10 inscrits) :alleysson david 5105labo de psychologie et neurocognitinauvray malika bou issa youssef equipe diamantbouzit mouradfre 2508labo d'instrumentation et de relation individu systèmedramas florian equipe diamant

reunion  Précédent 142  Précédent 141  Précédent 140  Précédent 139  Précédent 138  Précédent 137  Précédent 136  Précédent 135  Précédent 134  Précédent 133  Précédent 132  Précédent 131  Précédent 130  Précédent 129  Précédent 128  Précédent 127  Précédent 126  Précédent 125  Précédent 124  Précédent 123  Précédent 122  Précédent 121  Précédent 120  Précédent 119  Précédent 118  Précédent 117  Précédent 116  Précédent 115  Précédent 114  Précédent 113  Suivant 144  Suivant 145  Suivant 146  Suivant 147  Suivant 148  Suivant 149  Suivant 150  Suivant 151  Suivant 152  Suivant 153  Suivant 154  Suivant 155  Suivant 156  Suivant 157  Suivant 158  Suivant 159  Suivant 160  Suivant 161  Suivant 162  Suivant 163  Suivant 164  Suivant 165  Suivant 166  Suivant 167  Suivant 168  Suivant 169  Suivant 170  Suivant 171  Suivant 172  Suivant 173