DOCUMENTS

Documents publiés

Journée GT4 /ISIS Perception et commande référencées capteurs non conventionnels

Chères et chers collègues,

Le GT4 "Méthodologies pour la robotique" du GdR Robotique organise avec le GdR ISIS une journée de présentations sur le thème de

Perception et commande référencées capteurs non conventionnels

le mercredi 21 avril 2010

salle B213

à l'ENST, Paris

Plan d'accès à:
http://www.telecom-paristech.fr/telecom-paristech/adresses-acces-contacts.html



Programme prévisionnel

9h30-9h45 : Arrivée des participants
9h45-10h45 : Exploration et navigation de robots basées vision omnidirectionnelle
10h45-11h45 : Asservissement visuel photométrique en vision omnidirectionnelle

11h45-13h15 : Pause déjeuner

13h15-14h15 : Suivi différentiel reposant sur l'information mutuelle
14h15-15h15 : Commande par vision d'un endoscope flexible pour la compensation
des mouvements physiologiques

15h15-15h30 : Pause

15h30-16h30 : Acquisition séquentielle de fenêtres d'intérêt pour la commande de robots parallèles rapides
16h30-17h30 : Discussion
17h30 : Clôture de la journée

Liste des exposés
Orateur : P. Merveilleux (MIS)
Co-auteurs : El Mustapha Mouaddib et Ouiddad Labbani-Igbida (MIS)
Titre : Exploration et navigation de robots basées vision omnidirectionnelle
Résumé :          Les capteurs omnidirectionnels catadioptriques offrent un large champ de vision et
des applications robotiques nouvelles. Pour qu’un robot navigue de façon sûre et autonome,
il faut tout d’abord que ce dernier soit capable de distinguer les zones d’obstacles des zones
d’espaces libres. On définit l’espace libre omnidirectionnel comme la partie homogène ou
faiblement texturée englobant la position du robot dans l’image et délimitée par la ligne
d’horizon ou les obstacles. L’approche que nous avons considérée est basée contours actifs.
Un contour actif est une courbe qui évolue d’une forme initiale vers les frontières d’un objet
sous l’action d’une ou plusieurs forces.  
          Le contour actif est initialisé sous la forme d’un cercle englobant la partie visible du
robot dans l’image, puis se déforme sous l’action de plusieurs forces. La zone, ainsi définie
dans l’image, est une zone maximale d’espace libre navigable pour le robot. La nature de
l’application fait que les principes de base des contours actifs sont conservés tout en
s’affranchissant des contraintes notamment liées à l’initialisation, au changement de
topologie ou encore au temps de calcul.
         Une fois l’espace libre segmenté, le squelette de l’environnement est calculé à partir
du contour actif. Le robot peut donc naviguer sur ce graphe visuel de façon autonome et
sans collision.


Orateur : G. Caron (MIS)
Co-auteurs :  E. Marchand (IRISA) et El Mustapha Mouaddib (MIS)
Titre : Asservissement visuel photométrique en vision omnidirectionnelle
Résumé :Pour de nombreuses applications robotiques utilisant la vision, le traitement d'image tient une
place prépondérante. En asservissement visuel, l'image est généralement analysée afin de détecter
des points,  des droites  ou des plans. Cette constatation  n'est pas restreinte à l'asservissement
visuel,   mais   la   détection,   le   suivi   ou   la   mise   en   correspondance   de   primitives   peuvent   être
coûteux voire échouer, engendrant une perturbation ou l'échec de l'asservissement.
C'est   pourquoi   des   approches   n'utilisant   pas   de   primitives   géométriques   ont   été   élaborées.
Collewet et Marchand ont proposé une approche utilisant l'image toute entière pour réaliser une
tâche   d'asservissement   ou   de   suivi.   Le   principe   est   de   considérer   l'intensité   de   chaque   pixel
comme « primitive » et de déplacer le robot embarquant la caméra en minimisant la différence
entre   l'image   acquise   à   la   position   désirée   et   l'image   courante.   Le   seul   traitement   d'image
nécessaire est le calcul des gradients.
Cette approche a été conçue pour la vision perspective et nous proposons de l'étendre à la vision
omnidirectionnelle, en utilisant une caméra fisheye. En effet, cette méthode est particulièrement
efficace quand la scène observée est texturée mais non répétitive. Le champ de vue apporté par la
vision omnidirectionnelle permet d'assurer la perception de ce type de zone dans l'environnement.
Cependant, la forte distorsion induite par une caméra omnidirectionnelle nécessite d'utiliser un
modèle de projection approprié, le modèle de la sphère d'équivalence, et d'adapter le calcul de
gradients, ce qui change la matrice d’interaction.
Nous   avons   étendu   l’asservissement   visuel   photométrique   à   la   vision   omnidirectionnelle   et
l'avons appliqué sur un bras robot articulé (figure en page suivante) et un robot mobile, pour des
tâches d’asservissement visuel ou de navigation selon un chemin défini par une base d’images.
Une vidéo de démonstration est disponible sur le site http://mis.u­picardie.fr/~g­caron, dans la
section recherche.



Orateur : A. Dame (IRISA)
Co-auteurs : E. Marchand (IRISA)
Titre : Suivi différentiel reposant sur l'information mutuelle
Résumé : L'information mutuelle est une mesure de la quantité d'information
partagée par deux signaux. Depuis quelques années l'information a été
largement utilisée pour des applications médicales afin d'aligner des
images de différentes modalités. L'information mutuelle montre aussi une
grande robustesse aux changements d'illuminations et d'occultations ce
qui en fait une mesure d'alignement adaptée au suivi différentiel. Dans
cette présentation nous présentons les travaux réalisés sur l'estimation
de paramètres de déplacement d'une réference dans une séquence d'image
par une approche différentielle. Cette approche consiste a trouver le
maximum de l'information mutuelle entre l'image de référence et l'image
de référence déplacée par les paramètre estimés. Les travaux précédents
sur ce sujet montrent une lacune dans l'optimisation de la fonction de
coût du fait d'une approximation faite sur le calcul du Hessien. Cette
approximation rendait nécessaire des méthodes d'optimisation complexes
de type Brent. Nous montrons dans ces travaux que calculer un terme
supplémentaire dans le Hessien permet d'utiliser une simple méthode de
Newton et d'atteindre une précision d'estimation bien supérieure. Des
experiences de suivi dans des cas d'occultations, de changement
d'illumination et de suivi mutlimodal valide la robustesse de cette
approche. Quelques expériences d'asservissement visuel utilisant une
approche similaire seront également présentées et montreront la même
robustesse.

Orateur : L. Ott (LSIIT)
Co-auteurs :  Florent Nageotte, Philippe Zanne et
Michel de Mathelin (LSIIT)
Titre : Commande par vision d'un endoscope flexible pour la compensation
des mouvements physiologiques.
Résumé : Afin d'apporter une assistance robotique aux praticiens lors
d'interventions transluminales, nous avons développé un système de
positionnement automatique de la tête flexible de l'endoscope.
L'objectif est de réaliser une liaison virtuelle entre la tête et une
structure anatomique d'intérêt malgré les mouvements physiologiques,
l'interaction des instruments avec l'environnement et le mouvement
d'enfoncement manuel de l'endoscope. Ce système s'appuie sur la
motorisation d'un endoscope flexible classique, où nous avons remplacé
les molettes de la poignée par deux moteurs pour permettre la commande
numérique des deux degrés de liberté de la tête flexible. La liaison
virtuelle « tête-structure anatomique » est alors réalisée sur la base
d'un schéma d'asservissement visuel 2D.

Orateur : R. Dahmouche (LASMEA)
Co-auteurs : N. Andreff (FEMTO-ST/LASMEA), Y. Mezouar (LASMEA), P. Martinet (LASMEA)
Titre : Acquisition séquentielle de fenêtres d'intérêt pour la commande de robots parallèles rapides
Résumé :
L'une des particularités qui distingue les robots parallèles est que leur état est souvent mieux défini par la pose de l'outil final que par leur configuration articulaire. Ainsi, il est plus pertinent de commander ce type de robots dans l'espace Cartésien que dans l'espace articulaire. Cependant, il n'est pas aisé d'élaborer une commande dans l'espace Cartésien pour ce type de robots à cause de cette même particularité (modèle géométrique directe non explicite), sans tenir compte des erreurs qui pourraient être induites par l'utilisation du modèle géométrique. Il semble ainsi que c'est plus pertinent, du point de vue conceptuel, d'utiliser un capteur extéroceptif sans contact (capteur de vision) pour la mesure de la pose de l'effecteur et pour la commande. Cependant, les systèmes de vision classiques semblent être inappropriés pour la commande dynamique à cause de leur fréquence d'acquisition faible et leur temps de latence important. L'approche que nous proposons est d'effectuer une acquisition séquentielle de fenêtres d'intérêt contenant les primitives visuelles afin d'augmenter la fréquence d'acquisition et de réduire le temps de latence, améliorant par la même occasion la densité d'information contenue dans les images acquises. De plus, ce mode d'acquisition apporte des informations supplémentaires relatives au mouvement observé grâce aux effets visuels dus à l'acquisition non simultanée. Les résultats expérimentaux obtenus lors de la commande en couples calculés d'un robot parallèle (l'Orthoglide) montrent l'efficacité de la méthode.

Pour contacter les organisateurs:
Ouiddad.Labbani.Chez.u-picardie.fr ou Christophe Doignon(c.doignon.Chez.unistra.fr) ou Nicolas.Andreff.Chez.femto-st.fr.

En comptant sur votre participation,
Non conventionnellement,
Ouiddad, Christophe et Nikå