L'actualité du GDR

Prochaine réunion du GT UAV-drone le mardi 12 mai à l'ENSAM (Paris)

Le 12/05/2015



Prochaine réunion du GT UAV le mardi 12 mai (10h-17h) à l'ENSAM (Paris)



Chers collègues,

La prochaine réunion du GT UAV aura lieu le mardi 12 mai à l'ENSAM (Paris).
Vous trouverez ci-dessous le programme préliminaire.
Il reste de la place pour 1 ou 2 exposé(s) : nous vous invitons à nous envoyer rapidement vos propositions (titre, orateur, et résumé).

Bien cordialement,

Pascal Morin et Franck Ruffier
Coordinateurs du GT UAV

GT UAV ”Véhicules Aériens Autonomes ”


GdR MACS et GdR Robotique
Mardi 12 mai 2015
ENSAM, Paris, Amphi Pinel

10h-10h45 : Ludovic Apvrille, Telecom ParisTech


Titre : Autonomous drones


Résumé : Drones usually navigate by going from one GPS position to another one. That kind
of navigation is obviously restricted to areas where the GPS signal is strong, and where the
needed position precision is around a few meters. To safely navigate with a greater precision,
e.g., inside buildings, we have efficiently combine vision-based algorithms and specific flight
maneuvers. Many new applications could take advantage of drone autonomous navigation in
our society, e.g., in the scope of disaster assistance (exploring buildings on fire, finding an
available route for safety teams after earthquake/flooding), and for daily-assistance (guiding
persons in large building complex, assisting disabled people). The presentation will first deal
with technical challenges about autonomous drones, and then it will focus on two case studies :
accurate autonomous navigation within buildings, and people following.

10h45-11h20 : Osamah Saif, Heudiasyc


Titre : Navigation réactive de drones en interaction dans une flottille


Résumé : Cette thèse consiste à concevoir, intégrer et valider théoriquement les algorithmes
et les techniques permettant le vol et l’anticollision de plusieurs quadrirotors. Le travail de
thèse comporte également un aspect expérimental qui consiste à intégrer les techniques
développées sur des plates-formes expérimentales existantes, dans le cadre du projet
d’équipement d’excellence ROBOTEX.

11h20-11h55 : Etienne Servais, L2S


Titre : Etude d’un drone trirotor pour l’exploration et le transport de charge


Résumé : Nous présenterons le modèle d’un drone développé à la Chaire de théorie des systèmes
et génie de la commande de l’Université de la Sarre (Saarbrücken, Allemagne). Ce drone dispose
de trois rotors indépendamment inclinables qui lui permettent d’être totalement actionné. Nous
montrons alors différentes applications du drone, notamment l’exploration de bâtiments en le
convertissant en robot mobile terrestre par l’addition de roues folles, le suivi de trajectoires
aériennes arbitraires et le transport d’une charge pendulaire. Toutes ces applications sont
construites sur la platitude des différents modèles.

11h55-13h30 : Déjeuner

13h30-14h05 : Lotfi Benziane, UVSQ


Titre : Velocity Free Inertial Vector Based Attitude Stabilization of Rigid Body


Résumé : The presentation deals with the problem of attitude stabilization of a rigid body where
neither the angular velocity nor the instantaneous measurements of the attitude are used in the
feedback, only inertial vector measurements are needed. The design of the controller is based
on an angular velocity observer-like system, which is a first order linear auxiliary system based
on inertial vector measurements. The introduction of gain matrices provides more flexibility
on tuning and better results compared with existing works. The proposed controller ensures
almost global asymptotic stability. The performance and effectiveness of the proposed solution
are illustrated via simulation results.


14h05-14h35 : Victor Gibert, AIRBUS-IRCCyN-ONERA


Titre : Solution robustes pour l’atterrissage basé vision


Résumé : Dans le cadre des avions du futur, l’utilisation de la vision (caméra+analyse d’image)
s’avère être une solution alternative en cas d’absence ou de défaillance des solutions existantes
(ILS, GPS, . . . ) lors de la phase d’atterrissage. Le but est donc de proposer des solutions
capables d’assurer les missions d’atterrissage sur pistes inconnues en utilisant des informations
visuelles issues de l’image tout en s’affranchissant de besoin extérieurs. Dans le cadre de cette
thèse, deux solutions ont été proposées : l’asservissement visuel basé position qui consiste à
utiliser des estimateurs non-linéaires fournissant l’estimation des positions relatives de l’avion
par rapport à la piste, et l’asservissement visuel basé image où les objectifs de guidage sont
exprimés directement dans le plan image. Les solutions robustes de guidage et d’estimation
proposées se basent sur des informations visuelles dont la détection par l’analyse d’image s’avère
efficiente comme des points ou des droites ( formulation avec les coordonnées de Plucker ou rho
theta). L’idée est donc de coupler le savoir-faire en matière d’asservissement visuel avec les
compétences en commande et observation/estimation robustes, de façon à obtenir des boucles
d’asservissements visuels robustes (en particulier face aux erreurs d’estimation de pose), tout
en limitant la complexité de l’architecture de commande et du processus de réglage.

14h35-15h10 : Zicheng Hou, Heudiasyc


Titre : Modélisation et conception de lois de commande distribuées pour le vol en formation de drones


Résumé : L’objectif de mes travaux de thèse est de développer le modèle d’une flotte de drones
aériens (UAVs) avec le formalisme leader-suiveur et de proposer un algorithme distribué dépendant
seulement des informations des voisins de chaque drone. Afin d’augmenter la robustesse de
la formation, nous donnons aux drones différents poids pour composer une topologie pondérée.
La loi de commande pour chaque drone est basée sur les inter-distances, les vitesses relatives
et les poids de ses voisins qui se trouvent dans son champ de vision. Une loi de commande
pondérée est proposée afin d’avoir une dynamique approximativement découplée. La nonlinearité
du système est traitée en utilisant la méthode ”Lyapunov Redesign”. Les simulations et les
expériences ont validé l’algorithme proposé dans ce travail.

15h10-15h45 : Maxime Derome, ONERA Palaiseau


Titre : Détection temps-réel d’objets mobiles en stéréo à partir d’une plateforme mobile


Résumé : Les systèmes de navigation visuelle et de reconstruction 3D reposent pour la plupart
sur l’hypothèse d’environnement statique. Pourtant cette hypothèse n’est que rarement
vérifiée dans les scénarios réalistes dans lesquels la présence humaine introduit des éléments dynamiques
dans la scène (piétons, véhicules,...). Une perception de l’environnement dynamique
est donc nécessaire pour des applications comme la navigation autonome en milieu urbain ou
les systèmes d’assistance à la conduite (ADAS). Nous étudions ici une nouvelle méthode de détection
dense d’objets mobiles à partir d’un banc stéréo embarqué sur une plate-forme mobile
(drone, voiture, ...). Remarquant que le coût en temps de calcul des méthodes existantes est
principalement dû à l’estimation du flot optique, nous proposons d’utiliser un algorithme rapide
basé sur le paradigme Lucas-Kanade qui permet d’atteindre une cadence temps-réel. Nous
présentons également un nouveau modèle d’incertitude prenant en compte toutes les erreurs
d’estimation intervenant lors du processus de détection. L’efficacité de l’approche proposée est
démontrée par une étude comparative de différents algorithmes sur des vidéos de la base de
donnée KITTI.


15h45-16h20 : Paul Blondel, Université de Picardie Jules Verne


Titre : Détection de personnes robuste aux points de vues à partir de drones


Résumé : Durant cette intervention je vais faire une introduction aux techniques de détections
de personnes en vision par ordinateur, je vais essentiellement parler d’approches supervisées
de détection, et de méthodes de restriction de l’espace de recherche. Je vais ensuite recontextualiser
la détection de personnes dans le contexte drone, expliquer les limites des approches
de détections classiques et proposer une approche pour adapter la détection supervisée au
contexte drone.

Publié le 27/02/2015