s'authentifier
version française rss feed
Fiche détaillée HDR
Université Paul Sabatier - Toulouse III (02/12/2011), M.DEVY (Pr.)
Liste des fichiers attachés à ce document : 
PDF
hdr.pdf(5.3 MB)
Contribution à la navigation d'un robot mobile par commande référencée multi-capteurs
Viviane Cadenat1

Dans ce manuscrit, nous nous intéressons au problème de la navigation d'un robot mobile par commande référencée multi-capteurs. Notre objectif est d'effectuer des tâches de navigation guidées par la vision dans des environnements d'intérieur structurés peu connus, possiblement évolutifs et où l'homme peut être présent. Les missions considérées pourront inclure de longs déplacements et consisteront à positionner le robot vis-à-vis d'un amer ou d'une personne d'intérêt. Leur position dans la scène étant inconnue, ils seront repérés par la vision. Afin de pouvoir réaliser de telles missions, différents problèmes doivent être traités : le mouvement vers le but, l'évitement d'obstacles, le traitement des occultations, la réalisation de longs déplacements. Si les trois premiers points ont un caractère intrinsèquement local, le dernier nécessite des compétences globales. Les travaux que nous avons menés cherchent à répondre à ces différents problèmes. Tout d'abord, nous nous sommes focalisés sur les aspects "locaux". Nous avons ainsi exploité l'asservissement visuel 2D pour réaliser la tâche de navigation nominale et permettre au robot de converger vers un amer ou une personne d'intérêt. Cependant, bien que cette technique présente de bonnes propriétés de robustesse, elle ne permet pas à elle seule de traiter efficacement les problèmes de collisions et d'occultations. Une de nos premières contributions a donc consisté en le développement de stratégies de commande garantissant la non collision en présence d'obstacles non occultants. Sur la base de ces résultats, nous nous sommes intéressés à la gestion des occultations et avons développé des algorithmes permettant de reconstruire les indices visuels lorsque ceux-ci sont indisponibles. Nous les avons ensuite couplés à nos stratégies de commande afin que le robot puisse évoluer à partir des indices visuels réels ou reconstruits selon le cas. L'association de ces différents techniques et algorithmes a permis de réaliser effica cement des tâches de navigation référencées vision en présence d'obstacles occultants et non occultants. Cependant, elle nécessite que l'amer ou la personne d'intérêt soit visible dès le début de la mission, ce qui n'est pas le cas lorsque l'on souhaite réaliser de longs déplacements. Nos dernières contributions sont donc focalisées sur ce problème. Afin de conférer au robot les compétences globales nécessaires, nous avons couplé une carte topologique représentant l'environnement à un algorithme de supervision gérant la stratégie de commande. Le robot est ainsi devenu capable d'effectuer de longs déplacements dans des scènes peu connues. L'ensemble de ces travaux a été validé en simulation et expérimentalement sur les différents robots à disposition. Les résultats obtenus montrent la pertinence de l'approche proposée et ouvrent des perspectives prometteuses dans et hors du contexte de la navigation.
1 :  LAAS - Laboratoire d'analyse et d'architecture des systèmes [Toulouse]
LAAS-RAP
Asservissement visuel – Commande référencée multi-capteur – Navigation

In this manuscript, we consider the problem of mobile robots navigation using multisensor- based control. Our objective is to safely perform vision-based displacements through poorly known indoor environments which may be evolutive and cluttered. The missions to be realized consist in positioning the vehicle with respect to a landmark or a person of interest. To do so, different problems have to be addressed : the motion towards the goal, the obstacle avoidance, the occlusion management, the realization of long range vision-based displacements. If the first three mentioned points are typically local issues, the last one requires to give the robot global skills. Our works have dealt with each of these problems, but, in a first step, we have only considered local issues. We have thus developed an image based visual servoing (IBVS) allowing to make the robot converge towards either a landmark or a person of interest, thus performing the nominal vision-based task. However, although this kind of control is known for its nice robustness properties, it does not allow to efficiently treat the problems of collisions and occlusions. Therefore, our next contributions have consisted in designing multi-sensor-based control strategies guaranteeing non collision when the environment is cluttered with non occluding obstacles. Then, in the sequel of these results, we have addressed the problem of the image features loss. We have designed algorithms allowing to reconstruct the visual signals when an occlusion occurs. These algorithms have then been coupled to the above mentioned control strategies, allowing to safely perform the navigation task amidst both occluding and non occluding obstacles. At this step, the mission can be realized only if the goal can be perceived from the robot initial configuration, which is not the case for a long range navigation. Our last contributions have tried to answer this problem by giving the vehicle the required global skills. To do so, we have coup led a topological map representing the environment to a supervision algorithm managing the control strategy. In this way, the robot is able to perform vision-based long range displacements in an environment cluttered with both occluding and non occluding obstacles. These works have been validated in simulation and implemented on our robots. The obtained results have shown the efficiency of the proposed approach and have opened new interesting research axes.
Visual servoing – Multi-sensor-based control

tous les articles de la base du CCSd...
tous les articles de la base du CCSd...
tous les articles de la base du CCSd...
tous les articles de la base du CCSd...
tous les articles de la base du CCSd...