986 articles 
Fiche détaillée Thèses
Université Blaise Pascal - Clermont-Ferrand II (26/09/2006), Michel Dhome (Dir.)
Liste des fichiers attachés à ce document : 
PDF
2006CLF21676.pdf(3.1 MB)
Cartographie 3D et localisation par vision monoculaire pour la navignation autonome d'un robot mobile
Eric Royer1

Ce mémoire de thèse présente la réalisation d'un système de localisation pour un robot mobile fondé sur la vision monoculaire. L'objectif de ces travaux est de pouvoir faire naviguer un véhicule robotique sur parcours donné en milieu urbain. Le robot est d'abord conduit manuellement. Pendant cette phase d'apprentissage, la caméra embarquée enregistre une séquence vidéo. Après un traitement approprié hors ligne, une image prise avec le même matériel permet de localiser le robot en temps réel. Cette localisation peut être utilisée pour commander le robot et faire en sorte qu'il suive de façon autonome le même parcours que durant la phase d'apprentissage. Le principe retenu consiste à construire une carte tridimensionnelle de la zone parcourue pendant la phase d'apprentissage, puis à se servir de la carte pour se localiser. Une grande partie de ce mémoire est consacré à l'étude des performances du système
1 :  LASMEA - Laboratoire des sciences et matériaux pour l'électronique et d'automatique
localisation – vision monoculaire – temps-réel – reconstruction 3D – robot mobile.

3D mapping and localization for the autonomos navigation of a mobile robot relying on monoculaire vision
This thesis presents the realization of a localization system for a mobile robot relying on monocular vision. The aim of this project is to be able to make a robot follow a path in autonomous navigation in an urban environment. First, the robot is driven manually. During this learning step, the on board camera records a video sequence. After an off-line processing step, an image taken with the same hardware allows to compute the pose of the robot in real-time. This localization can be used to control the robot and make it follow the same trajectory as in the learning step. To do this, we build a three dimensional model of the environment (a map) and use this map to localize the robot. The map building step is a structure from motion algorithm. The map is a three dimensional model of the environment made of points. In order to localize the robot, we establish correspondences between the curent image and the 3D model. This allows to compute the pose of the camera and the robot. Even if the goal is to be able to localize a vehicle in an urban environment, we have chosen not to make restrictive assumptions on the structure of the scenes. Additionally, the pose computation is done with six degrees of freedom which doesn't limit the usage of the system to vehicles moving on a ground plane. Finally, a large part of this report is dedicated to the performance evaluation of the system. Many experiments in real situations were conducted to evaluate the robustness. The accuracy was measured by comparing the localization computed with the vision algorithm to the ground truth recorded with a differential GPS sensor.