F. Jacquey and 5. , Comparaison des différentes approches sur des images omnidirectionnelles (a) (b) FIG. 5, p.34

. Cependant, la taille de chaque contour détecté est la même quelle que soit sa position dans l'image

L. Par-désanamorphose, 36 (b)) présente de bons résultats. Les lignes minces sont correctement détectées comme dans l'approche classique. Cependant, pour les lignes épaisses, les deux frontières sont détectées de la périphérie au centre de l'image. En raison des effets d'interpolation dus à la projection et à la rétro-projection

L. Proportionnelle, 36(c)) présentée dans la Section 3.3, offre des résultats légèrement meilleurs que ceux obtenus avec l'approche par Désanamorphose. Les résultats sont moins bruités, particulièrement au centre de l'image. Cependant, la largeur du contour change en fonction de sa localisation sur l'image. Cet effet est dû à l'imprécision des cellules du masque de Prewitt. En effet, la projection d'une cellule du masque à la périphérie de l'image couvre beaucoup de pixels

. Fournit-aussi-de-bons-résultats, Cependant, vers la périphérie de l'image, le double contour a tendance à se chevaucher

L. Du-gradient-maxitif-fournit, de très bons résultats comme nous pouvons le voir sur la Figure 5.36(f) Comme pour l'approche floue et l'approche proportionnelle, la taille des masques dépend de leur position dans l'image. On obtient donc des contours plus fins au centre de l'image qu'à la périphérie. De plus cette approche fournit un seuillage naturel de l'image

L. Figure, 34(b) représente un couloir avec un quadrillage de fenêtres et de l'autre coté, des panneaux d'affichages. Cette image contient toute sorte de contours radiaux, concentriques et obliques et nous permet de valider nos algorithmes sans fournir de mire de départ. Cette image ne contient que des contours physiques

C. Pour and L. Figure, 34(a), nous avons représenté Figure 5.37 l'ensemble des contours détectés avec chaque approche. La Figure 5.38 représente un zoom sur une partie des fenêtres de l'image

. Sur-la-figure, 38(a), nous pouvons constater que le filtre de Prewitt s'avère incapable de détecter les contours des fenêtres correctement : il ne détecte qu'un seul contour pour deux fenêtres mitoyennes

L. Filtres-de-canny-deriche, 38(g)) et Shen-Castan (Figure 5.38(h)) fournissent comme précédemment de très bons résultats

L. Par-désanamorphose, 38 (b)) est elle aussi très sensible au bruit. Les fenêtres sont correctement détectées à l'extérieur de l'image, cependant, les contours obtenus sont relativement bruités et fusionnent en se rapprochant du centre de l'image

L. Proportionnelle, 38(c)) présentée dans la Section 3.3, offre des résultats à peu près similaires aux résultats obtenus avec l'approche par Désanamorphose. Les noyaux variables fournissent des contours plus fins au centre qu'à la périphérie de l'image

L. Approches and F. Avec, et sans (Figure 5.38(e)) interactions fournissent toutes deux de bons résultats (d'autant plus si on les compare aux autres images obtenues en utilisant le filtre de Prewitt) Les contours sont correctement détectés pour chaque fenêtre du centre à la périphérie de l'image. Ces contours sont adaptés à la géométrie de l'image omnidirectionnelle et, sur ces figures, on peut visualiser très nettement la variation de la taille des contours en fonction de la position dans l'image

C. Drocourt, P. Vasseur, C. Cauchois, and E. Brassart, Calibration of the omnidirectional vision sensor : Syclop, pp.1287-1292, 1999.

D. Kachi-akkouche and C. Demonceaux, Optical flow estimation in omnidirectional images using wavelet approach, 2003.

P. Vasseur and C. Demonceaux, Markov random fields for catadioptric image processing, Pattern Pattern Recognition Letters, vol.27, issue.16, pp.1957-1967, 2006.
URL : https://hal.archives-ouvertes.fr/hal-01205587

K. Daniilidis and C. Geyer, Catadioptric projective geometry, International Journal of Computer Vision, vol.43, pp.223-243, 2001.

S. Sastry, C. Geyer, and R. Bajcsy, Euclid meets fourier : Applying harmonic analysis to essential matrix estimation in omnidirectional cameras, Proceedings of Omnidirectional Vision, Camera Networks and Non-classical Cameras in conjunction with ECCV'04 : European Conference on Computer Vision, 2004.

E. M. Mouaddib and C. Pégard, A mobile robot using panoramic view, pp.89-94, 1996.

J. Canny, A computational approach to edge detection, Transactions on Pattern Analysis and Machine Intelligence, vol.8, issue.6, pp.679-698, 1986.

G. Mauris, H. Prade, D. Dubois, and L. Foulloy, Probability-possibility transformations, triangular fuzzy sets, and probabilistic inequalities, Reliable Computing, vol.10, issue.4, pp.273-297, 2004.

H. Prade and D. Dubois, Unfair coins and necessity measures : toward a possibilistic interpretation of histograms. Fuzzy Sets and Systems, pp.15-20, 1983.

D. Prade and . Dubois, Possibility Theory An Approach to Computerized Processing of Uncertainty, 1988.

L. Foulloy, G. Mauris, D. Dubois, and H. Prade, Probability-possibility transformations, triangular fuzzy sets, and probabilistic inequalities, Reliable Computing, vol.10, pp.273-297, 2004.

D. Denneberg, Non Additive Measure and Integral, 1994.
DOI : 10.1007/978-94-017-2434-0

R. Deriche, Fast algorithms for low-level vision. Transactions on Pattern Analysis and Machine Intelligence, 1990.

C. Drocourt, Localisation et modélisation de l'environnement d'un robot mobile par coopération de deux capteurs omnidirectionnels, 2002.

J. R. Fram and E. S. Deutsch, A quantitative study of the orientational bias of some edge detector schemes, IEEE Transactions on Computers, 1978.

F. Comby, O. Strauss, F. Jacquey, and K. Loquin, Non-additive approach for gradient-based edge detection, ICIP'07 : International Conference on Image Processing, pp.49-52, 2007.
URL : https://hal.archives-ouvertes.fr/hal-00368399

O. Strauss, F. Jacquey, and F. Comby, Fuzzy edge detection for omnidirectional images. LFA'06 : Rencontres francophones sur la Logique Floue et ses Applications, pp.379-386, 2006.
URL : https://hal.archives-ouvertes.fr/lirmm-00299544

O. Strauss, F. Jacquey, and F. Comby, Non-additive approach for omnidirectional image gradient estimation, OMNIVIS'07 : Workshop on Omnidirectional Vision and Camera Networks in the ICCV'07 International Conference on Computer Vision, 2007.
URL : https://hal.archives-ouvertes.fr/lirmm-00194216

J. J. Gonzalez-barbosa, Vision panoramique pour la robotique mobile : stéréovision et localisation par indexation d'images, 2004.

P. Greguss, PAL-optic based instruments for space research and robotics, 1996.

T. Pajdla and H. Bakstein, Panoramic mosaicing with a 180° field of view lens, pp.60-67, 2002.

R. Cutler and H. Nanda, Practical calibrations for a real-time digital omnidirectional camera. CV- PR'01 : Computer Vision and Pattern Recognition, 2001.

J. Thiran, P. Vandergheynst, I. Bogdanova, and X. Bresson, Scale-space analysis and active contours for omnidirectional images, IEEE Transactions on Image Processing, pp.1888-1901, 2007.

P. Frossard, P. Vandergheynst, I. Tosic, and I. Bogdanova, Multiresolution motion estimation for omnidirectional images, 2005.

I. L. Ayache and . Herlin, A new methodology to analyse time sequences of ultrasound images, 1991.

H. Ishiguro, Development of low-cost compact omnidirectional vision sensors and their applications, ISAS'98 : International Conference on Information Systems, pp.433-439, 1998.

J. Lacroix and . Gonzalez-barbosa, Un algorithme rapide de stéréovision panoramique dense, 2003.

P. Bolon, J. M. Chassery, D. Demigny, C. Graffigne, A. Montanvert et al., Analyse d'images : filtrage et segmentation, 1995.

E. S. Deutsch and J. R. Fram, On the quantitative evaluation of edge detection schemes and their comparisions with human performance, IEEE Transaction on Computers, issue.6, pp.24616-627, 1975.

T. Bulow, K. Daniilidis, and A. Makadia, Image processing in catadioptric planes : Spatiotemporal derivatives and optical flow computation. OMNIVIS'02 : Workshop on Omnidirectional Vision, pp.3-10, 2002.

M. Yachida, K. Yamazawa, and Y. Yagi, Omnidirectional imaging with hyperboloidal projection, IROS'93 : Proceedings IEEE/RSJ International Conference on Intelligent Robots and Systems, pp.1029-1034, 1993.

K. H. Ahuja, H. Tan, and . Hua, Multiview panoramic cameras using a mirror pyramid. OMNI- VIS'02 : Workshop on Omnidirectional Vision, p.87, 2002.

B. Marhic, P. Vasseur, L. Delahoche, and C. Pegard, A navigation system based on an omnidirectional vision sensor, pp.718-724, 1997.

V. Lasserre, Modelisation Floue des Incertitudes de Mesures de Capteurs, 1999.

C. Barrows and M. Barth, A fast panoramic imaging system and intelligent imaging technique for mobile robots, IROS'96 : Proceedings of the 1996 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp.626-633, 1996.

I. Hara, H. Asoh, T. Matsui, N. Vlassis, and Y. Motomura, Edge-based features from omnidirectional images for robot localization, pp.1579-1584, 2001.

V. Nalwa, A true omnidirectional viewer, 1996.

S. K. Nayar, Omnidirectional video camera, Proceedings of DARPA Image Understanding Workshop, 1997.

C. Gastaud, P. Garda, O. Romain, and T. Ea, Un capteur multi-spectral de vision panoramique 3d. ORASIS'01 : Congrès francophone de vision, pp.359-366, 2001.

S. Sastry, O. Shakernia, and R. Vidal, Omnidirectional egomotion estimation from back-projection flow, 2003.

F. Comby and O. Strauss, Fuzzy morphology for omnidirectional images, pp.141-144, 2005.
URL : https://hal.archives-ouvertes.fr/lirmm-00106480

Y. Aloimonos, R. Pless, P. Baker, and C. Fermüller, A spherical eye from multiple cameras (makes better model of the world), pp.576-583, 2001.

B. Krose and R. Bunschoten, Robust scene reconstruction from an omnidirectional vision system, 2003.

J. Salvi, R. Orghidan, and E. Mouaddib, Système de vision 3d omnidirectionnelle, 9èmes journées ORASIS, 2005.

S. K. Nayar and R. Swaminathan, Non-metric calibration of wide-angle lenses and polycameras, pp.413-419, 2000.

S. K. Nayar, R. Swaminathan, and M. D. Grossberg, Non-Single Viewpoint Catadioptric Cameras : Geometry and Analysis, International Journal of Computer Vision, vol.66, issue.3, pp.211-229, 2006.

C. Rabaud, Une Nouvelle Approche de Mise en Correspondance Stéréoscopique Dense par Méthodes Possibilistes, 2005.

S. Ramalingam, P. Sturm, and S. Lodha, Generic calibration of axial cameras, 2005.
URL : https://hal.archives-ouvertes.fr/inria-00070198

D. Rees, Panoramic television viewing system, p.465, 1970.

S. K. Nayar and S. Baker, A theory of single-viewpoint catadioptric image formation, International Journal of Computer Vision, vol.35, issue.2, pp.175-196, 1999.

S. K. Nayar and S. Baker, Single Viewpoint Catadioptric Cameras, 2001.

S. Durand, E. Mouaddib, S. Bigot, and D. Kachi, Spherical image denoising and its application to omnidirectional imaging, pp.8-11, 2007.
URL : https://hal.archives-ouvertes.fr/hal-01198530

J. Devars, S. Ieng, and R. Benosman, An efficient dynamic multi-angular feature points matcher for catadioptric views, CVPRW'03 : Conference on Computer Vision and Pattern Recognition Workshop OMNIVIS'03 : Omnidirectional Vision and Camera Networks, 2003.

M. Ban-ezra and S. Peleg, Stereo panorama with a single camera, pp.395-401, 1999.

J. Shen and S. Castan, An optimal linear operator for step edge detection. CVGIP'92 : Computer Vision Graphics and Image Processing, pp.112-133, 1992.
DOI : 10.1016/1049-9652(92)90060-b

A. Karmarkar and S. K. Nayar, 360*360 mosaics, pp.388-395, 2000.

P. Smets, Constructing the Pignistic Probability Function in a Context of Uncertainty, Uncertainty in Artificial Intelligence, vol.5, pp.29-39, 1990.
DOI : 10.1016/B978-0-444-88738-2.50010-5

L. Spacek, Omnidirectional catadioptric vision sensor with conical mirrors. TIMR'03 : Towards Intelligent Mobile Robotics, 2003.

R. Bajcsy and S. S. Lin, True single view point cone mirror omni-directional catadioptric system, pp.102-107, 2001.

C. Gastaud, P. Garda, T. Ea, and O. Romain, Un capteur de sphereo-vision stereoscopique couleur. ORASIS'01 : Congrès francophone de Vision par Ordinateur, 2001.

S. Vedula, H. Saito, T. Kanade, and P. Rander, Virtualized reality : Digitizing a 3d time-varying event as is and in real time, Mixed Reality, Merging Real and Virtual Worlds, pp.41-57, 1999.

T. Thompson, H. Matsui, and . Asoh, Mobile robot localization using circular correlations of panoramic images, Proceedings of the 2000 IEEE/RSJ International Conference on Intelligent Robots and Systems IROS2000, 2000.

V. Hlavàc and T. Pajdla, Image-based self-localization by means of zero phase representation in panoramic images, Proceedings of the Second International Conference on Advances in Pattern Recognition, pp.24-31, 2001.

V. Hlavac, T. Svoboda, and T. Pajdla, Motion estimation using central panoramic cameras, International Conference on Intelligent Vehicles, pp.335-340, 1998.

N. Winters, J. Santos, and . Victor, Omni-directional visual navigation
DOI : 10.1109/omnvis.2000.853799

URL : http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.108.1570

H. Tsuji, Y. Yagi, and S. Kawato, Real-time omnidirectional image sensor (copis) for vision-guided navigation, IEEE Transactions Robotics and Automation, vol.10, pp.11-22, 1994.

Y. Yagi and S. Kawato, Panorama scene analysis with conic projection, IEEE International Workshop on Intelligent Robots and Systems, Towards a New Frontier of Applications, pp.181-187, 1990.
DOI : 10.1109/IROS.1990.262385

G. Xu, X. Lin, D. Shi, Z. Zhu, and S. Yang, Fast road clasification and orientation estimation using omni-view image an neural networks, Transactions on Image Processing, vol.7, pp.1182-1197, 1998.

L. A. Zadeh, Knowledge representation in fuzzy logic, An Introduction to Fuzzy Logic Applications in Intelligent Systems, pp.1-25, 1992.