Apprentissage : Paradigmes, Structures et abstractions - TEL - Thèses en ligne Accéder directement au contenu
Hdr Année : 2009

Machine Learning: Paradigms, Structures, Abstractions

Apprentissage : Paradigmes, Structures et abstractions

Résumé

The work presented here concerns Machine Learning, and particularly supervised learning, together with knowledge discovery through data mining. The approach is logical and learning is considered as a search problem in a partially ordered space. The hidden structure of the data relates the statements of the representation language and their extension in the universe of instances, in an intension/extension lattice. I first discuss how using the hidden structure allows to reduce the search in supervised concentp learning problems. Then I present a form of abstraction that reduces the intension/exension lattice by changing the granlularity of the representation language or of the universe of instances. Some work concerning the extraction of repeated sequential motifs, in particular in bioInformatics, are also discussed from this intension-extension-abstraction point of view. Finally two recnt paradigms in supervised learning are explored. The first one addresses the ambiguity of the instances, and the second one extends supervised learning to a multi-agent collaborative setting.
L'ensemble des travaux présentés relève de l'Apprentissage Artificiel, et aborde l'apprentissage supervisé, ainsi que l'aide à la découverte par la fouille de données. On se place ici dans le cas où un problème d'apprentissage passe par l'exploration d'un "Espace de Recherche", constitué de représentations formées dans un certain langage d'énoncés. La structure cachée liant "énoncés" et sous-ensembles d'"objets", représentable dans un treillis intension/extension, permet en particulier de réduire l'espace de recherche dans les problèmes d'apprentissage supervisé. Je présente ensuite une forme d'"abstraction" ordonnée faisant varier le niveau de granularité des énoncés, ou des objets considérés, et garantissant que le treillis intension/extension est ainsi lui-même réduit. Certains travaux concernant la recherche de motifs séquentiels réquents, sont également interprétés du point de vue de cette relation intension/extension. Enfin, deux "paradigmes" nouveaux en apprentissage supervisé sont présentés, l'un traitant de la notion d'ambiguïté des exemples, l'autre étendant l'apprentissage supervisé cohérent dans un cadre collectif.
Fichier principal
Vignette du fichier
exempleDef.Rem2tex.pdf (1.21 Mo) Télécharger le fichier
Loading...

Dates et versions

tel-00514160 , version 1 (01-09-2010)

Identifiants

  • HAL Id : tel-00514160 , version 1

Citer

Henry Soldano. Apprentissage : Paradigmes, Structures et abstractions. Informatique [cs]. Université Paris-Nord - Paris XIII, 2009. ⟨tel-00514160⟩
198 Consultations
341 Téléchargements

Partager

Gmail Facebook X LinkedIn More