s'authentifier
version française rss feed
Fiche détaillée Thèses
Télécom Bretagne (20/07/2011), Claude Berrou (Dir.)
Liste des fichiers attachés à ce document : 
PDF
these.pdf(1 MB)
ANNEX
soutenance.pdf(827 KB)
Réseaux de cliques neurales
Vincent Gripon1

Nous proposons et développons un modèle original de mémoires associatives s'appuyant sur des réseaux de neurones codés. Les mémoires associatives sont des dispositifs capables d'apprendre des messages binaires puis de les reproduire à partir de fractions de leurs contenus. L'état de l'art est le réseau proposé par Hopfield, dont la diversité de mémorisation - le nombre de messages qu'il peut n mémoriser - est inférieure à 2 log(n) où n est le nombre de neurones dans le réseau. Notre travail a consisté à tirer parti des techniques de codage et de déco- dage correcteur d'erreur, plus précisément celle des codes distribués, afin d'ac- croître considérablement les performances des mémoires associatives. Pour ce faire, nous avons introduit des codes originaux dont les mots de code sont portés par des cliques neurales. Nous montrons que, combinées à des codes locaux par- cimonieux, ces cliques neurales offrent une diversité d'apprentissage qui évolue comme le carré du nombre de neurones. Les gains observés viennent de l'utilisation de la parcimonie à plusieurs é- chelles : d'une part les messages appris sont de longueur bien inférieure à n, d'autre part ils n'utilisent qu'une partie du matériel disponible, que ce soit au niveau des neurones ou de leurs connexions. L'apprentissage est donc localisé, au contraire des réseaux de Hopfield. De plus, ces mémoires bénéficient d'une efficacité - rapport du nombre de bits appris au nombre de bits utilisés - presque maximale. Elles se présentent donc comme une alternative intéressante aux mé- moires indexées classiques. Au delà de l'aspect quantitatif, le modèle que nous proposons offre une plau- sibilité biologique fortement accrue par rapport au modèle de Hopfield. Les con- cepts de cliques neurales, de winner take all, ou encore de synchronisation tem- porelle que ce modèle exploite rejoignent les observations récentes rapportées par la littérature neurobiologique. Par ailleurs, elles pourraient ouvrir la voie à la conception de machines cognitives capables de croiser des informations pour en produire de nouvelles car les cliques neurales sont recouvrantes, par leurs som- mets ou par leurs arêtes.
1 :  ELEC - Département Electronique
Lab_STICC_TB_CACS_IAS
réseaux de neurones – mémoires associatives – apprentissage automatique – codes correcteurs d'erreur

Networks of Neural Cliques
We propose and develop an original model of associative memories relying on coded neural networks. Associative memories are devices able to learn messages then to retrieve them from part of their contents. The state-of-the-art model in terms of efficiency (ratio of the amount of bits learned to the amount of bits used) is the Hopfield Neural Network, whose learning diversity - the number of mes- sages it can store - is lower than n 2 log(n) where n is the number of neurons in the network. Our work consists of using error correcting coding and decoding techniques, more precisely distributed codes, to considerably increase the performance of associative memories. To achieve this, we introduce original codes whose code- words rely on neural cliques. We show that, combined with sparse local codes, these neural cliques offer a learning diversity which grows quadratically with the number of neurons. The observed gains come from the use of sparsity at several levels: learned messages length is much shorter than n, and they only use part of the avail- able material both in terms of neurons and connections. The learning process is therefore local, contrary to the Hopfield model. Moreover, these memories of- fer an efficiency nearly optimal. Therefore they appear to be a very interesting alternative to classical indexed memories. Beside the performance aspects, the proposed model offer much greater bio- logical plausibility than the Hopfield one. Indeed, the concepts of neural cliques, winner-take-all, or even temporal synchronization that we introduce into our networks match recent observations found in the neurobiological literature. More- over, since neural cliques are intertwined by their vertices and/or their connec- tions, the proposed model offers new perspectives for the design of cognitive ma- chines able to cross pieces of information in order to produce new ones.
neural networks – associative memories – machine learning – error correcting codes

tous les articles de la base du CCSd...
tous les articles de la base du CCSd...
tous les articles de la base du CCSd...
tous les articles de la base du CCSd...
tous les articles de la base du CCSd...