Plasticité et codage temporel dans les réseaux impulsionnels appliqués à l'apprentissage de représentations - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2022

Plasticity and temporal coding in spiking neural networks applied to representation learning

Plasticité et codage temporel dans les réseaux impulsionnels appliqués à l'apprentissage de représentations

Résumé

Neuromorphic computing is a rapidly growing field of computer science. It seeks to define models of computation inspired by the properties of the brain. Neuromorphic computing redefines the nature of the three key components of learning: 1) data, 2) computing substrate, and 3) algorithms, based on how the brain works. First, the data are represented with all-or-nothing events distributed in space and time: spikes. Second, the computational substrate erases the separation between computation and memory introduced by Von Neumann architectures by co-locating them, as in the brain. Furthermore, the computation is massively parallel and asynchronous allowing the computational units to be activated on the fly, independently. Third, the learning algorithms are adapted to the computing substrate by exploiting the information available locally, at the neuron level. This vast overhaul in the way information transfer, information representation, computation and learning are approached, allows neuromorphic processors to promise in particular an energy saving of a considerable factor of 100 to 1000 compared to CPUs. In this thesis, we explore the algorithmic side of neuromorphic computing by proposing event-driven learning rules that satisfy locality constraints and are capable of extracting representations of event-based, sparse and asynchronous data streams. Moreover, while most related studies are based on rate codes where information is exclusively represented in the number of spikes, our learning rules exploit much more efficient temporal codes, where information is contained in the spike times. We first propose an in-depth analysis of a temporal coding method using a population of neurons. We propose a decoding method and we analyze the delivered information and the code structure. Then we introduce a new event-driven and local rule capable of extracting representations from temporal codes by storing centroids in a distributed way within the synaptic weights of a neural population. We then propose to learn representations not in synaptic weights, but rather in transmission delays operating intrinsically in the temporal dimension. This led to two new event-driven and local rules. One rule adapts delays so as to store representations, the other rule adapts weights so as to filter features according to their temporal variability. The two rules operate complementarily. In a last model, these rules adapting weights and delays are augmented by a new spatio-temporal neuromodulator. This neuromodulator makes it possible for the model to reproduce the behavior of self-organizing maps with spiking neurons, thus leading to the generation of ordered maps during the learning of representations. Finally, we propose a new generic labeling and voting method designed for spiking neural networks dealing with temporal codes. This method is used so as to evaluate our last model in the context of categorization tasks.
Le calcul neuromorphique est un domaine de l'informatique en plein essor. Il cherche à définir des modèles de calculs s'inspirant des propriétés du cerveau. Le calcul neuromorphique redéfinit la nature des trois composants clés de l'apprentissage : 1) données, 2) substrat de calcul et 3) algorithmes, en se fondant sur le fonctionnement du cerveau. Premièrement, les données sont représentées avec des événements tout ou rien distribués dans l'espace et le temps : les impulsions neuronales. Deuxièmement, le substrat de calcul efface la séparation entre calcul et mémoire introduite par les architectures de Von Neumann en les co-localisant, comme dans le cerveau. En outre, le calcul est massivement parallèle et asynchrone permettant aux unités computationnelles d'être activées à la volée, de façon indépendante. Troisièmement, les algorithmes d'apprentissage sont adaptés au substrat en exploitant les informations disponibles localement, au niveau du neurone. Ce vaste remaniement dans la manière d'appréhender la représentation et le transfert de l'information, le calcul et l'apprentissage, permettent aux processeurs neuromorphiques de promettre notamment un gain d'énergie d'un facteur considérable de 100 à 1000 par rapport aux CPU. Dans cette thèse, nous explorons le versant algorithmique du calcul neuromorphique en proposant des règles d'apprentissage événementielles répondant aux contraintes de localité et capables d'extraire des représentations de flux de données impulsionnels, épars et asynchrones. En outre, alors que la plupart des travaux connexes se basent sur des codes par taux de décharge où l'information est exclusivement représentée dans le nombre d'impulsions, nos règles d'apprentissage exploitent des codes temporels beaucoup plus efficients, où l'information est contenue dans les temps d'impulsions. Nous proposons d'abord une analyse approfondie d'une méthode de codage temporel par population de neurones, en proposant une méthode de décodage, et en analysant l'information délivrée et la structure du code. Puis nous introduisons une nouvelle règle événementielle et locale capable d'extraire des représentations de codes temporels en stockant des centroïdes de manière distribuée dans les poids synaptiques d'une population de neurones. Nous accentuons ensuite la nature temporelle de l'apprentissage en proposant d'apprendre des représentations non pas dans les poids synaptiques, mais dans les délais de transmission opérant intrinsèquement dans la dimension temporelle. Cela a engendré deux nouvelles règles événementielles et locales. Une règle adapte les délais de sorte à stocker des représentations, l'autre règle adapte les poids de sorte à filtrer les caractéristiques en fonction de leurs variabilité temporelle. Ces deux règles opèrent de manière complémentaire. Dans un dernier modèle, ces règles adaptant poids et délais sont augmentées par un nouveau neuromodulateur spatio-temporel. Ce neuromodulateur permet au modèle de reproduire le comportement des cartes auto-organisatrices dans un substrat impulsionnel, aboutissant ainsi à la génération de cartes ordonnées lors de l'apprentissage de représentations. Enfin nous proposons une nouvelle méthode générique d'étiquetage et de vote conçue pour des réseaux de neurones impulsionnels traitant des codes temporels. Cette méthode nous permet d'évaluer notre dernier modèle sur des tâches de catégorisation.
Fichier principal
Vignette du fichier
DDOC_T_2022_0299_FOIS.pdf (53.28 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

tel-04072647 , version 1 (18-04-2023)

Identifiants

  • HAL Id : tel-04072647 , version 1

Citer

Adrien Fois. Plasticité et codage temporel dans les réseaux impulsionnels appliqués à l'apprentissage de représentations. Informatique [cs]. Université de Lorraine, 2022. Français. ⟨NNT : 2022LORR0299⟩. ⟨tel-04072647⟩
69 Consultations
3 Téléchargements

Partager

Gmail Facebook X LinkedIn More