Physics-Grounded Neuromorphic Computing : From Spiking Neurons to Learning Algorithms - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2023

Physics-Grounded Neuromorphic Computing : From Spiking Neurons to Learning Algorithms

Calcul neuromorphique basé sur la physique : des neurones à impulsions aux algorithmes d'apprentissage

Résumé

In our digital era, marked by an exponential growth in computational power and memory capacity, we are confronted with a pressing challenge: the escalating energy consumption of information technology. The increasing demand for data-intensive services, notably artificial intelligence and cloud computing, underscores the urgent necessity for energy-efficient computing solutions that are environmentally sustainable and foster innovation. This thesis explores the potential of memristors for neuromorphic computing to achieve energy-efficient AI. Because Spiking Neural Networks could offer the promise of low-energy learning, we first focused on hardware neurons composed of volatile NbOx filamentary memristors. These components emerge as appealing alternatives to conventional CMOS devices because of their scalability and spiking behaviors. These devices were characterized and reproduced numerous neuronal spiking and bursting behaviors, such as Leaky-Integrate-and-Fire characteristics and phasic bursting. These behaviors were modeled with non-linear dynamics equations, which accurately reproduced the experiments. In particular, the origin of the phasic bursting phenomenon could be investigated and was shown to emerge from a Hopf bifurcation between the limit cycle and the fixed point regimes. This model could be beneficial when designing spiking neuromorphic chips. We then focused on the algorithmic side and tackled the challenge of adapting the Equilibrium Propagation (EqProp) algorithm to physical systems. EqProp, rooted in physics rather than calculus, offers an attractive prospect—harnessing the inherent physics of hardware systems for on-chip learning. This work revolved around addressing the challenges posed by continuous-valued gradients in a memristor-based environment, where the mode of programming is a series of pulses. We explored various approaches to gradient discretization. The first method, called ternary discretization, demonstrated accuracy rates nearly matching those of conventional EqProp. In this context, we explored the role of hyperparameters and their influence on network performance. We then introduced probabilistic updates, which enhanced performance and gave a pulse distribution that closely mirrored the non-discretized scenario. Introducing more quantized states in gradient discretization outperformed the non-probabilistic ternary approach in terms of performance, but came with a trade-off—a broader pulse spread and increased energy consumption compared to the probabilistic ternary approach. Next, we tested the resilience of the discretized version of EqProp by replacing the ideal software synapses with HfOx memristor data. For this, we used a hardware platform with individually accessible memristors. We first performed control simulations: a single-layer perceptron and a two-layer network with a frozen first layer. These initial experiments provided a glimpse into the potential of memristor-based synapses, with accuracy rates reaching 78.1% and 70.8%, respectively. Next, we trained a one-hidden-layer network. Two distinct weight definitions were analyzed—the linear and logarithmic differences of conductances. The linear definition emerged as the best method, with 91% accuracy compared to the 89.5% achieved by the logarithmic one. To improve the results, we limited the conductance value if it fell below a threshold to mitigate the high-noise and non-linear regime of memristors. With this approach, the linear and logarithmic weight definitions achieved respectively 91.75% and 92.14% accuracy. These results constitute a milestone on the journey towards practical on-chip. In summary, this thesis explores the potential of memristors for neuromorphic computing to realize energy-efficient AI. This field promises breakthroughs at the intersection of physics and AI, offering a more sustainable and powerful future for computing.
À l'ère numérique actuelle, caractérisée par une augmentation exponentielle de la puissance de calcul et de la capacité de mémoire, nous sommes confrontés à un défi pressant : la consommation d'énergie croissante de la technologie de l'information. La demande croissante de services intensifs en données, notamment l'intelligence artificielle (IA) et le cloud computing, souligne la nécessité de calculs respectueux de l'environnement et propices à l'innovation. Cette thèse explore le potentiel des memristors pour le calcul neuromorphique afin de réaliser une IA basse énergie. Nous avons d'abord étudié des neurones composés de memristors volatils NbOx, offrant une alternative attrayante aux dispositifs CMOS classiques par leur scalabilité et leur dynamique. Ces dispositifs ont été caractérisés et présentent de nombreux comportements avec impulsions et bursting, tels que l'intégration et tir avec fuite ou le « phasic bursting ». Nous avons modélisé ces comportements à l'aide de dynamique non linéaire. En particulier, l'origine du « phasic bursting » a pu être élucidée : elle émerge d'une bifurcation de Hopf entre les régimes de cycle limite et de point fixe. Ce modèle peut s'avérer utile lors de la conception de puces neuromorphiques à impulsions. Du côté des algorithmes, nous avons adapté la Propagation à l'Équilibre (EqProp) aux systèmes physiques. EqProp, ancré dans la physique plutôt que dans le calcul, offre une perspective intéressante: exploiter la physique inhérente des systèmes réels pour l'apprentissage sur puce. Ce travail a porté sur l'adaptation des gradients continus aux memristors, où la programmation se fait sous forme d'impulsions. Pour cela, nous avons exploré diverses approches de discrétisation des gradients. La première méthode, la discrétisation ternaire, a démontré des taux de précision comparables à ceux de EqProp. Dans ce contexte, nous avons examiné le rôle des hyperparamètres et leur influence sur les performances du réseau. Nous avons ensuite introduit des mise-à-jours probabilistes, ce qui a amélioré les performances et a permis d'obtenir une distribution de mises-à-jours similaire au cas non discrétisé. Une autre approche avec davantage d'états quantifiés a été étudiée. Bien que cette dernière approche surpasse l'approche ternaire non probabiliste en termes de performances, elle a aussi des désavantages - une distribution plus large des impulsions et une consommation d'énergie plus élevée que l'approche ternaire probabiliste. Nous avons ensuite testé la résilience de la version discrétisée de EqProp en remplaçant les synapses idéales par des mesures de memristors HfOx. À cette fin, nous avons utilisé une plateforme où les memristors étaient accessibles individuellement. Nous avons d'abord effectué des simulations de contrôle : un perceptron à une seule couche et un réseau à deux couches avec première couche gelée. Ces expériences ont donné un aperçu du potentiel des synapses memristives, avec des précisions atteignant 78,1 % et 70,8 %, respectivement. Ensuite, nous avons étudié un réseau à une couche cachée. Deux définitions de poids ont été utilisées - les différences linéaire et logarithmique des conductances. La définition linéaire s'est avérée être la meilleure, avec une précision de 91% comparé à 89,5 % obtenu par la version logarithmique. Pour améliorer ces résultats, nous avons limité la valeur de la conductance au-dessus d'un seuil afin d'atténuer l'effet du régime bruité et non linéaire des memristors. Ainsi, les définitions linéaires et logarithmiques des poids ont respectivement atteint des précisions de 91,75 % et 92,14 %. Ces résultats constituent une étape importante pour la mise en œuvre pratique de l'apprentissage sur puce. En résumé, cette thèse explore le potentiel des memristors pour le calcul neuromorphique afin de réaliser une IA basse énergie. Ce domaine promet des avancées innovantes à l'intersection de la physique et de l'IA, offrant au calcul un futur plus durable et puissant.
Fichier principal
Vignette du fichier
126792_DROUHIN_2023_archivage.pdf (44.22 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-04477502 , version 1 (26-02-2024)

Identifiants

  • HAL Id : tel-04477502 , version 1

Citer

Marie Drouhin. Physics-Grounded Neuromorphic Computing : From Spiking Neurons to Learning Algorithms. Micro and nanotechnologies/Microelectronics. Université Paris-Saclay, 2023. English. ⟨NNT : 2023UPAST168⟩. ⟨tel-04477502⟩
81 Consultations
37 Téléchargements

Partager

Gmail Facebook X LinkedIn More