Exploration and conception of computing architectures of type computing in-memory based on emerging non volatile memories - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2022

Exploration and conception of computing architectures of type computing in-memory based on emerging non volatile memories

Exploration et conception d'architectures de calcul de type in-memory à base de mémoires non volatiles émergentes

Résumé

Today computing centric von Neumann architectures face strong limitations in the data-intensive context of numerous applications. The key limitation is the memory wall due to increased performance gap between processors and memories. To mitigate this gap, cache hierarchy was introduced but it largely increased energy consumption while not being adapted for modern big datasets. Not only those architectures struggle with big datasets due to their high energy consumption and slow bandwidth, they can no longer be improved through technological advances such as node scaling. This calls for a paradigm shift to data centric architecture where treating massive amounts of data in a parallel fashion is the core principle. New emerging Non-Volatile Memories (NVM) promise high density data storage and can easily integrate In-Memory Computing (IMC). IMC purposes is to compute where the data is or the closest to, to suppress back and forth data movements from the memory to the cores. Existing solutions use analog computing that has high efficiency but limited flexibility. When data needs to be written back after computation, endurance of NVM is often not discussed. We design a digital wrapper that extends memory functionality with vector computing capabilities and develop a simulation platform for architecture exploration. Our digital wrapper, aka C-SRAM, can be inte- grated with most memory technologies and comes with its own small SRAM buffer. We demonstrate that computing at the top of the memory hierarchy, i.e. close to the permanent storage, grants in average 17.4× energy reduction and 12.9× speed-up versus SIMD baseline. Thanks to SRAM buffer, NVM’s endurance is not impaired and thereby extends system lifetime compared to other IMC solutions.
Les architectures d’aujourd’hui sont basées sur le modèle de von Neumann qui place au centre l’exécution des instructions. Ces architectures font face à de fortes limitations dans le contexte du big data. En effet, le mur mémoire est un phénomène lié à l’écart grandissant de performances entre les processeurs et les mémoires depuis les années 80. Pour atténuer cet écart, une hiérarchie de caches a été mise en place mais elle a en contrepartie largement augmentée la consommation énergétique sans être adaptée pour les grands jeux de données modernes. Non seulement ces architectures ont du mal avec une masse de données toujours croissantes à cause de leur haute consommation énergétique et leur faible débit, elles ne peuvent plus uniquement se baser sur les avancées technologiques pour s’améliorer. Ceci appelle à un changement de paradigme vers des architectures data centrées où le traitement de quantités de données massives en parallèle est le principe de base. De nouvelles mémoires non volatiles promettent du stockage haute densité et peuvent intégrer du calcul en mémoire. L’intérêt de calculer en mémoire est d’opérer là où se trouve la donnée, ou tout du moins le plus proche possible, pour supprimer les allées et venues permanentes entre la mémoire et les cœurs de calcul. Les solutions existantes utilisent du calcul analogique très efficace mais prompt au bruit et avec une flexibilité limitée. Quand les données doivent être réécrites en mémoire, l’endurance de ces mémoires non volatiles n’est pas discutée. Nous concevons un emballage numérique qui étend les fonctionnalités mémoire avec du calcul vectoriel et développons une plateforme de simulation pour faire de l’exploration architecturale. Notre circuit, bien nommé C-SRAM, peut être intégré avec la plupart des technologies mémoire et est équipé de sa propre mémoire SRAM. Nous démontrons qu’effectuer le calcul au sommet de la hiérarchie mémoire, c’est à dire proche du stockage permanent, permet une réduction de la consommation énergétique d’un facteur 17.4 et une accélération du traitement en moyenne d’un facteur 12.9 comparé à un traitement avec un cœur SIMD. Grâce à la mémoire tampon intégrée, l’endurance de la mémoire non volatile n’est pas impactée et de fait, l’espérance de vie du système s’en trouve augmentée par rapport à d’autres solutions de calcul en mémoire.
Fichier principal
Vignette du fichier
these_111222.pdf (4.05 Mo) Télécharger le fichier
Soutenance.pdf (7.25 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Licence : CC BY NC ND - Paternité - Pas d'utilisation commerciale - Pas de modification
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

tel-04055973 , version 1 (03-04-2023)

Licence

Paternité - Pas d'utilisation commerciale - Pas de modification

Identifiants

  • HAL Id : tel-04055973 , version 1

Citer

Valentin Egloff. Exploration and conception of computing architectures of type computing in-memory based on emerging non volatile memories. Micro and nanotechnologies/Microelectronics. Aix-Marseille Université, 2022. English. ⟨NNT : 2022AIXM0446⟩. ⟨tel-04055973⟩
112 Consultations
238 Téléchargements

Partager

Gmail Facebook X LinkedIn More