Maison > web3.0 > CRAM : une nouvelle conception de puce qui pourrait réduire la consommation d'énergie des protocoles d'IA de plusieurs ordres de grandeur

CRAM : une nouvelle conception de puce qui pourrait réduire la consommation d'énergie des protocoles d'IA de plusieurs ordres de grandeur

WBOY
Libérer: 2024-08-12 21:03:14
original
885 Les gens l'ont consulté

L'intelligence artificielle (IA) continue d'alimenter la 4ème révolution industrielle, parallèlement à ses besoins énergétiques. Aujourd'hui, tout le monde peut accéder à des outils d'IA avancés

CRAM : une nouvelle conception de puce qui pourrait réduire la consommation d'énergie des protocoles d'IA de plusieurs ordres de grandeur

L'intelligence artificielle (IA) continue d'alimenter la 4ème révolution industrielle, parallèlement à ses besoins énergétiques. Aujourd’hui, n’importe qui peut accéder à des outils d’IA avancés et les intégrer dans ses systèmes pour améliorer l’efficacité et réduire la charge de travail. L’énergie nécessaire pour alimenter ces algorithmes augmente à mesure que la demande d’applications d’IA augmente. C’est pourquoi les environnementalistes soulignent déjà les problèmes de durabilité entourant cette technologie. Heureusement, une équipe de chercheurs a créé une alternative très efficace. Voici ce que vous devez savoir.

Demandes croissantes en énergie pour l'IA créant une crise énergétique

De nouveaux systèmes d’IA continuent d’être lancés à une fréquence croissante. Les prévisions mondiales les plus récentes sur la consommation d'énergie prévoient que la consommation d'énergie de l'IA doublera, passant de 460 térawattheures (TWh) en 2022 à 1 000 TWh d'ici 2026. Ces protocoles incluent des recommandations, des modèles de langage étendus (LLM), le traitement et la création d'images et de vidéos, Web3. services, et plus encore.

Selon l'étude du chercheur, les systèmes d'IA nécessitent un transfert de données qui équivaut à « 200 fois l'énergie utilisée pour le calcul lors de la lecture de trois opérandes sources de 64 bits et de l'écriture d'un opérande de destination de 64 bits dans une mémoire principale hors puce ». En tant que tel, la réduction de la consommation d’énergie pour les applications informatiques d’intelligence artificielle (IA) est une préoccupation majeure pour les développeurs qui devront surmonter cet obstacle pour parvenir à une adoption à grande échelle et faire mûrir la technologie.

Heureusement, un groupe d'ingénieurs innovants de l'Université du Minnesota a proposé une solution possible qui pourrait réduire la consommation d'énergie des protocoles d'IA de plusieurs ordres de grandeur. Pour accomplir cette tâche, les chercheurs introduisent une nouvelle conception de puce qui améliore l’architecture Von Neumann que l’on trouve aujourd’hui dans la plupart des puces.

Architecture Von Neumann

John von Neumann a révolutionné le secteur informatique en 1945 en séparant les unités logiques et mémoire, permettant ainsi une informatique plus efficace à l'époque. Dans cet agencement, la logique et les données sont stockées dans différents emplacements physiques. Son invention a amélioré les performances car elle permettait d'accéder aux deux simultanément.

Aujourd'hui, la plupart des ordinateurs utilisent encore la structure Von Neuman avec votre disque dur stockant vos programmes et la mémoire vive (RAM) hébergeant les instructions de programmation et les données temporaires. La RAM d'aujourd'hui accomplit cette tâche en utilisant diverses méthodes, notamment la DRAM, qui exploite les condensateurs, et la SRAM, qui comporte plusieurs circuits.

Notamment, cette structure a très bien fonctionné pendant des décennies. Cependant, le transfert constant de données entre la logique et la mémoire nécessite beaucoup d’énergie. Ce transfert d'énergie augmente à mesure que les besoins en données et la charge de calcul augmentent. En tant que tel, cela crée un goulot d’étranglement en termes de performances qui limite l’efficacité à mesure que la puissance de calcul augmente.

Tentatives d'amélioration de la demande énergétique

Au fil des années, de nombreuses tentatives ont été faites pour améliorer l'architecture de Von Neumann. Ces tentatives ont créé différentes variations du processus de mémoire dans le but de rapprocher physiquement les deux actions. Actuellement, les trois principales variantes incluent.

Traitement en quasi-mémoire

Cette mise à niveau rapproche physiquement la logique de la mémoire. Cela a été réalisé à l’aide d’une infrastructure empilée en 3D. Le rapprochement de la logique a réduit la distance et l'énergie nécessaires pour transférer les données nécessaires aux calculs. Cette architecture a permis d'améliorer l'efficacité.

Informatique en mémoire

Une autre méthode actuelle pour améliorer l’architecture informatique est l’informatique en mémoire. Il existe notamment deux variantes de ce style de puce. L'original intègre des clusters de logique à côté de la mémoire sur une seule puce. Ce déploiement permet l'élimination des transistors utilisés dans les prédécesseurs. Cependant, nombreux sont ceux qui considèrent que cette méthode n'est pas « fidèle » à la structure en mémoire, car elle comporte toujours des emplacements de mémoire séparés, ce qui signifie que des problèmes de performances initiaux résultant du transfert de données existent, bien qu'à plus petite échelle.

Vrai en mémoire

Le dernier type d’architecture de puce est « véritablement en mémoire ». Pour être qualifiée de ce type d’architecture, la mémoire doit effectuer directement des calculs. Cette structure améliore les capacités et les performances car les données des opérations logiques restent à leur emplacement. La dernière version du chercheur de la véritable architecture en mémoire est CRAM.

(CRAM)

La mémoire informatique à accès aléatoire (CRAM) permet de véritables calculs en mémoire car les données sont traitées dans le même tableau. Les chercheurs ont modifié une architecture standard 1T1M STT-MRAM pour rendre la CRAM possible. La disposition CRAM intègre des microtransistors dans chaque cellule et s'appuie sur les processeurs basés sur la jonction tunnel magnétique.

Cette approche offre un meilleur contrôle et de meilleures performances. L'équipe a ensuite empilé un transistor, une ligne logique (LL) et une ligne de bits logiques (LBL) supplémentaires dans chaque cellule, permettant ainsi un calcul en temps réel au sein de la même banque de mémoire.

Histoire du CRAM

Les systèmes d'IA d'aujourd'hui nécessitent une nouvelle structure capable de répondre à leurs exigences informatiques sans diminuer les problèmes de durabilité. Conscients de cette demande, les ingénieurs ont décidé d'approfondir pour la première fois les capacités CRAM. Leurs résultats ont été publiés dans la revue scientifique NPJ sous le rapport « Démonstration expérimentale de la mémoire computationnelle à accès aléatoire basée sur la jonction tunnel magnétique. »

La première CRAM exploitait une structure de périphérique MTJ. Ces dispositifs spintroniques ont amélioré les méthodes de stockage précédentes en utilisant le spin électronique plutôt que des transistors pour transférer et stocker

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal