Künstliche Intelligenz (KI) treibt neben ihrem Energiebedarf weiterhin die vierte industrielle Revolution voran. Heute kann jeder auf fortschrittliche KI-Tools zugreifen
Künstliche Intelligenz (KI) treibt neben ihrem Energiebedarf weiterhin die vierte industrielle Revolution voran. Heutzutage kann jeder auf fortschrittliche KI-Tools zugreifen und diese in seine Systeme integrieren, um die Effizienz zu verbessern und den Arbeitsaufwand zu reduzieren. Der Energiebedarf für den Betrieb dieser Algorithmen steigt mit steigender Nachfrage nach KI-Anwendungen. Daher weisen Umweltschützer bereits auf Nachhaltigkeitsbedenken im Zusammenhang mit der Technologie hin. Glücklicherweise hat ein Forscherteam eine hocheffiziente Alternative geschaffen. Folgendes müssen Sie wissen.
Wachsender KI-Energiebedarf führt zu einer Energiekrise
Neue KI-Systeme kommen immer häufiger auf den Markt. Die jüngste globale Energieverbrauchsprognose prognostiziert, dass sich der KI-Energieverbrauch von 460 Terawattstunden (TWh) im Jahr 2022 auf 1.000 TWh im Jahr 2026 verdoppeln wird. Zu diesen Protokollen gehören Empfehlungsgeber, große Sprachmodelle (LLMs), Bild- und Videoverarbeitung und -erstellung sowie Web3 Dienstleistungen und mehr.
Laut der Studie des Forschers erfordern KI-Systeme eine Datenübertragung, die „dem 200-fachen der Energie entspricht, die für die Berechnung verbraucht wird, wenn drei 64-Bit-Quelloperanden aus einem Hauptspeicher außerhalb des Chips gelesen und ein 64-Bit-Zieloperand in diesen geschrieben werden.“ Daher ist die Reduzierung des Energieverbrauchs für Computeranwendungen mit künstlicher Intelligenz (KI) ein Hauptanliegen für Entwickler, die diese Hürde überwinden müssen, um eine breite Einführung zu erreichen und die Technologie zu reifen.
Zum Glück hat eine Gruppe innovativer Ingenieure der University of Minnesota eine mögliche Lösung entwickelt, die den Stromverbrauch von KI-Protokollen um Größenordnungen reduzieren könnte. Um diese Aufgabe zu erfüllen, führen die Forscher ein neues Chipdesign ein, das die Von-Neumann-Architektur verbessert, die heute in den meisten Chips zu finden ist.
Von Neumann Architecture
John von Neumann revolutionierte 1945 den Computersektor, als er Logik- und Speichereinheiten trennte und so ein damals effizienteres Rechnen ermöglichte. Bei dieser Anordnung werden die Logik und die Daten an verschiedenen physischen Orten gespeichert. Seine Erfindung verbesserte die Leistung, weil sie den gleichzeitigen Zugriff auf beide ermöglichte.
Heutzutage verwenden die meisten Computer immer noch die Von-Neuman-Struktur, wobei Ihre Festplatte Ihre Programme speichert und der Arbeitsspeicher (RAM) Programmieranweisungen und temporäre Daten enthält. Der heutige RAM erfüllt diese Aufgabe mithilfe verschiedener Methoden, darunter DRAM, das Kondensatoren nutzt, und SRAM, das über mehrere Schaltkreise verfügt.
Bemerkenswerterweise hat diese Struktur jahrzehntelang hervorragend funktioniert. Der ständige Datentransfer zwischen Logik und Speicher erfordert jedoch viel Energie. Diese Energieübertragung nimmt zu, wenn der Datenbedarf und die Rechenlast steigen. Dadurch entsteht ein Leistungsengpass, der die Effizienz mit zunehmender Rechenleistung einschränkt.
Versuche, den Energiebedarf zu verbessern
Im Laufe der Jahre wurden viele Versuche unternommen, Von Neumanns Architektur zu verbessern. Diese Versuche haben verschiedene Variationen des Erinnerungsprozesses mit dem Ziel geschaffen, die beiden Aktionen physisch näher zu bringen. Derzeit umfassen die drei Hauptvarianten.
Speichernahe Verarbeitung
Dieses Upgrade rückt die Logik physisch näher an den Speicher heran. Dies wurde mithilfe einer 3D-gestapelten Infrastruktur erreicht. Durch die Annäherung der Logik wurden die Entfernung und der Energieaufwand für die Übertragung der für die Leistungsberechnungen erforderlichen Daten verringert. Diese Architektur sorgte für eine verbesserte Effizienz.
In-Memory-Computing
Eine weitere aktuelle Methode zur Verbesserung der Computerarchitektur ist In-Memory-Computing. Bemerkenswert ist, dass es zwei Variationen dieser Chipart gibt. Das Original integriert Logikcluster neben dem Speicher auf einem einzigen Chip. Dieser Einsatz ermöglicht die Eliminierung der in Vorgängermodellen verwendeten Transistoren. Allerdings gibt es viele, die diese Methode für nicht „getreu“ der In-Memory-Struktur halten, da sie immer noch über separate Speicherorte verfügt, was bedeutet, dass es zu anfänglichen Leistungsproblemen aufgrund der Datenübertragung kommt, wenn auch in geringerem Umfang.
True In-Memory
Die letzte Art der Chip-Architektur ist „True In-Memory“. Um als dieser Architekturtyp zu gelten, muss der Speicher Berechnungen direkt durchführen. Diese Struktur verbessert die Funktionalität und Leistung, da die Daten für logische Operationen an ihrem Speicherort bleiben. Die neueste Version der echten In-Memory-Architektur des Forschers ist CRAM.
(CRAM)
Computational Random-Access Memory (CRAM) ermöglicht echte In-Memory-Berechnungen, da die Daten innerhalb desselben Arrays verarbeitet werden. Die Forscher modifizierten eine Standard-1T1M-STT-MRAM-Architektur, um CRAM zu ermöglichen. Das CRAM-Layout integriert Mikrotransistoren in jede Zelle und baut auf den auf magnetischen Tunnelverbindungen basierenden CPUs auf.
Dieser Ansatz bietet eine bessere Kontrolle und Leistung. Anschließend stapelte das Team einen zusätzlichen Transistor, eine Logikleitung (LL) und eine Logikbitleitung (LBL) in jede Zelle und ermöglichte so Echtzeitberechnungen innerhalb derselben Speicherbank.
Geschichte von CRAM
Heutige KI-Systeme erfordern eine neue Struktur, die ihre Rechenanforderungen erfüllen kann, ohne die Nachhaltigkeitsbedenken zu schmälern. Die Ingenieure erkannten diesen Bedarf und beschlossen, sich erstmals eingehend mit den CRAM-Funktionen zu befassen. Ihre Ergebnisse wurden im NPJ-Wissenschaftsjournal unter dem Bericht „Experimental Demonstration of Magnetic Tunnel Junction-based Computational Random-Access Memory“ veröffentlicht.
Der erste CRAM nutzte eine MTJ-Gerätestruktur. Diese spintronischen Geräte verbesserten frühere Speichermethoden, indem sie zum Übertragen und Speichern Elektronenspins anstelle von Transistoren verwendeten
Das obige ist der detaillierte Inhalt vonCRAM: Ein neues Chipdesign, das den Stromverbrauch von KI-Protokollen um Größenordnungen reduzieren könnte. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!