Laut Nachrichten dieser Website vom 27. Juni hat ein Forschungsteam der University of California in Santa Cruz eine neue Methode entwickelt, mit der eine große Sprache mit einer Skala von 1 Milliarde Parametern mit nur 13 W Leistung (entspricht der Leistung) ausgeführt werden kann einer modernen LED-Glühbirne) Modell. Zum Vergleich: Eine GPU der Rechenzentrumsqualität für große Sprachmodellaufgaben benötigt etwa 700 W.
Unter der KI-Welle sind die Hauptforschungsrichtungen vieler Unternehmen und Institutionen Anwendung und Argumentation, und Indikatoren wie Effizienz werden selten berücksichtigt. Um diese Situation zu entschärfen, eliminierte der Forscher die intensive Technik der Matrixmultiplikation und schlug eine „Ternion“-Lösung vor, die nur drei Werte hat: negativ eins, null oder positiv eins.
Das Team erstellte außerdem kundenspezifische Hardware unter Verwendung einer hochgradig angepassten Schaltung, die als feldprogrammierbares Gate-Array (FPGA) bezeichnet wird und es ihnen ermöglichte, alle Energiesparfunktionen im neuronalen Netzwerk zu maximieren.
Beim Betrieb auf benutzerdefinierter Hardware kann die gleiche Leistung wie bei Topmodellen wie Metas Llama erreicht werden, jedoch mit einem Fünfzigstel der neuronalen Netzwerkleistung herkömmlicher Konfigurationen.
Dieses neuronale Netzwerkdesign kann auch für den Betrieb auf Standard-GPUs verwendet werden, die üblicherweise in der Branche der künstlichen Intelligenz verwendet werden. Testergebnisse zeigen, dass die Speichernutzung im Vergleich zu neuronalen Netzwerken, die auf Matrixmultiplikation basieren, nur ein Zehntel beträgt.
Eine Referenzadresse ist dieser Website beigefügt.
Forscher betreiben ein leistungsstarkes großes Sprachmodell mit der Energie, die zum Betreiben einer Glühbirne benötigt wird
Das obige ist der detaillierte Inhalt vonNeuer KI-Algorithmus vorgestellt: Stromverbrauch auf 1/50 der herkömmlichen Konfiguration reduziert, Speichernutzung auf 1/10 reduziert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!