


Leistung des KI-Chips der nächsten Generation verdoppelt? Neue Technologie könnte das menschliche Gehirn nachahmen, um Energie zu sparen …
Berichten zufolge hat ein Forschungsteam um Professor Hussam Amrouch von der Technischen Universität München (TUM) eine Architektur entwickelt, die für künstliche Intelligenz genutzt werden kann und doppelt so leistungsfähig ist wie ähnliche In-Memory-Computing-Methoden.
Neueste Forschungsergebnisse wurden kürzlich im Magazin „Nature“ veröffentlicht. Es wird gesagt, dass die innovative neue Chip-Technologie Datenspeicher- und Verarbeitungsfunktionen integriert und so die Effizienz und Leistung erheblich verbessert. Die vom menschlichen Gehirn inspirierten Chips werden voraussichtlich innerhalb von drei bis fünf Jahren kommerziell verfügbar sein und erfordern eine interdisziplinäre Zusammenarbeit, um die Sicherheitsstandards der Industrie zu erfüllen.
Es wird berichtet, dass das Amrouch-Team ein neues Rechenmodell unter Verwendung einer speziellen Schaltung namens ferroelektrischer Feldeffekttransistor (FeFET) angewendet hat. Innerhalb weniger Jahre könnte sich dies als anwendbar auf generative künstliche Intelligenz, Deep-Learning-Algorithmen und Robotikanwendungen erweisen.
Ihre Grundidee ist einfach: Früher wurden Chips nur für Berechnungen auf Transistoren verwendet, mittlerweile dienen sie auch der Datenspeicherung. Das spart Zeit und Aufwand. Amrouch sagte: „Dadurch hat sich auch die Leistung des Chips verbessert.“
Da die menschlichen Bedürfnisse immer besser werden, müssen zukünftige Chips schneller und effizienter sein als die bisherigen. Daher können sie sich nicht schnell erhitzen. Dies ist unerlässlich, wenn sie Anwendungen wie Echtzeit-Computing während des Flugs von Drohnen unterstützen sollen.Forscher sagen, dass solche Aufgaben für Computer sehr komplex und energieaufwendig sind
Diese zentralen Anforderungen an den Chip lassen sich mit dem mathematischen Parameter TOPS/W zusammenfassen: „Terahertz-Operationen pro Sekunde pro Watt“. Dies kann als wichtiger technischer Indikator für zukünftige Chips angesehen werden: Wie viele Teraflops an Operationen (TOP) kann der Prozessor pro Sekunde (S) ausführen, wenn er ein Watt (W) Leistung bereitstellt
Dieser neue Chip mit künstlicher Intelligenz kann 885 TOPS/W liefern. Damit ist er doppelt so leistungsstark wie vergleichbare KI-Chips, einschließlich der MRAM-Chips von Samsung. Die Betriebsgeschwindigkeit derzeit gebräuchlicher CMOS-Chips (Complementary Metal Oxide Semiconductor) liegt zwischen 10 und 20 TOPS/W.
Konkret haben die Forscher die Prinzipien der modernen Chip-Architektur vom Menschen übernommen. „Im Gehirn verarbeiten Neuronen Signale und Synapsen erinnern sich an diese Informationen“, sagte Amrouch und beschrieb, wie Menschen in der Lage sind, komplexe Zusammenhänge zu lernen und sich daran zu erinnern.“
Um dies zu erreichen, verwendet der Chip „ferroelektrische“ (FeFET) Transistoren. Dieser elektronische Schalter verfügt über die einzigartige zusätzliche Eigenschaft, die Polarität umzukehren, wenn Spannung angelegt wird, sodass er Informationen auch dann speichern kann, wenn die Stromversorgung unterbrochen wird. Darüber hinaus sind sie in der Lage, Daten gleichzeitig zu speichern und zu verarbeiten
Amrouch glaubt: „Wir können jetzt effiziente Chipsätze für Anwendungen wie Deep Learning, generative künstliche Intelligenz oder Robotik bauen, bei denen Daten dort verarbeitet werden müssen, wo sie erzeugt werden
.“
Professoren des Münchner Instituts für Integrierte Robotik und Maschinelle Intelligenz (MIRMI) der Technischen Universität München gehen jedoch davon aus, dass es noch mehrere Jahre dauern wird, bis dieses Ziel erreicht ist. Er geht davon aus, dass der erste praxistaugliche Speicherchip frühestens in drei bis fünf Jahren verfügbar sein wirdUmgeschriebener Inhalt: Zitiert aus Financial Associated Press
Das obige ist der detaillierte Inhalt vonLeistung des KI-Chips der nächsten Generation verdoppelt? Neue Technologie könnte das menschliche Gehirn nachahmen, um Energie zu sparen …. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Laut Nachrichten vom 14. November hat Nvidia auf der „Supercomputing23“-Konferenz am Morgen des 13. Ortszeit offiziell die neue H200-GPU vorgestellt und die GH200-Produktlinie aktualisiert. Darunter basiert der H200 weiterhin auf der bestehenden Hopper H100-Architektur Allerdings wurde mehr Speicher mit hoher Bandbreite (HBM3e) hinzugefügt, um die großen Datenmengen, die für die Entwicklung und Implementierung künstlicher Intelligenz erforderlich sind, besser verarbeiten zu können, wodurch die Gesamtleistung beim Betrieb großer Modelle im Vergleich zur vorherigen Generation H100 um 60 % bis 90 % verbessert wurde . Der aktualisierte GH200 wird auch die nächste Generation von KI-Supercomputern antreiben. Im Jahr 2024 werden mehr als 200 Exaflops KI-Rechenleistung online sein. H200

Berichten vom 19. Juni zufolge hat sich Google (Google) laut Medienberichten in Taiwan an MediaTek gewandt, um bei der Entwicklung des neuesten serverorientierten KI-Chips zusammenzuarbeiten, und plant, ihn für die Gießerei an den 5-nm-Prozess von TSMC zu übergeben um es Anfang nächsten Jahres in Massenproduktion zu bringen. Dem Bericht zufolge enthüllten Quellen, dass diese Zusammenarbeit zwischen Google und MediaTek MediaTek mit Serialisierungs- und Deserialisierungslösungen (SerDes) versorgen und dabei helfen wird, Googles selbst entwickelten Tensorprozessor (TPU) zu integrieren, um Google bei der Entwicklung der neuesten Server-KI-Chips zu unterstützen, die leistungsfähiger sein werden als CPU- oder GPU-Architekturen. Die Branche weist darauf hin, dass viele der aktuellen Dienste von Google mit KI zu tun haben. Sie hat vor vielen Jahren in Deep-Learning-Technologie investiert und festgestellt, dass die Verwendung von GPUs zur Durchführung von KI-Berechnungen sehr teuer ist

Nach dem Debüt des NVIDIA H200, der als der leistungsstärkste KI-Chip der Welt bekannt ist, begann die Branche, sich auf den leistungsstärkeren B100-Chip zu freuen. Gleichzeitig hat OpenAI, das beliebteste KI-Start-up-Unternehmen dieses Jahres, begonnen ein leistungsfähigeres und komplexeres GPT-5-Modell zu entwickeln. Guotai Junan wies im neuesten Forschungsbericht darauf hin, dass die B100 und GPT5 mit grenzenloser Leistung voraussichtlich im Jahr 2024 auf den Markt kommen und die großen Upgrades möglicherweise eine beispiellose Produktivität ermöglichen. Die Agentur erklärte, sie sei optimistisch, dass die KI in eine Phase der schnellen Entwicklung eintreten werde und ihre Sichtbarkeit bis 2024 anhalten werde. Wie leistungsstark sind B100 und GPT-5 im Vergleich zu früheren Produktgenerationen? Nvidia und OpenAI haben bereits eine Vorschau gegeben: B100 könnte mehr als viermal schneller sein als H100, und GPT-5 könnte Super erreichen

Heutzutage gibt es viele aufkommende Technologietrends für Unternehmen. Als Unternehmer ist es sehr wichtig, sich über neue Trends im Klaren zu sein, da diese dem Unternehmen Auftrieb geben können. Mit diesen Informationen können wir unser Unternehmen problemlos aufwerten, sodass potenzielle Kunden problemlos mit uns in Kontakt treten können. Darüber hinaus ermöglichen die neuesten Technologietrends Unternehmen, in der Technologiewelt relevant zu bleiben. Vom 3D-Druck bis zur Eliminierung von Hackern durch Cybersicherheit ist es wichtig, diese Technologietrends zu übernehmen, damit Ihr Unternehmen wachsen und Kunden binden kann. Hier sind die fünf wichtigsten neuen Technologietrends im Jahr 2022, die Ihrem Unternehmen zu einem deutlichen Wachstum verhelfen können. 1. Künstliche Intelligenz und maschinelles Lernen Obwohl künstliche Intelligenz vor einigen Jahren populär wurde, lässt sie nicht nach. Es entwickelt sich weiter und wird im Jahr 2022 zur Spitzentechnologie. Zum Beispiel sind heute einige beliebt

1978 gründeten Stuart Marson und andere von der University of California das weltweit erste kommerzielle CADD-Unternehmen und leisteten Pionierarbeit bei der Entwicklung eines chemischen Reaktions- und Datenbankabrufsystems. Seitdem ist das computergestützte Arzneimitteldesign (Computer Aided Drug Design, CADD) in eine Ära rasanter Entwicklung eingetreten und hat sich für Pharmaunternehmen zu einem wichtigen Mittel für die Arzneimittelforschung und -entwicklung entwickelt, was zu revolutionären Verbesserungen in diesem Bereich geführt hat. Am 5. Oktober 1981 veröffentlichte das Fortune-Magazin einen Titelartikel mit dem Titel „Die nächste industrielle Revolution: Merck entwirft Medikamente durch Computer“, in dem offiziell die Einführung der CADD-Technologie angekündigt wurde. Im Jahr 1996 wurde der erste auf SBDD (Structur-Based Drug Design) basierende Carboanhydrase-Inhibitor erfolgreich auf den Markt gebracht und fand breite Anwendung in der Arzneimittelforschung und -entwicklung.

Der Fortschritt des KL730 bei der Energieeffizienz hat den größten Engpass bei der Implementierung von Modellen der künstlichen Intelligenz gelöst – die Energiekosten. Im Vergleich zur Industrie und zu früheren Nerner-Chips ist der KL730-Chip um das Drei- bis Vierfache gestiegen Große Sprachmodelle wie nanoGPT bieten eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde. Das KI-Unternehmen Kneron gab heute die Veröffentlichung des KL730-Chips bekannt, der NPU und Bildsignalverarbeitung (ISP) in Automobilqualität integriert, um sichere und sichere Ergebnisse zu erzielen Niedrigenergie-KI Die Fähigkeiten werden in verschiedenen Anwendungsszenarien wie Edge-Servern, Smart Homes und Fahrzeugassistenzsystemen zum Fahren unterstützt. Das in San Diego ansässige Unternehmen Kneron ist für seine bahnbrechenden Neural Processing Units (NPUs) bekannt und sein neuester Chip, der KL730, hat genau das zum Ziel

Während die Welt immer noch von NVIDIA H100-Chips besessen ist und sie verrückt kauft, um die wachsende Nachfrage nach KI-Rechenleistung zu befriedigen, hat NVIDIA am Montag Ortszeit stillschweigend seinen neuesten KI-Chip H200 auf den Markt gebracht, der im Vergleich zu anderen zum Trainieren großer KI-Modelle verwendet wird Die Leistung der Produkte der Vorgängergeneration H100 und H200 wurde um etwa 60 % bis 90 % verbessert. H200 ist eine aktualisierte Version von Nvidia H100. Es basiert ebenfalls auf der Hopper-Architektur. Das Haupt-Upgrade umfasst 141 GB HBM3e-Videospeicher und die Videospeicherbandbreite wurde von 3,35 TB/s bei H100 erhöht. Laut der offiziellen Website von Nvidia ist der H200 auch der erste Chip des Unternehmens, der HBM3e-Speicher verwendet. Dieser Speicher ist schneller und hat eine größere Kapazität, sodass er besser für große Sprachen geeignet ist.

Den ursprünglichen Worten zufolge kann es wie folgt umgeschrieben werden: (Global TMT 16. August 2023) Das KI-Unternehmen Kneron mit Hauptsitz in San Diego und bekannt für seine bahnbrechenden Neural Processing Units (NPU) kündigte die Veröffentlichung des KL730-Chips an. Der Chip integriert NPU und Bildsignalverarbeitung (ISP) in Automobilqualität und bietet sichere und energiesparende KI-Funktionen für verschiedene Anwendungsszenarien wie Edge-Server, Smart Homes und Systeme für unterstütztes Fahren in der Automobilindustrie Im Hinblick auf die Energieeffizienz ist die Energieeffizienz im Vergleich zu früheren Nerner-Chips um das Drei- bis Vierfache gestiegen und liegt um 150 bis 200 % höher als bei ähnlichen Produkten in großen Industriezweigen. Der Chip verfügt über eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde und kann das fortschrittlichste leichte GPT Large unterstützen
