


Der weltweit größte KI-Chip bricht den Rekord für das Single-Device-Training großer Modelle, Cerebras will GPUs „töten'.
Dieser Artikel stammt von Lei Feng.com. Wenn Sie ihn erneut drucken möchten, besuchen Sie bitte die offizielle Website von Lei Feng.com, um eine Genehmigung zu beantragen.
Cerebras, ein Unternehmen, das für die Entwicklung des weltweit größten Beschleunigerchips CS-2 Wafer Scale Engine bekannt ist, gab gestern bekannt, dass es einen wichtigen Schritt bei der Verwendung von „Riesenkernen“ für das Training künstlicher Intelligenz unternommen hat. Das Unternehmen hat das weltweit größte NLP-KI-Modell (Natural Language Processing) auf einem einzigen Chip trainiert.
Das Modell verfügt über 2 Milliarden Parameter und wird auf dem CS-2-Chip trainiert. Der weltweit größte Beschleunigerchip verwendet einen 7-nm-Prozess und wird aus einem quadratischen Wafer geätzt. Er ist hundertmal größer als gängige Chips und hat eine Leistung von 15 kW. Es integriert 2,6 Billionen 7-nm-Transistoren, verfügt über 850.000 Kerne und 40 GB Speicher.
Abbildung 1 CS-2 Wafer Scale Engine-Chip
Neuer Rekord für das Single-Chip-Training großer KI-Modelle
Die Entwicklung von NLP-Modellen ist ein wichtiges Feld der künstlichen Intelligenz. Mithilfe von NLP-Modellen kann künstliche Intelligenz die Bedeutung von Texten „verstehen“ und entsprechende Maßnahmen ergreifen. Das DALL.E-Modell von OpenAI ist ein typisches NLP-Modell. Dieses Modell kann von Benutzern eingegebene Textinformationen in Bildausgaben umwandeln.
Wenn ein Benutzer beispielsweise „Sessel in Avocadoform“ betritt, generiert die KI automatisch mehrere Bilder, die diesem Satz entsprechen.
Bild: Das von der KI nach Erhalt von Informationen generierte Bild „Avocado-förmiger Sessel“
Darüber hinaus kann dieses Modell es der KI auch ermöglichen, komplexes Wissen wie Arten, Geometrie, historische Epochen, usw.
Aber es ist nicht einfach, dies alles zu erreichen. Die traditionelle Entwicklung von NLP-Modellen weist extrem hohe Rechenleistungskosten und technische Schwellenwerte auf.
Wenn wir nur über Zahlen sprechen, scheinen die 2 Milliarden Parameter des von Cerebras entwickelten Modells im Vergleich zu seinen Mitbewerbern etwas mittelmäßig zu sein.
Das zuvor erwähnte DALL.E-Modell verfügt über 12 Milliarden Parameter, und das derzeit größte Modell ist Gopher, das Ende letzten Jahres von DeepMind eingeführt wurde, mit 280 Milliarden Parametern.
Aber abgesehen von den erstaunlichen Zahlen hat das von Cerebras entwickelte NLP einen großen Durchbruch: Es verringert die Schwierigkeit, NLP-Modelle zu entwickeln.
Wie besiegt „Giant Core“ die GPU?
Nach dem traditionellen Prozess erfordert die Entwicklung von NLP-Modellen, dass Entwickler riesige NLP-Modelle in mehrere funktionale Teile aufteilen und ihre Arbeitslast auf Hunderte oder Tausende von Grafikverarbeitungseinheiten verteilen.
Tausende Grafikprozessoren bedeuten enorme Kosten für Hersteller.
Technische Schwierigkeiten machen den Herstellern auch zu schaffen.
Das Aufteilen von Modellen ist ein individuelles Problem. Die Spezifikationen jedes neuronalen Netzwerks, jeder GPU und des Netzwerks, das sie miteinander verbindet (oder miteinander verbindet), sind einzigartig und nicht systemübergreifend übertragbar.
Hersteller müssen all diese Faktoren vor der ersten Schulung klar berücksichtigen.
Diese Arbeit ist äußerst komplex und dauert teilweise mehrere Monate.
Cerebras sagte, dies sei „einer der schmerzhaftesten Aspekte“ des NLP-Modelltrainings. Nur eine Handvoll Unternehmen verfügen über die notwendigen Ressourcen und Fachkenntnisse, um NLP zu entwickeln. Für andere Unternehmen in der KI-Branche sind NLP-Schulungen zu teuer, zeitaufwändig und nicht verfügbar.
Aber wenn ein einzelner Chip ein Modell mit 2 Milliarden Parametern unterstützen kann, bedeutet das, dass keine Notwendigkeit besteht, riesige GPUs zu verwenden, um den Arbeitsaufwand für das Training des Modells zu verteilen. Dadurch können Hersteller Tausende von GPU-Schulungskosten und damit verbundene Hardware- und Skalierungsanforderungen einsparen. Es erspart den Anbietern außerdem die mühsame Aufteilung von Modellen und die Verteilung ihrer Arbeitslasten auf Tausende von GPUs.
Cerebras ist nicht nur von Zahlen besessen, um die Qualität eines Modells zu bewerten, ist die Anzahl der Parameter nicht das einzige Kriterium.
Anstatt auf die „harte Arbeit“ des im „Riesenkern“ geborenen Modells zu hoffen, hofft Cerebras, dass das Modell „intelligent“ sein wird.
Der Grund, warum Cerebras ein explosionsartiges Wachstum der Anzahl von Parametern erreichen kann, liegt darin, dass es die Weighted-Flow-Technologie verwendet. Diese Technologie entkoppelt den Rechen- und Speicherbedarf und ermöglicht die Erweiterung des Speichers, sodass er groß genug ist, um eine beliebige Anzahl von Parametern zu speichern, die bei der KI-Arbeitslast zunehmen.
Dank dieses Durchbruchs konnte die Zeit zum Einrichten eines Modells von Monaten auf Minuten verkürzt werden. Und Entwickler können mit „nur wenigen Tastendrücken“ zwischen Modellen wie GPT-J und GPT-Neo wechseln. Dies erleichtert die NLP-Entwicklung.
Dies hat zu neuen Veränderungen im Bereich NLP geführt.
Dan Olds, Chief Research Officer von Intersect360 Research, kommentierte die Erfolge von Cerebras: „Die Fähigkeit von Cerebras, große Sprachmodelle auf kostengünstige und zugängliche Weise der breiten Masse zugänglich zu machen, eröffnet eine aufregende neue Ära der künstlichen Intelligenz.“
Das obige ist der detaillierte Inhalt vonDer weltweit größte KI-Chip bricht den Rekord für das Single-Device-Training großer Modelle, Cerebras will GPUs „töten'.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Zusammenfassung: Es gibt die folgenden Methoden zum Umwandeln von VUE.JS -String -Arrays in Objektarrays: Grundlegende Methode: Verwenden Sie die Kartenfunktion, um regelmäßige formatierte Daten zu entsprechen. Erweitertes Gameplay: Die Verwendung regulärer Ausdrücke kann komplexe Formate ausführen, müssen jedoch sorgfältig geschrieben und berücksichtigt werden. Leistungsoptimierung: In Betracht ziehen die große Datenmenge, asynchrone Operationen oder effiziente Datenverarbeitungsbibliotheken können verwendet werden. Best Practice: Clear Code -Stil, verwenden Sie sinnvolle variable Namen und Kommentare, um den Code präzise zu halten.

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.

Um die Zeitüberschreitung für Vue Axios festzulegen, können wir eine Axios -Instanz erstellen und die Zeitleitungsoption angeben: in globalen Einstellungen: vue.Prototyp. $ Axios = axios.create ({Timeout: 5000}); In einer einzigen Anfrage: this. $ axios.get ('/api/user', {timeout: 10000}).

Die MySQL -Leistungsoptimierung muss von drei Aspekten beginnen: Installationskonfiguration, Indexierung und Abfrageoptimierung, Überwachung und Abstimmung. 1. Nach der Installation müssen Sie die my.cnf -Datei entsprechend der Serverkonfiguration anpassen, z. 2. Erstellen Sie einen geeigneten Index, um übermäßige Indizes zu vermeiden und Abfrageanweisungen zu optimieren, z. B. den Befehl Erklärung zur Analyse des Ausführungsplans; 3. Verwenden Sie das eigene Überwachungstool von MySQL (ShowProcessList, Showstatus), um die Datenbankgesundheit zu überwachen und die Datenbank regelmäßig zu sichern und zu organisieren. Nur durch kontinuierliche Optimierung dieser Schritte kann die Leistung der MySQL -Datenbank verbessert werden.

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen
