Große KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse' benötigt, um sie zu leiten.

PHPz
Freigeben: 2023-12-02 08:45:04
nach vorne
948 Leute haben es durchsucht

Auf einem Branchengipfel enthüllte ein akademischer Wissenschaftler der Tsinghua-Universität, dass unser großes KI-Modell auf dem Wanka-Cluster trainiert wird und alle drei Stunden ein Fehler auftritt. Obwohl es etwas lächerlich klingt, hat dies das weltweit fortgeschrittene Niveau erreicht

Die großen KI-Modelle, die auf der ganzen Welt beliebt sind, sind dieses Jahr zweifellos das heiße Thema, und ihre Zahl wächst weiter und erreicht ein erstaunliches Niveau. Inmitten der „Hunderten von Rivalen, die um die Macht wetteifern“, übersieht jeder oft ein zentrales Problem: Die Datenflut, die große KI-Modelle mit sich bringen, ist turbulenter als gedacht.

„Alle drei Stunden tritt ein Fehler auf“, was nach einer unglaublichen Ausfallrate klingt, ist tatsächlich die Norm, mit der Praktiker großer Modelle, sogar „Top-Studenten“, konfrontiert sind. Die derzeit gängige Praxis in der Branche besteht darin, fehlertolerante Prüfpunkte zu schreiben. Da innerhalb von drei Stunden ein Fehler gemeldet wird, sollten wir alle 2,5 Stunden anhalten, Checkpoints schreiben, die Daten speichern und dann erneut mit dem Training beginnen. Sobald ein Fehler auftritt, können Sie die Wiederherstellung anhand der schriftlichen Prüfpunkte durchführen, um zu vermeiden, dass Sie „von vorne beginnen“ und alles umsonst tun. Der Kontrollpunkt muss viele Daten speichern und wird viel Zeit in Anspruch nehmen. Das akademische Team hat ein großes Modell entwickelt, das auf der Lama-2-Architektur basiert. Das Speichern der Daten in der Hardware dauert einmalig. Die Speichereffizienz wirkt sich direkt auf den Entwicklungsfortschritt aus.

Wenn große heterogene Daten ein Strom sind, der mutwillig ansteigt, ist das Speichersystem ein Fluss, der den Datenfluss transportiert. Seine Breite und Solidität bestimmt direkt, ob die Daten blockiert werden oder sogar stagnieren und somit die Lebensader großer KI-Modelle blockieren. Man kann sagen, dass die Produktivität und Effizienz der gesamten großen Modellindustrie durch die Lagerung „nach oben begrenzt“ wird.

Deshalb hat der Speicher als KI-Dateninfrastruktur immer mehr Aufmerksamkeit erhalten.

Große KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse benötigt, um sie zu leiten.

Am 29. November fand in Peking der „Digital Innovation AI Future“ 2023 China Data and Storage Summit statt. Sugon Storage hat eine Speicherlösung für große KI-Modelle veröffentlicht.

Nutzen Sie diese Gelegenheit, um mehr über die Lasttransportherausforderungen zu erfahren, die die Welle großer KI-Modelle für die Lagerung mit sich bringt, und darüber, wie Sugon Storage die intelligente Branche anführt und das Segeln großer KI-Modelle fördert.

Große KI-Modelle dringen in den Tiefseebereich der Branche vor, und herkömmliche Speichermethoden stehen vor Datenherausforderungen

Ich war kürzlich in Yunnan und habe festgestellt, dass der Bau großer Modelle nicht nur in Wissenschafts- und Technologiezentren wie Peking, Shanghai und Guangzhou, sondern auch in zweit- und drittklassigen Städten wie Kunming und Dali und sogar in China in vollem Gange ist In Grenzgebieten werden große Anwendungen in der Modellindustrie aktiv erforscht.

Da sich alle Lebensbereiche in Richtung Intelligenz bewegen, haben fast alle von ihnen ein brennendes Interesse an großen Modellen geweckt. Zu diesem Zeitpunkt tauchte auch ein zentrales Problem auf: Der Industrialisierungstrend großer KI-Modelle erfordert eine Modernisierung der Speicherinfrastruktur.

Jedes Mal, wenn Modellentwickler trainieren, stellen Daten das Speichersystem vor verschiedene Herausforderungen:

  1. Die Auswirkungen der Datenflut. Mit der Implementierung großer Modelle in der Branche haben viele Branchen damit begonnen, große Mengen an Branchendaten, proprietären Daten und neuen Anmerkungsdaten in große Modelle einzuspeisen Speichersystem. Ein Datentechnologieunternehmen in Yunnan erwähnte, dass große Branchenmodelle mit hochwertigen Datensätzen, Dokumenten und privaten Kundendaten trainiert werden müssen. Für jedes Projekt wird eine separate Annotationsgruppe eingerichtet und auch die Kosten steigen.

Große KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse benötigt, um sie zu leiten.

2. Die Fesseln der Datenüberlastung. Sehr umfangreiche Datenvorverarbeitung ist langsam und zeitaufwändig. Das Sammeln, Klassifizieren, Verschieben und andere Prozesse sind zeitaufwändig und mühsam. Sobald die Speicherleistung nicht mehr mithalten kann, ist der Durchsatz großer Dateien langsamer und weniger Das Schreiben und das Warten am Checkpoint dauern lange, was den Entwicklungsfortschritt verzögert und die Entwicklungskosten erhöht.

3. Die Unterströmung komplexer Daten. Darüber hinaus nutzen große KI-Modelle eine große Menge heterogener Daten mit komplexen Dateiformaten, unterschiedlichen Datensatztypen und einem Anstieg des Datenvolumens. Herkömmliche Speicher sind der Herausforderung der Datenkomplexität nur schwer gewachsen und neigen zu Verdauungsproblemen , was zu einer geringen Datenzugriffseffizienz führt, die Betriebseffizienz des Modells sinkt, der Verbrauch an Trainingsrechenleistung steigt und die teuren GPU-Rechenressourcen nicht vollständig „gequetscht“ werden können. Das örtliche Sonnenobservatorium in Yunnan nutzt beispielsweise ein wissenschaftliches KI-Rechenmodell, um riesige Bilder zu lernen, um das wahre Erscheinungsbild der Sonne darzustellen, und generiert täglich 2 TB Bilddaten. Die aktuelle Speicherdurchsatzeffizienz ist niedrig, was zu einem langsamen Laden führt von Trainingssätzen und langen Datenverarbeitungszyklen verlangsamen den Forschungsprozess.

4. Bedenken hinsichtlich der Datensicherheit. Derzeit sind große KI-Modelle tief in verschiedene Branchen eingedrungen. Sie benötigen während der Schulung, Entwicklung und Anwendungsimplementierung umfangreiche Datenunterstützung, einschließlich Daten, die vertrauliche Branchen- oder persönliche Informationen enthalten Dies kann zu Datenlecks führen und zu Verlusten für Unternehmen und Privatpersonen führen. Gleichzeitig müssen auch die Sicherheitsrisiken von Modellen ernst genommen werden. Beispielsweise können Plug-ins mit schädlichen Inhalten ausgestattet werden und zu einem Werkzeug für Kriminelle werden, um Betrug und „Vergiftungen“ zu begehen und so die soziale und industrielle Sicherheit zu gefährden.

Große KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse benötigt, um sie zu leiten.

KI-Großmodelle dringen in die Tiefwasserzone der Branche vor. Erfreulich ist, dass diese technologische Innovation tief in alle Lebensbereiche integriert wird, um den Bedürfnissen der Intelligenz gerecht zu werden, und voller Vitalität ist. Es gibt jedoch auch einige Bedenken. Datentechnik spielt eine wichtige Rolle im gesamten Lebenszyklus großer Modelle, einschließlich Datenerfassung, Bereinigung, Schulung, Inferenzbereitstellung und Feedback-Optimierung, die alle große Datenmengen erfordern. Das Speicherproblem ist jedoch zu einem Engpass geworden, was bedeutet, dass große KI-Modelle in allen Phasen mit Datenstau, Ausfällen und Ineffizienz konfrontiert sein können, was zu einem sehr langen Entwicklungszyklus und umfassenden Kosten für große Modelle führen wird, die über die Erschwinglichkeit der Branche hinausgehen

Um Datenstaus zu vermeiden und die industrielle Entwicklung von Großmodellen zu unterstützen und zu fördern, müssen wir den Speicher-„Fluss“ ausbaggern. Sugon Storage hat eine neue Lösung bereitgestellt, die für uns wertvolle Referenzfälle gefunden hat

Hochwertiger Daten-„Kanal“, Sugon Storage gibt eine Antwort auf die große Modellindustrie

Nachdem ich mit Entwicklern großer KI-Modelle gesprochen hatte, kam ich zu einem klaren Schluss: Der Aufbau eines neuen Speichersystems, das sich an große KI-Modelle anpasst, bedarf keiner Diskussion mehr. Der Schlüssel liegt darin, wer das Lösungs-Upgrade zuerst abschließen und praktische Lösungen bereitstellen kann

Sugon Storage hat die Speicheranforderungen der Branche verstanden und eine KI-Speicherlösung für große Modelle entwickelt, die auf dem dedizierten Speicher für große Modelle von ParaStor basiert, und eine eigene Antwort geschrieben.

Große KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse benötigt, um sie zu leiten.

Der große Speichercluster Sugon Storage AI verfügt über drei führende Funktionen: heterogene Fusion, ultimative Leistung und native Sicherheit.

Erstens können wir Hunderte Milliarden Dateispeicherdienste bereitstellen, und der Erweiterungsumfang ist nahezu unbegrenzt. Wir haben auch speziell das Problem der Vielfalt der Datenzugriffsprotokolle gelöst und unterstützen mehrere Speicherprotokolle wie Dateien und Objekte, um das Kopieren von Daten zwischen verschiedenen Speichersystemen zu vermeiden

Zweitens kann der Sugon Storage AI-Speichercluster für große Modelle als Reaktion auf die hohe Nachfrage nach Datenverarbeitungseffizienz im Entwicklungsprozess großer KI-Modelle mehrere Funktionen zur Optimierung der Daten-E/A-Leistung bereitstellen, wie z. B. mehrstufige Cache-Beschleunigung, XDS-Datenbeschleunigung und intelligente Hochgeschwindigkeitsrouting.

Um die Sicherheit der Daten während des gesamten Prozesses zu gewährleisten, bieten Sugon-Speicherknoten Sicherheitsfunktionen auf Chipebene und unterstützen den nationalen geheimen Befehlssatz. Durch mehrstufige Zuverlässigkeit kann sichergestellt werden, dass der Speichercluster während des gesamten Schulungs- und Entwicklungszyklus stabil arbeitet und dabei den Richtlinien und zukünftigen Sicherheitstrends entspricht

Manche fragen sich vielleicht, es gibt so viele Speicherlösungen auf dem Markt, und manche werben auch damit, professionelle Unterstützung bei der Modellentwicklung zu bieten. Was sind die differenzierten Werte der Lösungen von Sugon Storage?

Große KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse benötigt, um sie zu leiten.

Wenn Sie über die Fachbegriffe und Produktdetails der einzelnen Unternehmen verwirrt sind, möchten Sie vielleicht ein paar Worte verwenden, um sich an den differenzierten Wert des großen Speicherclusters Sugon Storage AI zu erinnern:

1. Fortgeschritten. Heterogene Fusion, ultimative Leistung und native Sicherheit auf Chipebene zeigen den technologischen Fortschritt von Sugon Storage und lösen insbesondere die Probleme großer Datenmengen, komplexer und vielfältiger Datenformen, geringer Durchsatzeffizienz sowie langer Speicher- und Berechnungszeiten im Großen und Ganzen Modellentwicklung. Echte Schwachstellen.

2. Zuverlässig. Die leistungsstarke KI-Dateninfrastruktur basiert auf der selbst entwickelten Innovation von Sugon Storage, die zuverlässiger und sicherer ist und im Einklang mit der Informationsinnovationspolitik und zukünftigen Sicherheitstrends steht. Sie kann inländischen großen Modelldienstleistern helfen, Risiken in der Lieferkette im Ausland zu vermeiden , von Lieferkettensicherheit, Datensicherheit und Modellsicherheit bis hin zu anderen Aspekten schützen die Entwicklung der großen Modellindustrie.

3. Umfassend. Sugon Storage hat eine volldimensionale KI-Lösung entwickelt, die Netzwerk, Computer und Plattform abdeckt und einen stabilen Betrieb während des gesamten Schulungs- und Entwicklungszyklus unterstützt, wodurch die Gesamtkosten gesenkt werden können und es großen Modellentwicklern und Industriekunden ermöglicht, sorgenfrei voranzukommen.

Zusammenfassend lässt sich sagen, dass auf dem von Sugon Storage entwickelten hochwertigen „Kanal“ große Datenmengen effizient verarbeitet und die Entwicklung großer KI-Modelle beschleunigt werden können. Daher können Branchen und Unternehmen eine Führungsrolle bei der umfassenden Integration großer Modelle übernehmen mit vertikalen Szenarien und Unternehmen. Sichern Sie sich Ihre Eintrittskarte in das intelligente Zeitalter.

Der neue Ausgangspunkt des fünften Paradigmas, die Beobachtung der Szene, in der viele Unternehmen um Fortschritt und Erfolg konkurrieren

Turing-Award-Gewinner Jim Gray hat einmal das vierte Paradigma vorgeschlagen, dessen Kern datengesteuert ist. Mit dem „Aufkommen von Intelligenz“ in großen Sprachmodellen konzentriert sich das fünfte Paradigma der „Intelligenzsteuerung“ mehr auf die organische Kombination von Daten und Intelligenz und wird zur neuen zugrunde liegenden Logik, die die wissenschaftliche Revolution und die industrielle Revolution unterstützt.

Alles in der Vergangenheit ist Prolog. Das gilt für künstliche Intelligenz, ebenso wie für die Speicherung

Große KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse benötigt, um sie zu leiten.

Auf dieser Konferenz wurde Hui Runhai, Präsident der Sugon Storage Company, für seine 20-jährige Branchenerfahrung und seine führenden Praktiken in den Bereichen KI-Speichertechnologie, Forschung und Entwicklung von Flüssigkeitskühlungsspeichern und anderen Bereichen mit dem Titel „Speicherpionier“ ausgezeichnet. Unter seiner Führung war die verteilte Dateispeicherung von Sugon über viele Jahre hinweg weiterhin marktführend und zählte hinsichtlich des Marktanteils zu den Spitzenreitern. Datenspeicherlösungen für KI-Großmodelle haben Sugon Storage erneut an die Spitze der Zeit gebracht.

Der KI-Speichercluster für große Modelle von Sugon Storage übt aktiv einen Paradigmenwechsel aus, um sich an das neue Datenparadigma anzupassen und die kräftige Entwicklung der Industrialisierung großer Modelle durch Durchbrüche in der Dateninfrastruktur zu fördern

Als nächstes werden wir im neuen Paradigma und neuen Ausgangspunkt der Speicherbranche, auf dem hochwertigen Daten-„Fluss“ von Sugon Storage, Hunderte von Unternehmen sehen, die um große Branchenmodelle konkurrieren, Tausende von KI-Anwendungen, die um die Wette rasen und immer schneller darauf zusteuern intelligentes China.

Das obige ist der detaillierte Inhalt vonGroße KI-Modelle segeln auf das Meer der Industrie zu und es werden hochwertige Daten-„Flüsse' benötigt, um sie zu leiten.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:sohu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!