Wie überholt DSA die NVIDIA-GPU in einer Kurve?
Vielleicht haben Sie die folgenden scharfen Meinungen gehört:
1 Wenn Sie dem technischen Weg von NVIDIA folgen, werden Sie möglicherweise nie mit NVIDIA mithalten können.
2. DSA hat vielleicht eine Chance, zu NVIDIA aufzuschließen, aber die aktuelle Situation ist, dass DSA vom Aussterben bedroht ist und es keine Hoffnung in Sicht ist.
Andererseits wissen wir alle, dass es große Modelle jetzt sind Im Vordergrund stehen viele Leute in der Branche, die Chips für große Modelle herstellen wollen. Es gibt auch viele Leute, die in Chips für große Modelle investieren möchten.
Aber was ist der Schlüssel zum Design großer Modellchips? Jeder scheint zu wissen, wie wichtig große Bandbreite und großer Speicher sind, aber wie unterscheidet sich der Chip von NVIDIA?
Bei Fragen versucht dieser Artikel, Ihnen Inspiration zu geben.
Artikel, die rein auf Meinungen basieren, wirken oft formalistisch. Wir können dies anhand eines Architekturbeispiels veranschaulichen.
SambaNova Systems gilt als eines der Top-Ten-Einhornunternehmen in den Vereinigten Staaten. Im April 2021 erhielt das Unternehmen eine von SoftBank angeführte Serie-D-Investition in Höhe von 678 Millionen US-Dollar mit einer Bewertung von 5 Milliarden US-Dollar, was es zu einem Super-Einhorn-Unternehmen macht. Zu den Investoren von SambaNova gehörten zuvor die weltweit führenden Risikokapitalfonds wie Google Ventures, Intel Capital, SK und Samsung Catalytic Fund. Welche disruptiven Dinge tut dieses Super-Einhorn-Unternehmen, das die Gunst der weltweit führenden Investmentinstitute auf sich gezogen hat? Wenn wir uns ihre frühen Werbematerialien ansehen, können wir feststellen, dass SambaNova einen anderen Entwicklungspfad als der KI-Gigant NVIDIA gewählt hat. Ist das nicht ein bisschen schockierend? Ein 1024 V100-Cluster, der mit beispielloser Leistung auf der NVIDIA-Plattform aufgebaut ist, entspricht tatsächlich einer einzelnen Maschine von SambaNova? ! Dies ist das Produkt der ersten Generation, ein eigenständiger 8-Karten-Automat auf Basis von SN10 RDU.
Manche Leute mögen sagen, dass dieser Vergleich nicht fair ist. Hat NVIDIA das nicht selbst erkannt? Mit einer Leistung von 5 PetaFLOPS verfügt SambaNovas DataScale der zweiten Generation ebenfalls über eine Rechenleistung von 5 PetaFLOPS. Speichervergleich von 320 GB HBM vs. 8 TB DDR4 (der Herausgeber vermutet, dass er den Artikel möglicherweise falsch geschrieben hat, es sollten 3 TB * 8 sein).
Schlüssel Extrahierte Punkte:
Wenn Sie auf DGX H100 umsteigen, können Sie den Abstand nur verringern, selbst wenn Sie auf Technologien mit geringer Präzision wie FP8 umsteigen.
„Und selbst wenn der DGX-H100 bei 16-Bit-Gleitkommaberechnung die dreifache Leistung bietet als der DGX-A100, wird er die Lücke zum SambaNova-System nicht schließen. Bei FP8-Daten mit geringerer Präzision könnte dies jedoch der Fall sein.“ Wir können die Leistungslücke schließen. Es ist unklar, wie viel Präzision durch die Umstellung auf Daten und Verarbeitung mit geringerer Präzision verloren geht.“
Wenn jemand einen solchen Effekt erzielen könnte, wäre das nicht eine perfekte Lösung mit großen Chips? Und es kann sich auch direkt mit der Konkurrenz von NVIDIA messen! (Vielleicht werden Sie sagen, dass die Grace-CPU auch an LPDDR angeschlossen werden kann, was zur Kapazitätserhöhung hilfreich ist. Wie sieht andererseits SambaNova diese Angelegenheit: Grace ist nur ein großer Speichercontroller, der aber nur 512 GB bringen kann zu Hopper. Und ein SN30 hat 3 TB DRAM. Wir haben immer gescherzt, dass Nvidias „Grace“-Arm-CPU nur ein überbewerteter Speichercontroller für die Hopper-GPU war, und in vielen Fällen war es wirklich nur ein Speichercontroller. Und die Hopper-GPU in jedem Grace-Hopper-Superchip-Paket verfügt nur über maximal 512 GB Speicher. Das ist immer noch viel weniger als die 3 TB Speicher, die SambaNova bietet. Die Geschichte lehrt uns, dass selbst das wohlhabendste Imperium dies tun muss Vorsicht. Dieser unauffällige Riss
Xia He, der Meister von Huawei, spekulierte kürzlich, dass eine Schwäche des NVIDIA-Imperiums aus Kostensicht in den Kosten pro GB liegen könnte. Er schlug eine verrückte Stapelung von billigem DDR-Speicher für große interne Eingaben/Ausgaben vor könnte einen revolutionären Einfluss auf NVIDIA haben $/GBps (Datenbewegung) ist HBM kostengünstiger, da LLM zwar einen relativ großen Bedarf an Speicherkapazität hat, aber auch einen großen Bedarf an Speicherbandbreite hat. Das Training erfordert eine große Anzahl von Parametern, die im DRAM ausgetauscht werden müssen .
(Erweiterung: https://www.php.cn/link/a56ee48e5c142c26cf645b2cc23d78fc)
Nach dem Architekturbeispiel von SambaNova zu urteilen, kann ein preisgünstiges DDR mit großer Kapazität das Problem von LLM lösen, was dies bestätigt Das Urteil von Xia Core!Aber aus Sicht von Mackler ist auch der Bedarf an enormer Bandbreite für die Datenmigration ein Problem. Wie löst SambaNova dieses Problem? Sie müssen die Merkmale der RDU-Architektur besser verstehen. Tatsächlich ist es leicht zu verstehen:
A ist das Paradigma des Datenaustauschs in der traditionellen GPU-Architektur. Dieser Hin- und Her-Austausch sollte leichter zu verstehen sein, da er eine große Menge an DDR-Bandbreite beansprucht. B ist das, was die Architektur von SambaNova erreichen kann. Während des Modellberechnungsprozesses bleibt ein großer Teil der Datenbewegung auf dem Chip und es besteht keine Notwendigkeit, zum Austausch hin und her zum DRAM zu gehen.
DaherWenn Sie den Effekt wie B erzielen können, das Problem der Wahl zwischen großer Bandbreite und großer Kapazität, können Sie sicher eine große Kapazität wählen
. So heißt es in der folgenden Passage: „Die Frage, die wir haben, ist diese: Was ist bei einer hybriden Speicherarchitektur, die Basismodelle unterstützt, wichtiger? Speicherkapazität oder Speicherbandbreite. Sie können nicht beides auf einer einzigen Speichertechnologie haben.“ Jede Architektur, und selbst wenn Sie eine Mischung aus schnellen und dünnen und langsamen und fetten Speichern haben, sind Nvidia und SambaNova unterschiedlich. Allerdings ist es möglicherweise nicht möglich, der GPGPU-Strategie von NVIDIA zu folgen. Es scheint, dass die richtige Idee für große Chips darin besteht, kostengünstigeres DRAM zu verwenden. Bei gleichen Rechenleistungsspezifikationen kann die Leistung mehr als das Sechsfache von NVIDIA erreichen!
[2]https://www.nextplatform.com/2022/09/17/sambanova-doubles-up-chips-to-chase -ai-foundation-models/
[3]https://hc33.hotchips.org/assets/program/conference/day2/SambaNova%20HotChips%202021%20Aug%2023%20v1.pdf
[ 4] 《Schulung Großsprachmodelle effizient mit Sparsity und DataFlow》[5] https://www.php.cn/link/617974172720b96de92525536de581fa
der Inhalt, der neu geschrieben werden muss, ist: [6] Https https ist: [6] https ist: [6] https ist: [6] https ist: [6] https ist: [6] https ist: [6] https ist: [6] https ist: [6] http ://www.php.cn/link/a56ee48e5c142c26cf645b2cc23d78fc
Das obige ist der detaillierte Inhalt vonWie überholt DSA die NVIDIA-GPU in einer Kurve?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au
