Während die Welt immer noch von NVIDIA H100-Chips besessen ist und sie verrückt kauft, um die wachsende Nachfrage nach KI-Rechenleistung zu befriedigen, hat NVIDIA am Montag Ortszeit still und leise den neuesten KI-Chip H200 für das Training großer KI-Modelle auf den Markt gebracht Bei der Vorgängergeneration H100 wurde die Leistung von H200 um etwa 60 % bis 90 % verbessert.
H200 ist eine aktualisierte Version von NVIDIA H100. Es basiert ebenfalls auf der Hopper-Architektur. Das Haupt-Upgrade umfasst 141 GB HBM3e-Videospeicher. Die Videospeicherbandbreite wurde von 3,35 TB/s bei H100 erhöht. Laut der offiziellen Website von NVIDIA ist der H200 auch der erste Chip des Unternehmens, der HBM3e-Speicher verwendet. Dieser Speicher ist schneller und hat eine größere Kapazität, sodass er besser für große Sprachmodelle geeignet ist. NVIDIA sagte: „Mit HBM3e liefert der NVIDIA H200 141 GB Speicher bei 4,8 TB pro Sekunde,fast die doppelte Kapazität und 2,4-fache Bandbreite im Vergleich zum A100 .“ Den offiziellen Bildern zufolge beträgt die Ausgabegeschwindigkeit des H200 bei den großen Modellen Llama 2 und GPT-3.5 das 1,9-fache bzw. das 1,6-fache der Ausgabegeschwindigkeit des H100, und seine Geschwindigkeit beim Hochleistungsrechnen (HPC) hat das 110-fache der Geschwindigkeit von Dual-Core erreicht x86-CPU-Zeiten.
H200 wird voraussichtlich im zweiten Quartal nächsten Jahres ausgeliefert, und Nvidia hat seinen Preis noch nicht bekannt gegeben. Wie H100 und andere KI-Chips wird NVIDIA jedoch keine H200-Chips an chinesische Hersteller liefern.
Am 17. Oktober dieses Jahres erließ das US-Handelsministerium neue Exportkontrollbestimmungen für Chips, insbesondere strengere Kontrollen für KI-Chips mit hoher Rechenleistung. Eine der sehr wichtigen neuen Vorschriften besteht darin, die eingeschränkten Standards für fortschrittliche Computerchips anzupassen und einen neuen „Leistungsdichteschwellenwert“ als Parameter festzulegen. Nach neuen Vorschriften ist der Export der „Sonderedition“ H800 und A800 von Nvidia China nach China verboten.
Der Mangel an modernsten KI-Chips wird kurzfristig einige Herausforderungen für die Entwicklung der heimischen KI-Industrie mit sich bringen, birgt aber auch Chancen:
Erstens gibt es Möglichkeiten für den Ersatz inländischer Rechenleistungschips, wie beispielsweise Baidus jüngste Bestellung von 1.600 Huawei Ascend 910B-Chips; Unternehmen
. Am 14. gab Huina Technology bekannt, dass die Gebühren für die Rechenleistung von Hochleistungs-Computing-Servern mit eingebetteten Nvidia A100-Chips um 100 % erhöht werden. Schließlich kann die fortschrittliche Verpackungstechnologie, die durch „Chiplet“ repräsentiert wird, das Problem bis zu einem gewissen Grad lösen Es wird erwartet, dass unzureichende Produktionskapazitäten für fortgeschrittene Prozesse zu einer beschleunigten Entwicklung führen.Wer außer Huawei Shengteng kann also mit heimischer Rechenleistung das Banner tragen? Welche Unternehmen sind mit der Industriekette verbunden? Welche anderen Richtungen dürften indirekt davon profitieren? Unsere vier großen Leistungsrichtungen und repräsentativen Unternehmen aus der unabhängigen Steuerung der inländischen KI-Rechenleistung haben ein spezielles Thema „Es ist zwingend erforderlich, die KI-Rechenleistung unabhängig zu steuern“ erstellt. Freunde in Not können gerne den untenstehenden QR-Code scannen oder Fügen Sie den Assistenten WeChat hinzu: hzkyxjyy, holen Sie ihn sich kostenlos oder lesen Sie ihn in Ihrem Freundeskreis. Nach erfolgreicher Hinzufügung können alle vergangenen Berichte und jeder zukünftige Sonderbericht kostenlos gelesen werden.
Das obige ist der detaillierte Inhalt vonNVIDIA bringt neuen KI-Chip H200 auf den Markt, Leistung um 90 % verbessert! Chinas Rechenleistung erreicht unabhängigen Durchbruch!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!