Heim > Technologie-Peripheriegeräte > KI > Tencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert

Tencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert

WBOY
Freigeben: 2023-04-16 13:28:05
nach vorne
1249 Leute haben es durchsucht

Der HCC-Hochleistungs-Computing-Cluster der neuen Generation nutzt die neueste Generation selbst entwickelter Xinghai-Server und ist mit der NVIDIA H800 Tensor Core GPU ausgestattet.

Tencent-Beamte sagten, dass der Cluster auf einer selbst entwickelten Netzwerk- und Speicherarchitektur basiert und eine ultrahohe Verbindungsbandbreite von 3,2 T, eine Durchsatzkapazität auf TB-Ebene und mehrere zehn Millionen IOPS bietet. Tatsächliche Messergebnisse zeigen, dass die Rechenleistung des Clusters der neuen Generation im Vergleich zur vorherigen Generation um das Dreifache verbessert wurde.

Tencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert

Im Oktober letzten Jahres schloss Tencent das Training des ersten groß angelegten KI-Modells mit einer Billion Parametern ab – dem Hunyuan NLP-Großmodell. Bei gleichem Datensatz verkürzt sich die Trainingszeit von 50 Tagen auf 11 Tage. Wenn es auf einem Cluster der neuen Generation basiert, wird die Schulungszeit weiter auf 4 Tage verkürzt.

Auf der Rechenebene ist die Server-Standalone-Leistung die Grundlage der Cluster-Rechenleistung. Die einzelne GPU-Karte des Tencent Cloud-Clusters der neuen Generation unterstützt die Ausgabe von bis zu 1979 TFlops Rechenleistung bei unterschiedlichen Genauigkeiten.

Für große Modellszenarien verwendet der selbst entwickelte Server von Durch Einzelpunktberechnungen kann die Kraftleistung auf ein höheres Niveau verbessert werden.

Tencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert

Auf Netzwerkebene bestehen enorme Anforderungen an die Dateninteraktion zwischen Rechenknoten. Mit zunehmender Clustergröße wirkt sich die Kommunikationsleistung direkt auf die Trainingseffizienz aus und erfordert eine maximale Zusammenarbeit zwischen dem Netzwerk und den Rechenknoten.

Tencents selbst entwickeltes Xingmai-Hochleistungscomputernetzwerk behauptet, über die branchenweit höchste 3,2T-RDMA-Kommunikationsbandbreite zu verfügen. Tatsächliche Messergebnisse zeigen, dass das 3,2T-Xingmai-Netzwerk bei gleicher Anzahl an GPUs eine Steigerung der Gesamtrechenleistung des Clusters um 20 % im Vergleich zum 1,6T-Netzwerk aufweist.

Gleichzeitig wird Tencents selbst entwickelte leistungsstarke kollektive Kommunikationsbibliothek TCCL in maßgeschneiderte Lösungen integriert. Im Vergleich zur branchenweiten Open-Source-Bibliothek für kollektive Kommunikation optimiert es die Lastleistung für das Training großer Modelle um 40 % und beseitigt Probleme mit Trainingsunterbrechungen, die durch mehrere Netzwerkgründe verursacht werden.

Tencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert

Auf der Speicherebene liest eine große Anzahl von Rechenknoten während des Trainings großer Modelle gleichzeitig einen Stapel von Datensätzen. Es ist notwendig, die Datenladezeit so weit wie möglich zu verkürzen, um Wartezeiten zu vermeiden Rechenknoten.

Die selbst entwickelte Speicherarchitektur von Tencent Cloud verfügt über Durchsatzkapazitäten auf Terabyte-Ebene und mehrere zehn Millionen IOPS und unterstützt so den Speicherbedarf in verschiedenen Szenarien. Die Objektspeicherlösung COS+GooseFS und die leistungsstarke Dateispeicherlösung CFS Turbo erfüllen die hohe Leistung, den großen Durchsatz und die massiven Speicheranforderungen in großen Modellszenarien vollständig.

Tencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert

Darüber hinaus integriert der Cluster der neuen Generation die von Tencent Cloud selbst entwickelte TACO-Trainingsbeschleunigungs-Engine, die eine große Anzahl von Optimierungen auf Systemebene für Netzwerkprotokolle, Kommunikationsstrategien, KI-Frameworks und Modellkompilierung durchführt und so erheblich Schulungseinsparungen ermöglicht Tuning- und Rechenleistungskosten.

AngelPTM, das Schulungsframework hinter dem Hunyuan-Großmodell von Tencent, hat über Tencent Cloud TACO auch Dienste bereitgestellt, um Unternehmen dabei zu helfen, die Implementierung großer Modelle zu beschleunigen.

Durch die umfangreichen Modellfunktionen und die Toolbox der Tencent Cloud TI-Plattform können Unternehmen fein abgestimmte Schulungen auf der Grundlage industrieller Szenariodaten durchführen, die Produktionseffizienz verbessern und schnell KI-Anwendungen erstellen und bereitstellen.

Tencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert

Auf der Grundlage der verteilten Cloud-nativen Governance-Funktionen bietet die Tencent Cloud Intelligent Computing Platform 16 EFLOPS Gleitkomma-Rechenleistung.

Das obige ist der detaillierte Inhalt vonTencent bringt eine neue Generation von Super-Computing-Clustern auf den Markt: Für das Training großer Modelle wurde die Leistung um das Dreifache gesteigert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage