Heim Technologie-Peripheriegeräte KI Viermal schneller, enthüllte ByteDances Open-Source-Hochleistungs-Trainings-Inferenz-Engine LightSeq-Technologie

Viermal schneller, enthüllte ByteDances Open-Source-Hochleistungs-Trainings-Inferenz-Engine LightSeq-Technologie

May 02, 2023 pm 05:52 PM
人工智能 ai模型 字节跳动

Das Transformer-Modell stammt aus dem 2017 vom Google-Team veröffentlichten Artikel „Attention is all you need“. In diesem Artikel wurde zunächst das Konzept vorgeschlagen, Aufmerksamkeit als Ersatz für die zyklische Struktur des Seq2Seq-Modells zu verwenden, was große Auswirkungen hatte zum NLP-Bereich. Und mit der kontinuierlichen Weiterentwicklung der Forschung in den letzten Jahren sind Transformer-bezogene Technologien nach und nach von der Verarbeitung natürlicher Sprache auf andere Bereiche übergegangen. Bisher sind die Modelle der Transformer-Serie zu Mainstream-Modellen in NLP, CV, ASR und anderen Bereichen geworden.

Daher ist die Frage, wie Transformer-Modelle schneller trainiert und abgeleitet werden können, zu einer wichtigen Forschungsrichtung in der Branche geworden. Quantisierungstechnologie mit geringer Präzision kann den Berechnungs- und Kommunikationsprozess beschleunigen, indem sie die Datenbreite verringert, und ist ein wichtiges Mittel, um das Modelltraining und die Inferenz in dieser Phase zu beschleunigen. Der Haken an der Sache ist jedoch, dass die Quantisierung zu einem Verlust an Genauigkeit und Wirkung führt und dieser Verlust durch Mittel wie quantifizierte Wahrnehmung und Training reduziert werden muss. Als Reaktion auf die oben genannten Schwachstellen hat ByteDance die LightSeq-Trainings- und Inferenzbeschleunigungs-Engine Version 3.0 entwickelt und aktualisiert, die zum ersten Mal gleichzeitig Präzision und verlustfreies Transformer-Modell für quantitatives Training und quantitative Inferenz ermöglicht.

LightSeq verwendet int8 GEMM, um den echten Quantisierungstrainingsprozess zu realisieren, anstatt die in der Branche weit verbreitete Pseudoquantisierungsmethode zu verwenden, und kann eine mehr als vierfache Verbesserung der Modelltrainingsgeschwindigkeit erreichen. Durch quantitative Strategien wie PACT kann der Verlust quantitativer Schulungen minimiert werden. Nachdem Sie das quantitative Modell in ein von LightSeq unterstütztes Format exportiert haben, können Sie die quantitative LightSeq-Inferenz-Engine weiter verwenden, um eine schnelle Inferenz zu erzielen, mit Geschwindigkeitsverbesserungen von bis zu 70 % auf T4-Grafikkarten.

Bei der Technologie-Sharing-Veranstaltung [T·TALK] am 21. Juli haben wir Herrn Xiong Ying, einen ByteDance-Algorithmus-Ingenieur und LightSeq-Kernentwickler, speziell eingeladen, als Gast im Live-Übertragungsraum zu sein, um die Dinge zu enthüllen die geheimen Worte an das Publikum. Die technischen Prinzipien und praktischen Details der Hochleistungs-Trainings-Inferenz-Engine LightSeq. Ganz gleich, ob Sie ein Praktiker in der Algorithmenbranche oder ein Entwickler sind, der sich für KI-Technologie interessiert, ich glaube, dass Sie durch diesen Austausch einzigartige technische Erfahrungen und innovative Inspirationen gewinnen können.

Begrüßen Sie alle zur Teilnahme an der 12. Technologie-Sharing-Veranstaltung von [T·TALK] am 21. Juli um 20:00 Uhr

#🎜 🎜 # scanne das Poster untenQR-CodeTermin zum Anschauen vereinbaren

Viermal schneller, enthüllte ByteDances Open-Source-Hochleistungs-Trainings-Inferenz-Engine LightSeq-Technologie

# 🎜🎜#

Das obige ist der detaillierte Inhalt vonViermal schneller, enthüllte ByteDances Open-Source-Hochleistungs-Trainings-Inferenz-Engine LightSeq-Technologie. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße Artikel -Tags

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Jun 28, 2024 am 03:51 AM

Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet

Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Jun 10, 2024 am 11:08 AM

Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag

Sieben coole technische Interviewfragen für GenAI und LLM Sieben coole technische Interviewfragen für GenAI und LLM Jun 07, 2024 am 10:06 AM

Sieben coole technische Interviewfragen für GenAI und LLM

Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Jun 11, 2024 pm 03:57 PM

Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Jul 25, 2024 am 06:42 AM

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt

Xiaomi Byte schließt sich zusammen! Ein großes Modell von Xiao Ais Zugang zu Doubao: bereits auf Mobiltelefonen und SU7 installiert Xiaomi Byte schließt sich zusammen! Ein großes Modell von Xiao Ais Zugang zu Doubao: bereits auf Mobiltelefonen und SU7 installiert Jun 13, 2024 pm 05:11 PM

Xiaomi Byte schließt sich zusammen! Ein großes Modell von Xiao Ais Zugang zu Doubao: bereits auf Mobiltelefonen und SU7 installiert

SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen Jul 17, 2024 pm 06:37 PM

SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen

Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Jun 05, 2024 pm 08:51 PM

Fünf Schulen des maschinellen Lernens, die Sie nicht kennen

See all articles