Heim Technologie-Peripheriegeräte KI Ein einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE' ist Open Source

Ein einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE' ist Open Source

Jun 05, 2024 pm 10:14 PM
产业 昆仑万维

In der Welle großer Modelle stellt das Training und der Einsatz hochmoderner LLMs mit dichter Menge große Herausforderungen hinsichtlich des Rechenaufwands und der damit verbundenen Kosten dar, insbesondere bei Skalen von mehreren zehn oder hundert Milliarden Parametern. Um diesen Herausforderungen zu begegnen, werden dünnbesetzte Modelle wie Mixture of Experts (MoE)-Modelle immer wichtiger. Diese Modelle bieten eine wirtschaftlich sinnvolle Alternative, indem sie die Berechnung auf verschiedene spezialisierte Untermodelle oder „Experten“ verteilen und das Potenzial haben, die Leistung von Modellen mit dichter Menge zu erreichen oder sogar zu übertreffen, und das bei sehr geringem Ressourcenbedarf.

Am 3. Juni kam eine weitere wichtige Nachricht aus dem Bereich der Open-Source-Großmodelle: Kunlun Wanwei kündigte die Open Source des 200 Milliarden spärlichen Großmodells Skywork-MoE an, das die Inferenzkosten erheblich senkt und gleichzeitig eine starke Leistung beibehält.

Erweitert auf der Grundlage des vorherigen Open-Source-Modells Skywork-13B Intermediate Checkpoint von Kunlun Wanwei. Es ist das erste Open-Source-100-Milliarden-MoE-Großmodell, das die MoE-Upcycling-Technologie vollständig anwendet und implementiert ein einzelner 4090-Server. Hunderte Milliarden MoE-Großmodelle.

Was in der großen Model-Community noch mehr Aufmerksamkeit erregt, ist die Tatsache, dass die Modellgewichte und technischen Berichte von Skywork-MoE vollständig Open Source und für die kommerzielle Nutzung kostenlos sind, ohne dass eine Anwendung erforderlich ist.

  • Download-Adresse für Modellgewichte:

○ https://huggingface.co/Skywork/Skywork-MoE-base

○ https://huggingface.co/Skywork/Skywork-MoE-Base-FP8

  • Modell eines Open-Source-Warehouses: https://github.com/SkyworkAI/Skywork-MoE

  • Modell eines technischen Berichts: https://github.com/SkyworkAI/Skywork-MoE/blob/main/skywork-moe - tech-report.pdf

  • Modellinferenzcode: (unterstützt quantisierte 8-Bit-Lastinferenz auf 8x4090-Servern) https://github.com/SkyworkAI/vllm

Skywork-MoE kann derzeit auf Folgendes schließen 8x4090-Server Das größte Open-Source-MoE-Modell. Der 8x4090-Server verfügt über insgesamt 192 GB GPU-Speicher (Gewicht belegt 146 GB) und kann mithilfe der vom Kunlun Wanwei-Team entwickelten ungleichmäßigen Tensor-Parallel-Parallel-Argumentation innerhalb eines geeigneten Zeitraums 2200 Token/s erreichen Chargengröße.

Den vollständigen zugehörigen Inferenz-Framework-Code und die Installationsumgebung finden Sie unter: https://github.com/SkyworkAI/Skywork-MoE

Skywork-MoE Einführung

Dieses Open-Source-Skywork-MoE-Modell gehört zu Tiangong Die 3.0 R&D-Modellreihe ist das Mittelklassemodell (Skywork-MoE-Medium). Die Gesamtparametermenge des Modells beträgt 146B, die Aktivierungsparametermenge beträgt 22B und es gibt insgesamt 16 Experten , und 2 davon werden jedes Mal aktiviert.

Es versteht sich, dass Tiangong 3.0 auch zwei MoE-Modelle trainiert hat, 75B (Skywork-MoE-Small) und 400B (Skywork-MoE-Large), die nicht in dieser Open Source enthalten sind.

Kunlun Wanwei bewertete Skywork-MoE auf der Grundlage der aktuellen Bewertungslisten der wichtigsten Mainstream-Modelle. Bei der gleichen Aktivierungsparametermenge von 20B (Inferenzberechnungsmenge) liegen die Fähigkeiten von Skywork-MoE an der Spitze der Branche und liegen nahe bei 70B Dense Modell. Dadurch werden die Inferenzkosten des Modells um fast das Dreifache reduziert.

Ein einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE ist Open Source

Es ist erwähnenswert, dass die Gesamtparametergröße von Skywork-MoE 1/3 kleiner ist als die von DeepSeekV2, wodurch ähnliche Funktionen mit einer kleineren Parametergröße erreicht werden.

Technische Innovation

Um die Probleme des schwierigen MoE-Modelltrainings und der schlechten Generalisierungsleistung zu lösen, hat Skywork-MoE zwei Trainingsoptimierungsalgorithmen entwickelt:

Gating Logits-Normalisierungsoperation

Skywork-MoE in Gating A neu Der Normalisierungsvorgang wird zur Token-Verteilungslogik des Layers hinzugefügt, wodurch das Parameterlernen des Gating-Layers stärker auf die ausgewählten Top-2-Experten ausgerichtet wird und das Vertrauen des MoE-Modells für die Top-2 erhöht wird:

Ein einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE ist Open SourceAdaptiv Der Aux-Verlust

unterscheidet sich vom herkömmlichen Aux-Verlust mit festen Koeffizienten (feste Hyperparameter). Skywork-MoE ermöglicht es dem Modell, in verschiedenen Phasen des MoE-Trainings geeignete Aux-Verlust-Hyperparameterkoeffizienten adaptiv auszuwählen, wodurch die Drop-Token-Rate innerhalb der Grenzen gehalten wird Durch geeignete Intervalle kann die Expertenverteilung ausgeglichen und das Expertenlernen differenziert werden, wodurch die Gesamtleistung und der Generalisierungsgrad des Modells verbessert werden. In der frühen Phase des MoE-Trainings ist die Drop-Token-Rate zu hoch (der Token-Verteilungsunterschied ist zu groß). Zu diesem Zeitpunkt ist ein größerer Aux-Verlust erforderlich, um den Token-Lastausgleich zu unterstützen In der Phase der MoE-Schulung hofft das Skywork-MoE-Team, dass ein gewisses Maß an Differenzierung zwischen den Experten weiterhin gewährleistet ist, um Gatings Tendenz zur zufälligen Verteilung von Token zu vermeiden. Daher ist ein geringerer Aux-Verlust erforderlich, um die Korrektur zu reduzieren.

Ein einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE ist Open Source

Training Infra

Die effiziente Durchführung groß angelegter verteilter Schulungen von MoE-Modellen ist eine schwierige Herausforderung. Skywork-MoE schlägt zwei wichtige parallele Optimierungsdesigns vor, um einen Trainingsdurchsatz von MFU von 38 % auf einem Kilokalorien-Cluster zu erreichen, wobei MFU die theoretische Rechenlast mit einem Aktivierungsparameter von 22B berechnet.

Expertendatenparallel

Anders als die bestehenden EP- (Expert Parallel) und ETP- (Expert Tensor Parallel) Designs in der Megatron-LM-Community hat das Skywork-MoE-Team eine parallele Designlösung namens Expert Data Parallel vorgeschlagen. Diese parallele Lösung kann in Expert When verwendet werden Die Anzahl ist gering, das Modell kann dennoch effizient segmentiert werden und die von Expert eingeführte All-2-All-Kommunikation kann ebenfalls weitgehend optimiert und maskiert werden. Verglichen mit der Beschränkung der Anzahl der GPUs durch EP und der Ineffizienz von ETP bei Kilokarten-Clustern kann EDP die parallelen Schwachstellen groß angelegter verteilter Trainings-MoE besser lösen. Gleichzeitig ist das Design von EDP einfach, robust und leicht zu erweitern. und kann verglichen werden. Schnelle Implementierung und Überprüfung. E Eines der einfachsten EDP-Beispiele, TP = 2, EP = 2 im Fall von zwei Karten, bei denen der Aufmerksamkeitsteil Tensor Parallel und der Expertenteil Expert Parallel verwendet. Ungleichmäßiges Schneiden von Wasser parallel zu Wasser parallel Wasser

Ein einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE ist Open SourceAufgrund der Einbettungsberechnung der ersten Stufe und der Verlustberechnung der letzten Stufe sowie der Existenz des Pipeline-Puffers besteht ein offensichtliches Ungleichgewicht in der Rechenlast und der Videospeicherlast jeder Stufe, wenn die Die Schicht ist unter Pipeline-Parallelität gleichmäßig aufgeteilt. Das Skywork-MoE-Team schlug eine Methode zur ungleichmäßigen parallelen Pipeline-Segmentierung und Neuberechnungsschichtzuweisung vor, um die gesamte Rechen-/Grafikspeicherauslastung ausgewogener zu gestalten und den End-to-End-Trainingsdurchsatz um etwa 10 % zu verbessern.

Vergleichen Sie die Pipeline-Parallelblasen unter gleichmäßiger Segmentierung und ungleichmäßiger Segmentierung: Für ein 24-Schicht-LLM ist (a) gleichmäßig in 4 Stufen unterteilt, und die Anzahl der Schichten in jeder Stufe beträgt: [ 6 , 6, 6, 6]. (b) ist eine optimierte ungleichmäßige Aufteilungsmethode, die in 5 Stufen unterteilt ist: [5, 5, 5, 5, 4]. Die mittlere Stufe ist mit fließendem Wasser gefüllt, die ungleichmäßig verteilten Blasen liegen noch tiefer.

Darüber hinaus führte Skywork-MoE auch eine Reihe von Experimenten auf der Grundlage des Skalierungsgesetzes durch, um zu untersuchen, welche Einschränkungen sich auf die Leistung von Upcycling- und From Scratch-Trainings-MoE-Modellen auswirken.

Ein einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE ist Open Source

Eine Faustregel, die befolgt werden kann, lautet: Wenn die FLOPs beim Training des MoE-Modells mehr als doppelt so hoch sind wie beim Training des Dense-Modells, ist es besser, sich für das Training von MoE von Scratch zu entscheiden. Wenn Sie sich für die Schulung von MoE entscheiden, können Sie die Schulungskosten erheblich senken.

Das obige ist der detaillierte Inhalt vonEin einzelnes 4090 ableitbares, 200 Milliarden spärlich großes Modell „Tiangong MoE' ist Open Source. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

See all articles