Heim Technologie-Peripheriegeräte KI NVIDIAs leistungsstärkstes Open-Source-Universalmodell Nemotron-4 340B

NVIDIAs leistungsstärkstes Open-Source-Universalmodell Nemotron-4 340B

Jun 16, 2024 pm 10:32 PM
英伟达 产业 Nemotron

Leistung übertrifft Llama-3 und wird hauptsächlich für synthetische Daten verwendet.


NVIDIAs allgemeines Großmodell Nemotron hat die neueste Version mit 340 Milliarden Parametern als Open Source bereitgestellt.

Diesen Freitag gab NVIDIA die Einführung des Nemotron-4 340B bekannt. Es enthält eine Reihe offener Modelle, mit denen Entwickler synthetische Daten für das Training großer Sprachmodelle (LLM) generieren können, die für kommerzielle Anwendungen in allen Branchen wie Gesundheitswesen, Finanzen, Fertigung und Einzelhandel verwendet werden können.

Hochwertige Trainingsdaten spielen eine entscheidende Rolle für die Reaktionsfähigkeit, Genauigkeit und Qualität benutzerdefinierter LLMs – leistungsstarke Datensätze sind jedoch oft teuer und unzugänglich. Durch eine einzigartige offene Modelllizenz bietet Nemotron-4 340B Entwicklern eine kostenlose, skalierbare Möglichkeit, synthetische Daten zu generieren, um Menschen beim Aufbau leistungsstarker LLMs zu unterstützen.

Die Nemotron-4 340B-Serie umfasst Basis-, Instruct- und Reward-Modelle, die eine Pipeline zur Generierung synthetischer Daten für das Training und die Verbesserung von LLM bilden. Diese Modelle sind für die Verwendung mit NVIDIA NeMo optimiert, einem Open-Source-Framework für durchgängiges Modelltraining, einschließlich Datenverwaltung, Anpassung und Auswertung. Sie sind außerdem für die Inferenz mit der Open-Source-Bibliothek NVIDIA TensorRT-LLM optimiert.

Nvidia sagt, dass der Nemotron-4 340B jetzt bei Hugging Face zum Download verfügbar ist. Entwickler können bald auf diese Modelle unter ai.nvidia.com zugreifen, wo sie als NVIDIA NIM-Microservices mit Standard-Anwendungsprogrammierschnittstellen verpackt werden, die überall eingesetzt werden können.

Hugging Face Download: https://huggingface.co/collections/nvidia/nemotron-4-340b-666b7ebaf1b3867caf2f1911

Navigieren Sie durch Nemotron, um synthetische Daten zu generieren

Große Sprachmodelle können Hilft Entwicklern, synthetische Trainingsdaten zu generieren, ohne auf große, vielfältig gekennzeichnete Datensätze zugreifen zu müssen.

Das Nemotron-4 340B Instruct-Modell erstellt vielfältige synthetische Daten, die die Eigenschaften realer Daten nachahmen und so zur Verbesserung der Datenqualität und damit zur Verbesserung der Leistung und Robustheit benutzerdefinierter LLMs in verschiedenen Bereichen beitragen.

Um die Qualität der KI-generierten Daten zu verbessern, können Entwickler das Nemotron-4 340B-Belohnungsmodell verwenden, um nach qualitativ hochwertigen Antworten zu filtern. Nemotron-4 340B Reward bewertet Antworten anhand von fünf Attributen: Benutzerfreundlichkeit, Korrektheit, Kohärenz, Komplexität und Ausführlichkeit. Es belegt derzeit Platz 1 im Hugging Face RewardBench-Ranking von AI2, das die Leistungsfähigkeit, Sicherheit und Mängel von Belohnungsmodellen bewertet.
英伟达开源最强通用模型Nemotron-4 340B
In dieser synthetischen Datenpipeline wird (1) das Nemotron-4 340B Instruct-Modell verwendet, um eine textbasierte synthetische Ausgabe zu generieren. Anschließend wertet das Bewertungsmodell (2) Nemotron-4 340B Reward den generierten Text aus und gibt Feedback, um iterative Verbesserungen anzuleiten und die Genauigkeit der synthetisierten Daten sicherzustellen.

Forscher können das Nemotron-4 340B-Basismodell auch mithilfe ihrer eigenen proprietären Daten in Kombination mit dem enthaltenen HelpSteer2-Datensatz anpassen, um ihr eigenes Instruct-Modell oder Belohnungsmodell zu erstellen.
英伟达开源最强通用模型Nemotron-4 340B
                                             Papieradresse: https://d1qx31qr3h6wln.cloudfront.net/publications/Nemotron_4_340B_8T_0.pdf

Einführung in die Methode

Die Nemotron-4-340B-Basismodellarchitektur ist eine Eine Standard-Decoder-Transformer-Architektur mit kausalen Aufmerksamkeitsmasken, rotierter Positionseinbettung (RoPE), SentencePiece-Tokenizer und mehr. Die Hyperparameter von Nemotron-4-340B-Base sind in Tabelle 1 aufgeführt. Es verfügt über 9,4 Milliarden eingebettete Parameter und 331,6 Milliarden nicht eingebettete Parameter.
英伟达开源最强通用模型Nemotron-4 340B
Die folgende Tabelle zeigt einige Trainingsdetails des Nemotron-4-340B-Base-Modells. Die Tabelle fasst die drei Stufen des Stapelgrößengradienten zusammen, einschließlich jeder Iterationszeit und Modell-FLOP/s-Auslastung.
英伟达开源最强通用模型Nemotron-4 340B
Um leistungsstarke Belohnungsmodelle zu entwickeln, hat NVIDIA einen Datensatz mit 10.000 menschlichen Präferenzdaten namens HelpSteer2 gesammelt und öffentlich veröffentlicht.

Datensatzadresse: https://huggingface.co/datasets/nvidia/HelpSteer2

Das Regressionsbelohnungsmodell Nemotron-4-340B-Reward basiert auf dem Nemotron-4-340B-Base-Modell. Und ersetzen Sie die letzte Softmax-Ebene durch den neuen Belohnungsheader. Dieser Header ist eine lineare Projektion, die den verborgenen Zustand der letzten Ebene in einen fünfdimensionalen Vektor von HelpSteer-Eigenschaften (Nützlichkeit, Korrektheit, Kohärenz, Komplexität, Ausführlichkeit) abbildet. Während des Inferenzprozesses können diese Attributwerte durch eine gewichtete Summe zu einer Gesamtbelohnung aggregiert werden. Dieser Bonusmodus bietet eine solide Grundlage für das Training des Nemotron-4-340B-Instruct.

Die Studie ergab, dass ein solches Modell auf RewardBench sehr gut abschnitt:
英伟达开源最强通用模型Nemotron-4 340B
Feinabstimmung mit NeMo und optimierte Inferenz mit TensorRT-LLM

Verwendung von Open-Source-NVIDIA NeMo und NVIDIA TensorRT -LLM können Entwickler die Effizienz ihrer Beratungs- und Belohnungsmodelle optimieren, um synthetische Daten zu generieren und Antworten zu bewerten.

Alle Nemotron-4 340B-Modelle werden mit TensorRT-LLM optimiert, um die Tensorparallelität zu nutzen, eine Art Modellparallelität, bei der eine einzelne Gewichtsmatrix auf mehrere GPUs und Server aufgeteilt wird, um eine effiziente Inferenz im Maßstab zu erreichen.

Nemotron-4 340B Base wird auf 9 Billionen Token trainiert und kann mithilfe des NeMo-Frameworks an bestimmte Anwendungsfälle oder Domänen angepasst werden. Dieser Feinabstimmungsprozess profitiert von großen Mengen an Daten vor dem Training und liefert eine genauere Ausgabe für bestimmte nachgelagerte Aufgaben.

Unter anderem bietet das NeMo-Framework eine Vielzahl von Anpassungsmethoden, einschließlich überwachter Feinabstimmungs- und Parameter-effizienter Feinabstimmungsmethoden, wie z. B. Low-Rank-Adaption (LoRA).

Um die Modellqualität zu verbessern, können Entwickler ihre Modelle mit NeMo Aligner und mit Nemotron-4 340B Reward annotierten Datensätzen ausrichten. Die Ausrichtung ist ein entscheidender Schritt beim Training großer Sprachmodelle, bei dem das Modellverhalten mithilfe von Algorithmen wie RLHF feinabgestimmt wird, um sicherzustellen, dass die Ausgabe sicher, genau, kontextbezogen und im Einklang mit den erklärten Zielen ist.

Unternehmen, die auf der Suche nach Support der Enterprise-Klasse und sicheren Produktionsumgebungen sind, können auch über die cloudnative NVIDIA AI Enterprise-Softwareplattform auf NeMo und TensorRT-LLM zugreifen. Die Plattform bietet eine beschleunigte und effiziente Laufzeitumgebung für generative KI-Basismodelle.

Bewertungsdaten

Abbildung 1 verdeutlicht die Genauigkeit der Nemotron-4 340B-Modellfamilie bei ausgewählten Missionen. Konkret:

Nemotron-4-340B-Base ist mit Open-Access-Basismodellen wie Llama-3 70B, Mixtral 8x22B und Qwen-2 72B bei Aufgaben zum gesunden Menschenverstand wie ARC-Challenge, MMLU und BigBench Hard vergleichbar Benchmarks Vergleichbar.

In puncto Befehlsfolge und Chat-Fähigkeiten übertrifft Nemotron-4-340B-Instruct entsprechende Unterrichtsmodelle. Nemotron-4-340B Reward erreicht auf RewardBench die höchste Genauigkeit und übertrifft sogar proprietäre Modelle wie GPT-4o-0513 und Gemini 1.5 Pro-0514.
英伟达开源最强通用模型Nemotron-4 340B
Nach der Einführung von Nemotron-4-340B veröffentlichte die Evaluierungsplattform sofort ihre Benchmark-Ergebnisse. Es ist ersichtlich, dass ihre Ergebnisse die von Llama-3-70b in harten Benchmark-Tests wie Arena-Hard-Auto übertrafen
英伟达开源最强通用模型Nemotron-4 340BBedeutet das, dass ein neues, leistungsstärkstes Modell der Branche entstanden ist?

Referenzlink:
https://blogs.nvidia.com/blog/nemotron-4-synthetic-data-generation-llm-training/
https: //x.com/lmsysorg/status/1801682893988892716

Das obige ist der detaillierte Inhalt vonNVIDIAs leistungsstärkstes Open-Source-Universalmodell Nemotron-4 340B. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1675
14
PHP-Tutorial
1278
29
C#-Tutorial
1257
24
Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Nvidia spielt mit Beschneidung und Destillation: Halbierung der Llama 3.1 8B-Parameter, um bei gleicher Größe eine bessere Leistung zu erzielen Nvidia spielt mit Beschneidung und Destillation: Halbierung der Llama 3.1 8B-Parameter, um bei gleicher Größe eine bessere Leistung zu erzielen Aug 16, 2024 pm 04:42 PM

Der Aufstieg kleiner Modelle. Letzten Monat veröffentlichte Meta die Modellreihe Llama3.1, zu der das bisher größte Modell von Meta, das 405B-Modell, und zwei kleinere Modelle mit Parameterbeträgen von 70 Milliarden bzw. 8 Milliarden gehören. Llama3.1 gilt als der Beginn einer neuen Ära von Open Source. Obwohl die Modelle der neuen Generation leistungsstark sind, erfordern sie bei der Bereitstellung immer noch große Mengen an Rechenressourcen. Daher hat sich in der Branche ein weiterer Trend herausgebildet, der darin besteht, kleine Sprachmodelle (SLM) zu entwickeln, die bei vielen Sprachaufgaben eine ausreichende Leistung erbringen und zudem sehr kostengünstig in der Bereitstellung sind. Kürzlich haben Untersuchungen von NVIDIA gezeigt, dass durch strukturierte Gewichtsbereinigung in Kombination mit Wissensdestillation nach und nach kleinere Sprachmodelle aus einem zunächst größeren Modell gewonnen werden können. Turing-Preisträger, Meta Chief A

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

See all articles