Heim Technologie-Peripheriegeräte KI Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene'

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene'

Jun 24, 2024 pm 03:04 PM
工程 Ausrichtungsalgorithmus TDPO

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene
Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Im Entwicklungsprozess auf dem Gebiet der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen um sicherzustellen, dass diese Modelle der menschlichen Gesellschaft sowohl kraftvoll als auch sicher dienen. Frühe Bemühungen konzentrierten sich auf die Verwaltung dieser Modelle durch Reinforcement-Learning-Methoden mit menschlichem Feedback (RLHF). Die beeindruckenden Ergebnisse stellten einen wichtigen Schritt hin zu einer menschenähnlicheren KI dar.

Trotz des großen Erfolgs ist RLHF beim Training sehr ressourcenintensiv. Daher haben Wissenschaftler in jüngster Zeit weiterhin einfachere und effizientere Wege zur Richtlinienoptimierung erforscht, die auf der soliden Grundlage des RLHF basieren, was zur Geburt der direkten Präferenzoptimierung (Direct Preference Optimization, DPO) führte. DPO erhält durch mathematisches Denken eine direkte Zuordnung zwischen der Belohnungsfunktion und der optimalen Strategie, eliminiert den Trainingsprozess des Belohnungsmodells, optimiert das Strategiemodell direkt anhand der Präferenzdaten und erreicht einen intuitiven Sprung vom „Feedback zur Strategie“. Dies reduziert nicht nur die Komplexität, sondern erhöht auch die Robustheit des Algorithmus und wird schnell zum neuen Favoriten in der Branche.

DPO konzentriert sich jedoch hauptsächlich auf die Richtlinienoptimierung unter inversen KL-Divergenzbeschränkungen. DPO eignet sich aufgrund der modussuchenden Eigenschaft der inversen KL-Divergenz hervorragend zur Verbesserung der Ausrichtungsleistung. Diese Eigenschaft verringert jedoch tendenziell auch die Diversität während des Generierungsprozesses, was möglicherweise die Fähigkeiten des Modells einschränkt. Obwohl DPO andererseits die KL-Divergenz aus einer Perspektive auf Satzebene steuert, erfolgt der Modellgenerierungsprozess im Wesentlichen Token für Token. Die Steuerung der KL-Divergenz auf Satzebene zeigt intuitiv, dass DPO Einschränkungen bei der feinkörnigen Steuerung aufweist und eine schwache Fähigkeit zur Anpassung der KL-Divergenz aufweist, was einer der Schlüsselfaktoren für den raschen Rückgang der generativen Diversität von LLM während des DPO-Trainings sein kann.

Zu diesem Zweck schlug das Team von Wang Jun und Zhang Haifeng von der Chinesischen Akademie der Wissenschaften und dem University College London einen großen Modellausrichtungsalgorithmus vor, der aus einer Perspektive auf Token-Ebene modelliert wurde: TDPO.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

  • Papiertitel: Direkte Präferenzoptimierung auf Token-Ebene

  • Papieradresse: https://arxiv.org/abs/2404.11999

  • Codeadresse: https://github.com/Vance0124 /Token-level-Direct-Preference-Optimization

Um den erheblichen Rückgang der Vielfalt der Modellgenerierung zu bewältigen, definierte TDPO die Zielfunktion des gesamten Ausrichtungsprozesses aus einer Token-Level-Perspektive neu und transformierte den Bradley -Terry-Modell in die Form einer Vorteilsfunktion umwandeln ermöglicht die endgültige Analyse und Optimierung des gesamten Ausrichtungsprozesses auf Token-Ebene. Im Vergleich zu DPO sind die Hauptbeiträge von TDPO wie folgt:

  • Modellierungsmethode auf Token-Ebene: TDPO modelliert das Problem aus einer Perspektive auf Token-Ebene und führt eine detailliertere Analyse von RLHF durch; Divergenzbeschränkungen: Die Vorwärts-KL-Divergenzbeschränkungen werden theoretisch bei jedem Token eingeführt, wodurch die Methode die Modelloptimierung besser einschränken kann.

  • Offensichtliche Leistungsvorteile: Im Vergleich zu DPO ist TDPO in der Lage, eine bessere Ausrichtungsleistung zu erzielen und verschiedene Pareto-Fronten zu erzeugen.

  • Der Hauptunterschied zwischen DPO und TDPO ist in der folgenden Abbildung dargestellt:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene                                                                                                                                   Die TDPO-Ausrichtung von s TDPO soll wie unten gezeigt optimiert werden. DPO wird aus der Perspektive auf Satzebene modelliert

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-EbeneAbbildung 2: Ausrichtungsoptimierungsmethode von TDPO. TDPO modelliert aus einer Token-Ebene-Perspektive und führt bei jedem Token zusätzliche Vorwärts-KL-Divergenzbeschränkungen ein, wie im roten Teil in der Abbildung gezeigt, die nicht nur den Grad des Modellversatzes steuern, sondern auch als Basis für die Modellausrichtung dienen

Der spezifische Ableitungsprozess der beiden Methoden wird im Folgenden vorgestellt.

Hintergrund: Direct Preference Optimization (DPO)

DPO erhält durch mathematische Ableitung eine direkte Zuordnung zwischen der Belohnungsfunktion und der optimalen Richtlinie, wodurch die Belohnungsmodellierungsphase im RLHF-Prozess entfällt:

Formel (1) wird in das Bradley-Terry (BT)-Präferenzmodell eingesetzt, um die Verlustfunktion der direkten Richtlinienoptimierung (DPO) zu erhalten:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

wobei Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene das Präferenzpaar ist, das aus Eingabeaufforderung, positiver Antwort und negativer Antwort aus dem Präferenzdatensatz D besteht.

TDPO

Symbolannotation

Um den sequentiellen und autoregressiven Generierungsprozess des Sprachmodells zu modellieren, drückt TDPO die generierte Antwort als eine Form aus T TokensVon RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene aus, wobei Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene, Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene die darstellen Alphabet (Glossar).

Wenn die Textgenerierung als Markov-Entscheidungsprozess modelliert wird, wird der Zustand als die Kombination aus Eingabeaufforderung und Token definiert, die bis zum aktuellen Schritt generiert wurde, dargestellt durch Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene, während die Aktion dem nächsten generierten Token entspricht, dargestellt by ist Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene, die Belohnung auf Token-Ebene ist definiert als Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene.

Basierend auf den oben bereitgestellten Definitionen erstellt TDPO eine Zustandsaktionsfunktion Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene, eine Zustandswertfunktion Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene und eine Vorteilsfunktion Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene für die Police Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

wobei Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene den Abzinsungsfaktor darstellt.

Human Feedback Reinforcement Learning aus einer Perspektive auf Token-Ebene

TDPO modifiziert theoretisch die Belohnungsmodellierungsphase und die RL-Feinabstimmungsphase von RLHF und erweitert sie zu Optimierungszielen, die aus einer Perspektive auf Token-Ebene betrachtet werden.

Für die Belohnungsmodellierungsphase stellte TDPO die Korrelation zwischen dem Bradley-Terry-Modell und der Vorteilsfunktion her:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Für die RL-Feinabstimmungsphase definierte TDPO die folgende Zielfunktion:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Ableitung

Ausgehend von Ziel (4) leitet TDPO die Zuordnungsbeziehung zwischen der optimalen Strategie Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene und der Zustandsaktionsfunktion Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene für jeden Token ab:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Wobei Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene die Partitionsfunktion darstellt.

Wenn wir Gleichung (5) in Gleichung (3) einsetzen, erhalten wir:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

wobei Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene den Unterschied in der impliziten Belohnungsfunktion darstellt, die durch das Richtlinienmodell Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene und das Referenzmodell Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene dargestellt wird, ausgedrückt als

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

während Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene die Vorwärts-KL-Divergenzdifferenz auf Sequenzebene von Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene bezeichnet und Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene, gewichtet mit Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene, ausgedrückt wird als

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Basierend auf Gleichung (8) kann die TDPO-Maximum-Likelihood-Verlustfunktion wie folgt modelliert werden:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

In Anbetracht dessen, dass in der Praxis der Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene-Verlust tendenziell zunimmt Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene, was den Unterschied zwischen Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene und Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene verstärkt, schlägt TDPO vor, Gleichung (9) wie folgt zu ändern:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

wobei Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene ein Hyperparameter ist und

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Hier bedeutet Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene Stoppen Sie den Gradientenausbreitungsoperator.

Wir fassen die Verlustfunktionen von TDPO und DPO wie folgt zusammen:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Es ist ersichtlich, dass TDPO diese Vorwärts-KL-Divergenzkontrolle bei jedem Token einführt, was eine bessere Kontrolle von KL während der Optimierungsprozessänderungen ermöglicht, ohne die Ausrichtungsleistung zu beeinträchtigen , wodurch eine bessere Pareto-Front erreicht wird.

Experimentelle Einstellungen

TDPO führte Experimente mit IMDb-, Anthropic/hh-rlhf- und MT-Bench-Datensätzen durch.

IMDb

Auf dem IMDb-Datensatz verwendete das Team GPT-2 als Basismodell und verwendete dann siebert/sentiment-roberta-large-english als Belohnungsmodell, um die Ausgabe des Richtlinienmodells zu bewerten. Die experimentellen Ergebnisse sind in Abbildung 3 dargestellt.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Wie aus Abbildung 3 (a) ersichtlich ist, kann TDPO (TDPO1, TDPO2) eine bessere Belohnungs-KL-Pareto-Front erreichen als DPO, während aus Abbildung 3 (b)-(d) ersichtlich ist TDPO schneidet bei der KL-Divergenzkontrolle sehr gut ab, was weitaus besser ist als die KL-Divergenzkontrollfähigkeit des DPO-Algorithmus.

Anthropic HH

Auf dem Anthropic/hh-rlhf-Datensatz verwendete das Team Pythia 2.8B als Basismodell und verwendete zwei Methoden, um die Qualität der Modellgenerierung zu bewerten: 1) Verwendung vorhandener Indikatoren; 2) Bewertung mithilfe GPT-4.

Für die erste Bewertungsmethode bewertete das Team die Kompromisse bei der Ausrichtungsleistung (Genauigkeit) und der Generationsvielfalt (Entropie) von Modellen, die mit verschiedenen Algorithmen trainiert wurden, wie in Tabelle 1 dargestellt.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Es ist ersichtlich, dass der TDPO-Algorithmus nicht nur hinsichtlich der Ausrichtungsleistung (Genauigkeit) besser ist als DPO und f-DPO, sondern auch einen Vorteil bei der Generationsvielfalt (Entropie) aufweist, die ein wichtiger Indikator für die Reaktion ist Durch diese beiden großen Modelle wird ein besserer Kompromiss erzielt.

Für die zweite Bewertungsmethode bewertete das Team die Konsistenz zwischen Modellen, die durch verschiedene Algorithmen und menschliche Vorlieben trainiert wurden, und verglich sie mit den erfolgreichen Antworten im Datensatz, wie in Abbildung 4 dargestellt.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

DPO-, TDPO1- und TDPO2-Algorithmen sind alle in der Lage, bei einem Temperaturkoeffizienten von 0,75 eine Gewinnquote von mehr als 50 % für gewinnende Antworten zu erreichen, was den menschlichen Vorlieben besser entspricht.

MT-Bench

Im letzten Experiment in der Arbeit verwendete das Team das auf dem Anthropic HH-Datensatz trainierte Pythia 2.8B-Modell, um es direkt für die MT-Bench-Datensatzauswertung zu verwenden. Die Ergebnisse sind in Abbildung dargestellt 5 Anzeigen.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Auf MT-Bench ist TDPO in der Lage, eine höhere Gewinnwahrscheinlichkeit als andere Algorithmen zu erreichen, was die höhere Qualität der Antworten, die durch das vom TDPO-Algorithmus trainierte Modell generiert werden, voll und ganz demonstriert.

Darüber hinaus gibt es verwandte Studien zum Vergleich von DPO-, TDPO- und SimPO-Algorithmen. Bitte beachten Sie den Link: https://www.zhihu.com/question/651021172/answer/3513696851

Basierend auf dem Evaluierungsskript von Eurus, die Bewertung Die Leistung der Basismodelle qwen-4b, mistral-0.1 und deepseek-math-base wird durch Feinabstimmung des Trainings basierend auf den verschiedenen Ausrichtungsalgorithmen DPO, TDPO und SimPO erreicht. Im Folgenden sind die experimentellen Ergebnisse aufgeführt:

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene

Tabelle 2: DPO, Leistungsvergleich von TDPO- und SimPO-Algorithmen

Weitere Ergebnisse finden Sie im Originalpapier.

Das obige ist der detaillierte Inhalt vonVon RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene'. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1664
14
PHP-Tutorial
1269
29
C#-Tutorial
1249
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles