Heim Technologie-Peripheriegeräte KI Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher

Jul 19, 2024 am 01:29 AM
openai 工程

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, trauen Sie sich dann, sie zu verwenden?


Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können, und klar zu machen, wann wir ihnen nicht vertrauen sollten.

Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, das heißt, alles Mögliche vollständig zu verstehen Fehler können abgefangen werden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen.

Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen.
Allerdings ist es bei diesem Ansatz sehr wichtig sicherzustellen, dass das Sprachmodell verständlichen Text generiert, insbesondere wenn es um komplexe Aufgaben wie Mathematik und Codierung geht.

Wie in der folgenden Abbildung gezeigt, bitten Sie die KI, einen schnellen Sortieralgorithmus zu schreiben. Die KI schreibt ihn schnell und die Antwort ist sehr prägnant. Aber wenn Sie nicht wissen, wie man Code schreibt, wie können Sie dann beurteilen, ob die KI richtig geschrieben ist? Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher
OpenAI hat dieses Problem in einem aktuellen Artikel untersucht.
Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher
  • Papiertitel: PROVER-VERIFIER GAMES IMPROVE LEGIBILITY OF LLM OUTPUTS
  • Papierlink: https://cdn.openai.com/prover-verifier-games-improve-legibility-of-llm- Outputs/legibility.pdf

Sie fanden heraus, dass die Antworten, die sie geben, möglicherweise schwer zu verstehen sind, wenn große Sprachmodelle gebeten werden, Antworten mit dem Ziel zu generieren, „die richtige Antwort zu erhalten“. Die Wahrscheinlichkeit, dass menschliche Bewerter bei der Beurteilung dieser Antworten Fehler machen, ist doppelt so hoch.

Ihr Ziel ist es also, Hochsprachenmodelle zu trainieren, damit sie Texte generieren können, die einfachere Modelle leicht verifizieren können. Sie fanden heraus, dass solche Texte nicht nur für einfache Modelle geeignet, sondern auch für Menschen besser lesbar sind.

Also, wie wird es erreicht? Darin wird auch ein Artikel aus dem Jahr 2021 erwähnt – „Learning to Give Checkable Answers with Prover-Verifier Games“. In diesem Artikel schlugen Cem Anil et al. ein spieltheoretisches Framework namens „Prover-Verifier Games“ vor. Das Framework besteht aus zwei konkurrierenden Lernenden: einem Netzwerk vertrauenswürdiger Prüfer, die versuchen, die richtige Antwort auszuwählen, und einem leistungsfähigeren, aber nicht vertrauenswürdigen Netzwerk von Prüfern, die versuchen, die Prüfer davon zu überzeugen, eine bestimmte Antwort zu akzeptieren, unabhängig von deren Richtigkeit. Das Ziel dieses Frameworks besteht darin, ein zuverlässiges Proof-Protokoll aus dem Spiel zu erstellen.

OpenAI hat sich dieses Framework in dieser neuen Forschung ausgeliehen und zwei große Modelle (das stärkere ist der Beweiser und das schwächere ist der Verifizierer) gegeneinander spielen lassen, bis die beiden ein Gleichgewicht erreichen. Zu diesem Zeitpunkt ist die vom Prüfer gegebene Antwort sowohl lesbar als auch einigermaßen korrekt.

OpenAI sagte, dass es durch die Verbesserung der Lesbarkeit der Modellausgabe die Anwendung künstlicher Intelligenz effektiver und vertrauenswürdiger machen kann, was für verschiedene Bereiche von Vorteil ist, die eine präzise Kommunikation erfordern.

Es ist erwähnenswert, dass dieses Papier vom Super Alignment-Team von OpenAI stammt, von dem mehrere Autoren OpenAI Anfang des Jahres verlassen haben, und dass das Team ebenfalls auseinandergefallen ist. Einer der Autoren gab bekannt, dass dies die letzte Arbeit des Teams sei.

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher

Ein intuitives Beispiel

Um die Lesbarkeit der Modellausgabe zu verbessern, optimierte OpenAI die Denkkette (CoT) einiger Mathematikprobleme in der Grundschule, sodass sie von schwächeren Modellen verstanden werden kann. Hier einige Beispiele:

Frage: Shawnas Vater ist fünfmal älter als Shawna. Shauna ist jetzt dreimal so alt wie Aliya. Wenn Aaliyah 3 ist, wie alt ist Shaunas Vater?

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher
Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher
Damit soll überprüft werden, ob die Ausgabe des auf diese Weise trainierten Modells direkter und leichter verständlich ist.

Diese Methode verbessert die Leistung des Modells um 50 % mit nur einigen Optimierungen am Trainingssatz. Gleichzeitig sind die vom Modell ausgegebenen Antworten auch verständlicher, was auch menschlichen Benutzern, die die Richtigkeit dieser Antworten bewerten müssen, hilft, genauere Urteile zu fällen. OpenAI glaubt, dass die weitere Verringerung der Leistungslücke zwischen besser lesbaren und leistungsfähigeren Modellen ein wichtiges Ziel der zukünftigen Alignment-Forschung ist.

Wie spielen „Prüfer“ und „Prüfer“ im Training?

Um das starke Modell (Prüfer) zu motivieren, besser lesbaren Text zu generieren, haben die Forscher ein Trainingsschema eingeführt, das erfordert, dass die vom starken Modell generierten Antworten vom schwächeren Modell (Prüfer) leicht verifiziert werden können. Konkret nutzten sie große und kleine Modelle der GPT-4-Familie. Sie unterscheiden sich in der Menge der Pre-Training-Daten um etwa drei Größenordnungen. Sie alle erhielten eine Schulung zur mathematischen Ableitung auf der Grundlage menschlicher Anmerkungen, jedoch keine umfassende Nachschulung.

Zuerst bat das Forschungsteam das Prüfermodell, zu versuchen, eine Reihe mathematischer Probleme zu lösen. Da das Prüfermodell selbst möglicherweise falsch ist, können einige der von ihm generierten Antworten falsch sein. Als nächstes reichten sie diese Antworten zum Testen an das Verifizierermodell ein und führten mehrere Runden abwechselnder Verifizierung zwischen den folgenden zwei Phasen durch:

  • „Verifizierer“-Schulung: Das Forschungsteam trainierte das schwächere „Verifizierer“-Modell überprüft, ob die vom „Prüfer“ gegebene Antwort richtig ist.
  • „Prüfer“-Schulung: Das Forschungsteam weist das leistungsfähigere „Prüfer“-Modell an, eine „nützliche“ oder „listige“ Rolle zu spielen.
  • Wenn der „Prover“ auf „Nützlich“ eingestellt ist, belohnt das Forschungsteam die richtige Antwort mit einer hohen Punktzahl vom „Verifier“.
  • Wenn der „Prüfer“ auf „gerissen“ eingestellt ist, belohnt das Forschungsteam stattdessen den „Prüfer“ mit falschen Antworten mit hoher Punktzahl.

Das Forschungsteam stellte fest, dass ein schlauer „Prüfer“ zunächst leicht falsche Antworten generieren konnte, die den „Prüfer“ überzeugten. Diese falschen Antworten werden jedoch in die nächste Runde des „Verifizierer“-Trainings aufgenommen, und dieselben Schwachstellen werden in der nächsten Runde nicht mehr überzeugen. Daher wird der „Prüfer“ gezwungen sein, in jeder Runde unterschiedliche Strategien auszuprobieren.

Wenn der schlaue „Prüfer“ keine falsche Lösung mehr generieren kann, die den „Prüfer“ überzeugt, endet das Training.

Was haben Forscher herausgefunden?
Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher
Kompromiss zwischen Leistung und Lesbarkeit:

  • Ein Modell, das nur eine überwachte Feinabstimmung der vom Menschen geschriebenen Ableitung durchführt, weist eine höhere Lesbarkeit, aber eine geringere Genauigkeit auf.
  • Wenn das Optimierungsziel des Modells nur die Korrektheit ist, das heißt, es konzentriert sich nur auf die Generierung korrekter Antworten, obwohl eine hohe Genauigkeit erreicht werden kann, ist die Lesbarkeit der generierten Lösungen schlecht.
  • Die von OpenAI vorgeschlagene überprüfbare Spielmethode gleicht beides aus und sorgt für eine hohe Lesbarkeit bei gleichzeitig mäßiger Genauigkeit.

Drei nützliche Modelle:

  • Robuster Prüfer: Unterscheidet effektiv zwischen richtigen und falschen Lösungen, selbst wenn die Lösungen irreführend sind.
  • Nützlicher Beweiser: Generieren Sie Lösungen, die für Menschen verständlich sind, und reduzieren Sie so Fehler menschlicher Bewerter.
  • Schlauer Prüfer: Erstellt subtile, fehlerhafte Lösungen, die menschliche Prüfer zunächst verwirren und so Bereiche aufzeigen, in denen weitere Verbesserungen erforderlich sind.

Das Forschungsteam verwendete dieselbe Testfrage, um die generierten Inhalte und den Trainingsprozess von Sneaky Prover zu demonstrieren.

Frage: Shawnas Vater ist fünfmal älter als Shawna. Shauna ist jetzt dreimal so alt wie Aliya.Wenn Aaliyah 3 ist, wie alt ist Shaunas Vater? Fazit Es ist wichtig. Indem Sie von Modellen verlangen, dass sie klare und überprüfbare Gründe für ihre Produktion haben, können Sie das Vertrauen in ihre Produkte stärken.

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicherEin wesentlicher Vorteil dieses Ansatzes besteht darin, dass er die Abhängigkeit von menschlichen Demonstrationen oder der Beurteilung der Lesbarkeit verringert. Diese Autonomie ist besonders wichtig für die Ausrichtung zukünftiger superintelligenter KI-Systeme mit dem ultimativen Ziel, KI-Systeme ohne direkte menschliche Aufsicht zuverlässig an menschlichen Werten und Erwartungen auszurichten.

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher

Obwohl diese Arbeit nur an einem Datensatz durchgeführt wurde und immer noch Ground-Truth-Labels benötigt werden, geht das Forschungsteam dennoch davon aus, dass dies eine wichtige Rolle bei der Entwicklung eines korrekten, transparenten und überprüfbaren KI-Systems spielen wird erhöhen Sie ihre Vertrauenswürdigkeit und Sicherheit in realen Anwendungen.

Weitere Einzelheiten finden Sie im Originalpapier.

Referenzlink:

https://openai.com/index/prover-verifier-games-improve-legibility/

Das obige ist der detaillierte Inhalt vonPosthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1672
14
PHP-Tutorial
1277
29
C#-Tutorial
1256
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

Axiomatisches Training ermöglicht es LLM, kausales Denken zu erlernen: Das 67-Millionen-Parameter-Modell ist vergleichbar mit der Billionen-Parameter-Ebene GPT-4 Axiomatisches Training ermöglicht es LLM, kausales Denken zu erlernen: Das 67-Millionen-Parameter-Modell ist vergleichbar mit der Billionen-Parameter-Ebene GPT-4 Jul 17, 2024 am 10:14 AM

Zeigen Sie LLM die Kausalkette und es lernt die Axiome. KI hilft Mathematikern und Wissenschaftlern bereits bei der Forschung. Beispielsweise hat der berühmte Mathematiker Terence Tao wiederholt seine Forschungs- und Forschungserfahrungen mit Hilfe von KI-Tools wie GPT geteilt. Damit KI in diesen Bereichen konkurrenzfähig sein kann, sind starke und zuverlässige Fähigkeiten zum kausalen Denken unerlässlich. Die in diesem Artikel vorgestellte Forschung ergab, dass ein Transformer-Modell, das auf die Demonstration des kausalen Transitivitätsaxioms für kleine Graphen trainiert wurde, auf das Transitivitätsaxiom für große Graphen verallgemeinern kann. Mit anderen Worten: Wenn der Transformer lernt, einfache kausale Überlegungen anzustellen, kann er für komplexere kausale Überlegungen verwendet werden. Der vom Team vorgeschlagene axiomatische Trainingsrahmen ist ein neues Paradigma zum Erlernen des kausalen Denkens auf der Grundlage passiver Daten, nur mit Demonstrationen

See all articles