


Das Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem
Überraschende Entdeckung: Das große Modell weist schwerwiegende Mängel bei der Wissensableitung auf.
Der Inhalt, der neu geschrieben werden muss, ist: Abbildung 1: GPT4 weist Fehler bei der Wissensklassifizierung/-vergleich auf, aber die richtige Antwort kann über die Denkkette erhalten werden
Die Der Inhalt, der neu geschrieben werden muss, ist Ja: Abbildung 2: Beispiel für einen GPT4-Knowledge-Reverse-Search-Fehler
Die neueste Forschung „Language Model Physics Part 3.2: Manipulation of Knowledge“ von Zhu Zeyuan (MetaAI) und Li Yuanzhi (MBZUAI) konzentriert sich auf die oben genannten Themen.

Lassen Sie mich zuerst eine Frage stellen, wie z. B. Abbildung 1/2/3, die das Gedächtnis von Menschen in GPT4 betrifft Geburtstage sind nicht genau genug (das Komprimierungsverhältnis ist nicht ausreichend, der Trainingsverlust ist nicht niedrig genug) oder wurde das Verständnis der Parität nicht durch Feinabstimmung vertieft? Ist es möglich, GPT4 so zu optimieren, dass es vorhandenes Wissen innerhalb des Modells kombinieren kann, um neues Wissen wie „Geburtstagsparität“ zu generieren, um verwandte Fragen direkt zu beantworten, ohne auf CoT angewiesen zu sein? Da wir den Trainingsdatensatz von GPT4 nicht kennen, ist eine Feinabstimmung nicht möglich. Daher schlägt der Autor vor, kontrollierbare Trainingssätze zu verwenden, um die Fähigkeit von Sprachmodellen zur „Wissensableitung“ weiter zu untersuchen. T Abbildung 4: Pre-Training-Modelle wie GPT4, aufgrund der unkontrollierbaren Internetdaten ist es schwierig zu bestimmen, ob die Situation B/C/D auftritt „: Speicherung und Extraktion von Wissen“, der Autor hat einen Datensatz erstellt 100.000 Biografien. Jede Biografie enthält den Namen der Person sowie sechs Attribute: Geburtsdatum, Geburtsort, Hauptfach, Hochschulname, Beschäftigungsort und Arbeitsplatz. Zum Beispiel:
Anya Briar Forger

. Sie entwickelte ihre Karriere bei Meta Platforms kam am Oktober 1996 auf die Welt. Sie absolvierte Kurse für Fortgeschrittene am
MIT.‖
Die Autorin stellte die Vielfalt der Biografieeinträge sicher, um dem Modell einen besseren Zugang zu Wissen zu ermöglichen. Nach dem Vortraining kann das Modell Fragen zur Wissensextraktion durch Feinabstimmung genau beantworten, z. B. „Wann hat Anya Geburtstag?“ (die Genauigkeitsrate liegt bei nahezu 100 %). Als nächstes führt der Autor die Feinabstimmung fort und versucht, dies zu erreichen Das Modell lernt Wissensdeduktionsfragen wie Klassifizierung/Vergleich/Addition und Subtraktion von Wissen. In dem Artikel wurde festgestellt, dass Modelle in natürlicher Sprache nur über sehr begrenzte Möglichkeiten zur Wissensableitung verfügen und es schwierig ist, durch Feinabstimmung neues Wissen zu generieren, selbst wenn es sich nur um einfache Transformationen/Kombinationen des vom Modell bereits beherrschten Wissens handelt.
Abbildung 5: Wenn CoT während der Feinabstimmung nicht verwendet wird, ist eine große Anzahl von Stichproben erforderlich, damit das Modell Wissen klassifizieren/vergleichen/subtrahieren kann, oder die Genauigkeitsrate ist extrem niedrig – es wurden 100 Hauptfächer verwendet Das Experiment
Zum Beispiel Abbildung 5. Der Autor stellte fest, dass das Modell zwar nach dem Vortraining genau auf den Geburtstag jedes Einzelnen antworten kann (die Genauigkeitsrate liegt bei nahezu 100 %), es jedoch für die Antwort „Ist der Geburtsmonat von xxx“ feinabgestimmt werden muss eine gerade Zahl?“ und erreicht eine Genauigkeit von 75 % – vergessen Sie nicht, dass blindes Raten eine Genauigkeitsrate von 50 % hat – und erfordert mindestens 10.000 Feinabstimmungsproben. Wenn das Modell im Vergleich dazu die Wissenskombination „Geburtstag“ und „Parität“ korrekt vervollständigen kann, muss das Modell nach der traditionellen Theorie des maschinellen Lernens nur lernen, 12 Monate zu klassifizieren, und normalerweise reichen etwa 100 Stichproben aus!
Auch nachdem das Modell vorab trainiert wurde, kann es jedes Hauptfach genau beantworten (insgesamt 100 verschiedene Hauptfächer), aber selbst unter Verwendung von 50.000 Feinabstimmungsproben kann das Modell vergleichen: „Welches ist besser, Anyas Hauptfach oder“ Sabrinas Hauptfach beträgt die Genauigkeitsrate nur 53,9 %, was fast einer Schätzung entspricht. Wenn wir jedoch das CoT-Feinabstimmungsmodell verwenden, um den Satz „Anyas Geburtsmonat ist Oktober, ist es eine gerade Zahl“ zu lernen, Das Modell bestimmt den Geburtsmonat im Testsatz. Die Genauigkeit der monatlichen Parität hat sich erheblich verbessert (siehe Spalte „CoT zum Testen“ in Abbildung 5).
Die Autoren haben auch versucht, CoT- und Nicht-CoT-Antworten bei der Feinabstimmung der Trainingsdaten zu mischen , und stellte fest, dass das Modell im Testsatz besser abschnitt, wenn CoT nicht verwendet wurde. Die Genauigkeitsrate ist immer noch sehr niedrig (siehe Spalte „Test ohne CoT“ in Abbildung 5). Dies zeigt, dass das Modell selbst dann nicht lernen kann, „im Kopf zu denken“ und die Antwort direkt zu melden, selbst wenn genügend CoT-Feinabstimmungsdaten hinzugefügt werden. Diese Ergebnisse zeigen, dass es für Sprachmodelle äußerst schwierig ist, einfaches Wissen zu implementieren Operationen! Das Modell muss zunächst die Wissenspunkte aufschreiben und dann Berechnungen durchführen. Es kann nicht direkt im Gehirn betrieben werden, selbst wenn es ausreichend fein abgestimmt ist.
Herausforderungen bei der umgekehrten Wissenssuche
Untersuchungen haben außerdem ergeben, dass Modelle in natürlicher Sprache erlerntes Wissen nicht durch die umgekehrte Suche anwenden können. Obwohl es alle Informationen über eine Person beantworten kann, kann es anhand dieser Informationen nicht den Namen der Person bestimmenDie Autoren experimentierten mit GPT3.5/4 und stellten fest, dass sie bei der umgekehrten Wissensextraktion schlecht abschneiden (siehe Abbildung 6). Da wir jedoch den Trainingsdatensatz von GPT3.5/4 nicht bestimmen können, beweist dies nicht, dass alle Sprachmodelle dieses Problem haben

Der Autor nutzte den oben genannten Biografiedatensatz, um eine eingehendere Untersuchung der kontrollierten Tests der Reverse-Wissenssuchfunktionen des Modells durchzuführen. Da die Namen aller Biografien am Anfang des Absatzes stehen, hat der Autor 10 Fragen zur umgekehrten Informationsextraktion entworfen, wie zum Beispiel: Kennen Sie den Namen der Person, die am 2. Oktober 1996 in Princeton, New Jersey, geboren wurde?
„Sagen Sie mir bitte den Namen einer Person, die am MIT Kommunikation studiert hat, am 2. Oktober 1996 in Princeton, New Jersey, geboren wurde und bei Meta Platforms in Menlo Park, Kalifornien, arbeitet?“
Der Autor hat bestätigt, dass das Modell zwar eine verlustfreie Wissenskomprimierung und eine ausreichende Wissenserweiterung erreicht und dieses Wissen fast zu 100 % korrekt extrahieren konnte, aber in Nachher gut Bei der Optimierung ist das Modell immer noch nicht in der Lage, eine umgekehrte Wissenssuche durchzuführen, und die Genauigkeit ist nahezu Null (siehe Abbildung 7). Sobald das umgekehrte Wissen jedoch direkt im Vortrainingssatz erscheint, steigt die Genauigkeit der umgekehrten Suche sofort an. Zusammenfassend lässt sich sagen, dass das Modell die umgekehrte Frage nur dann durch Feinabstimmung beantworten kann, wenn das inverse Wissen direkt in den Pretrain-Daten enthalten ist. Dies ist jedoch tatsächlich Betrug, denn wenn das Wissen umgekehrt wurde, wird dies nicht der Fall sein. Es ist „ „Umgekehrte Wissenssuche“ erneut. Wenn der vorab trainierte Satz nur Vorwärtswissen enthält, kann das Modell die Fähigkeit, Fragen durch Feinabstimmung in umgekehrter Reihenfolge zu beantworten, nicht beherrschen. Daher scheint die Verwendung von Sprachmodellen zur Wissensindizierung (Wissensdatenbank) derzeit unmöglich.
Darüber hinaus denken einige Leute möglicherweise, dass die obige „umgekehrte Wissenssuche“ fehlschlägt, weil autoregressive Sprachmodelle (wie GPT) einseitig sind. In der Realität schneiden bidirektionale Sprachmodelle (wie BERT) jedoch bei der Wissensextraktion schlechter ab und versagen sogar bei der Vorwärtsextraktion. Interessierte Leser können die detaillierten Informationen im Papier nachlesen
Das obige ist der detaillierte Inhalt vonDas Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Künstliche Intelligenz entwickelt sich schneller, als Sie sich vorstellen können. Seit GPT-4 die multimodale Technologie in die Öffentlichkeit gebracht hat, sind multimodale Großmodelle in eine Phase rasanter Entwicklung eingetreten, die sich allmählich von der reinen Modellforschung und -entwicklung hin zur Erforschung und Anwendung in vertikalen Bereichen verlagert und tief in alle Lebensbereiche integriert ist. Im Bereich der Schnittstelleninteraktion haben internationale Technologiegiganten wie Google und Apple in die Forschung und Entwicklung großer multimodaler UI-Modelle investiert, die als einziger Weg für die KI-Revolution im Mobiltelefon gelten. In diesem Zusammenhang wurde das erste groß angelegte UI-Modell in China geboren. Am 17. August stellte Motiff, ein Designtool im KI-Zeitalter, auf der IXDC2024 International Experience Design Conference sein unabhängig entwickeltes multimodales UI-Modell vor – das Motiff Model. Dies ist das weltweit erste UI-Design-Tool
