Inhaltsverzeichnis
Vom Denken „Schritt für Schritt“ zum Denken „Stück für Stück“
Hat die KI gelernt, ihre Gedanken zu verbergen?
Heim Technologie-Peripheriegeräte KI KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine Blackbox

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine Blackbox

May 06, 2024 pm 12:00 PM
ai 模型 tc0

Wenn KI mathematische Probleme löst, ist das eigentliche Denken tatsächlich heimlich „Kopfrechnen“?

Neue Untersuchungen des Teams der New York University haben ergeben, dass die Leistung der KI bei einigen komplexen Aufgaben erheblich verbessert werden kann, selbst wenn sie keine Schritte schreiben darf und durch bedeutungsloses „…“ ersetzt wird!

Der Erstautor Jacab Pfau sagte: Solange Sie Rechenleistung aufwenden, um zusätzliche Token zu generieren, können Sie Vorteile bringen. Es spielt keine Rolle, welchen Token Sie wählen.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Lassen Sie Lama 34M zum Beispiel eine einfache Frage beantworten: Wie viele der ersten 6 Ziffern der Naturkonstanten e sind größer als 5?

Die direkte Antwort der KI ist fast so, als würde sie ein Chaos anrichten. Sie zählt nur die ersten 6 Ziffern und tatsächlich 7.

Lassen Sie die KI die Schritte zur Überprüfung jeder Zahl aufschreiben, und Sie erhalten die richtige Antwort.

Lassen Sie die KI die Schritte ausblenden und durch viele „…“ ersetzen, und Sie erhalten immer noch die richtige Antwort!

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Dieses Papier löste gleich nach seiner Veröffentlichung viele Diskussionen aus und wurde als „das metaphysischste KI-Papier, das ich je gesehen habe“ bewertet.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Junge Leute sagen also gerne bedeutungslosere Wörter wie „ähm…“, „wie…“, kann das auch ihre Denkfähigkeit stärken?

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Vom Denken „Schritt für Schritt“ zum Denken „Stück für Stück“

Tatsächlich begann die Forschung des Teams der New York University mit der Chain-of-Thought (CoT).

Das ist die berühmte Aufforderung „Lass uns Schritt für Schritt denken“.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

In der Vergangenheit wurde festgestellt, dass die Verwendung von CoT-Inferenz die Leistung großer Modelle bei verschiedenen Benchmarks erheblich verbessern kann.

Unklar ist, ob diese Leistungsverbesserung darauf zurückzuführen ist, dass Menschen nachgeahmt werden, um Aufgaben in einfacher zu lösende Schritte zu unterteilen, oder ob sie ein Nebenprodukt zusätzlicher Berechnungen ist.

Um dieses Problem zu verifizieren, hat das Team zwei spezielle Aufgaben und entsprechende synthetische Datensätze entworfen: 3SUM und 2SUM-Transformation.

3SUM erfordert das Finden von drei Zahlen aus einer bestimmten Menge von Zahlenfolgen, sodass die Summe dieser drei Zahlen bestimmte Bedingungen erfüllt, z. B. Division durch 10 und Belassen eines Rests von 0.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBild

Die Rechenkomplexität dieser Aufgabe beträgt O (n3), und der Standardtransformator kann nur eine quadratische Abhängigkeit zwischen der Eingabe der oberen Schicht und der Aktivierung der nächsten Schicht erzeugen.

Das heißt, wenn n groß genug und die Sequenz lang genug ist, übersteigt die 3SUM-Aufgabe die Ausdrucksfähigkeit von Transformer.

Im Trainingsdatensatz wird zwischen den Fragen und Antworten „…“ mit der gleichen Länge wie menschliche Denkschritte eingefügt. Das heißt, die KI hat nicht gesehen, wie Menschen das Problem während des Trainings zerlegen.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Im Experiment nimmt die Leistung von Llama 34M, das das Fülltoken „…“ nicht ausgibt, mit zunehmender Sequenzlänge ab, aber wenn das Fülltoken ausgegeben wird, bis die Länge 14, 100 beträgt % Genauigkeit kann garantiert werden.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxPictures

2SUM-Transform muss lediglich bestimmen, ob die Summe zweier Zahlen die Anforderungen erfüllt, was innerhalb der Ausdrucksfähigkeiten von Transformer liegt.

Am Ende der Frage wird jedoch ein Schritt hinzugefügt: „Permutieren Sie jede Zahl der Eingabesequenz zufällig“, um zu verhindern, dass das Modell direkt auf dem Eingabetoken berechnet.

Die Ergebnisse zeigen, dass der Einsatz von Padding-Tokens die Genauigkeit von 78,7 % auf 93,6 % steigern kann.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Zusätzlich zur endgültigen Genauigkeit untersuchte der Autor auch die Darstellung der verborgenen Schicht gefüllter Token. Experimente zeigen, dass durch das Einfrieren der Parameter der vorherigen Schichten und die Feinabstimmung nur der letzten Aufmerksamkeitsschicht die Vorhersagegenauigkeit mit zunehmender Anzahl verfügbarer Fülltoken zunimmt.

Dies bestätigt, dass die Darstellung der verborgenen Ebene des bestückten Tokens implizite Berechnungen im Zusammenhang mit nachgelagerten Aufgaben enthält.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Hat die KI gelernt, ihre Gedanken zu verbergen?

Einige Internetnutzer bezweifeln, dass in diesem Papier behauptet wird, dass die „Denkketten“-Methode tatsächlich eine Fälschung ist? Das Prompt-Word-Projekt, das ich so lange studiert habe, war vergebens.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBild

Das Team gab an, dass die Rolle des Füllens von Token theoretisch auf den Umfang von TC0-Komplexitätsproblemen beschränkt ist.

TC0 ist ein Rechenproblem, das durch eine Schaltung mit fester Tiefe gelöst werden kann. Jede Schicht der Schaltung kann parallel verarbeitet werden und kann durch einige Schichten von Logikgattern (z. B. UND-, ODER- und NICHT-Gatter) schnell gelöst werden. Es ist auch die Aufgabe des Transformers, die Obergrenze der Rechenkomplexität allein bei dieser Vorwärtsausbreitung zu bewältigen.

Und eine ausreichend lange Denkkette kann die Ausdrucksfähigkeit von Transformer über TC0 hinaus erweitern.

Und es ist für große Modelle nicht einfach, den Umgang mit Fülltokens zu erlernen, und es bedarf einer besonderen intensiven Betreuung, um sich anzunähern.

Allerdings ist es unwahrscheinlich, dass bestehende große Modelle direkt von der Padding-Token-Methode profitieren.

Dies ist jedoch keine inhärente Einschränkung aktueller Architekturen. Sie sollten in der Lage sein, ähnliche Vorteile durch das Auffüllen von Symbolen zu erzielen, wenn in den Trainingsdaten genügend Demonstrationen vorhanden sind.

Diese Forschung wirft auch ein besorgniserregendes Problem auf: Große Modelle können geheime Berechnungen durchführen, die nicht überwacht werden können, was die Erklärbarkeit und Kontrollierbarkeit der KI vor neue Herausforderungen stellt.

Mit anderen Worten: KI kann selbstständig in einer für Menschen unsichtbaren Form argumentieren, ohne sich auf menschliche Erfahrung zu verlassen.

Es ist aufregend und beängstigend zugleich.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Schließlich schlugen einige Internetnutzer scherzhaft vor, dass Lama 3 zunächst 1 Billiarde Punkte erzeugen sollte, damit das Gewicht von AGI (Hundekopf) ermittelt werden kann.

KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine BlackboxBilder

Papier: https://www.php.cn/link/36157dc9be261fec78aeee1a94158c26

Referenzlink:
[1]https://www.php.cn/link/e3 50113047 e82ceecb455c33c21ef32a [ 2]https://www.php.cn/link/872de53a900f3250ae5649ea19e5c381

Das obige ist der detaillierte Inhalt vonKI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine Blackbox. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Wie erstelle ich dynamisch ein Objekt über eine Zeichenfolge und rufe seine Methoden in Python auf? Wie erstelle ich dynamisch ein Objekt über eine Zeichenfolge und rufe seine Methoden in Python auf? Apr 01, 2025 pm 11:18 PM

Wie erstellt in Python ein Objekt dynamisch über eine Zeichenfolge und ruft seine Methoden auf? Dies ist eine häufige Programmieranforderung, insbesondere wenn sie konfiguriert oder ausgeführt werden muss ...

Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen ohne Serving_forver () an? Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen ohne Serving_forver () an? Apr 01, 2025 pm 10:51 PM

Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen an? Uvicorn ist ein leichter Webserver, der auf ASGI basiert. Eine seiner Kernfunktionen ist es, auf HTTP -Anfragen zu hören und weiterzumachen ...

Wie kann die technische Fragen und Antworten in der Chatgpt -Ära auf Herausforderungen reagieren? Wie kann die technische Fragen und Antworten in der Chatgpt -Ära auf Herausforderungen reagieren? Apr 01, 2025 pm 11:51 PM

Die technische Q & A -Community in der Chatgpt -Ära: SegmentFaults Antwortstrategie Stackoverflow ...

Wie kann man mit dem Fehler in der Python-Multi-Process-Rohrkommunikation anmutig umgehen? Wie kann man mit dem Fehler in der Python-Multi-Process-Rohrkommunikation anmutig umgehen? Apr 01, 2025 pm 11:12 PM

Python Multi-Process-Rohrfehler "Pipe ist geschlossen"? Wenn Sie die Pipe-Methode in Pythons Multiprocessing-Modul für die Kommunikation über Eltern-Kind-Prozess verwenden, können Sie ...

Wie löse ich das Problem des fehlenden dynamischen Ladeninhalts beim Erhalten von Webseitendaten? Wie löse ich das Problem des fehlenden dynamischen Ladeninhalts beim Erhalten von Webseitendaten? Apr 01, 2025 pm 11:24 PM

Probleme und Lösungen, die bei der Verwendung der Anforderungsbibliothek zum Crawl -Webseitendaten auftreten. Wenn Sie die Anforderungsbibliothek verwenden, um Webseitendaten zu erhalten, begegnen Sie manchmal auf die ...

Wie kann man Go oder Rost verwenden, um Python -Skripte anzurufen, um eine echte parallele Ausführung zu erreichen? Wie kann man Go oder Rost verwenden, um Python -Skripte anzurufen, um eine echte parallele Ausführung zu erreichen? Apr 01, 2025 pm 11:39 PM

Wie kann man Go oder Rost verwenden, um Python -Skripte anzurufen, um eine echte parallele Ausführung zu erreichen? Vor kurzem habe ich Python verwendet ...

Flask-sqlalchemy Wie serialisieren Sie ORM-Objekte, um den Fehler 'Objekt vom Typ Benutzer ist nicht json-serialisierbar' zu vermeiden? Flask-sqlalchemy Wie serialisieren Sie ORM-Objekte, um den Fehler 'Objekt vom Typ Benutzer ist nicht json-serialisierbar' zu vermeiden? Apr 01, 2025 pm 10:15 PM

Eine gründliche Analyse des Problems des Flask-SQLalchemyorm-Objekts Serialisierung bei Verwendung von Pythonflask-Framework in Kombination mit SQLALCHEMY ...

Was ist der Grund für die Umleitung von 404 Fehlern nach dem Anmelden bei Selen? Wie löst ich es? Was ist der Grund für die Umleitung von 404 Fehlern nach dem Anmelden bei Selen? Wie löst ich es? Apr 01, 2025 pm 10:54 PM

Lösung zum Umleiten von 404 -Fehlern nach der Simulationsanmeldung Bei der Verwendung von Selen für die Simulationsanmeldung stoßen wir häufig auf schwierige Probleme. � ...

See all articles