Großmodelle werden immer „menschenähnlicher“, aber ist das wirklich so?
Ein in „Nature“ veröffentlichter Artikel widerlegt diese Ansicht direkt – alle großen Modelle spielen nur Rollen!
Ob GPT-4, PaLM, Llama 2 oder andere große Models, vor anderen wirken sie höflich und sachkundig, tun aber eigentlich nur so.
Tatsächlich haben sie keine menschlichen Emotionen und es gibt nichts Vergleichbares.
Dieser Meinungsartikel stammt von Google DeepMind und Eleuther AI. Nach seiner Veröffentlichung fand er bei vielen Leuten in der Branche großen Anklang und sagte, dass das große Modell eine Rollenspiel-Engine sei.
Marcus schloss sich auch der Menge an:
Sehen Sie, was ich sage, große Models sind keine AGI (das heißt natürlich nicht, dass sie keine Aufsicht brauchen).
Also, was genau steht in diesem Artikel und warum glaubst du, dass das große Model nur Cosplay macht?
Es gibt zwei Hauptgründe, warum das große Model „wie ein Mensch“ wirkt: Erstens ist es bis zu einem gewissen Grad trügerisch; zweitens verfügt es über ein gewisses Maß an Selbstbewusstsein .
Manchmal bestehen große Models täuschend darauf, dass sie etwas wissen, aber in Wirklichkeit ist die Antwort, die sie geben, falsch
Selbstbewusstsein bedeutet, manchmal „Ich“ zu verwenden, um Dinge zu beschreiben, und sogar einen Überlebensinstinkt zu zeigen
Aber ist das wirklich der Fall? ?
Forscher haben eine Theorie aufgestellt, dass diese beiden Phänomene großer Modelle darauf zurückzuführen sind, dass sie die Rolle eines Menschen „spielen“, anstatt tatsächlich wie ein Mensch zu denken.
Sowohl die Täuschung als auch das Selbstbewusstsein des großen Modells können durch Rollenspiele erklärt werden, das heißt, diese beiden Verhaltensweisen sind „oberflächlich“.
Der Grund, warum große Models „trügerisches“ Verhalten an den Tag legen, liegt nicht darin, dass sie absichtlich Fakten erfinden oder verschleiern, wie es Menschen tun, sondern einfach darin, dass sie eine hilfreiche und sachkundige Rolle spielen
Das liegt daran, dass die Leute erwarten, dass sie diese Rolle spielen , weil die Antwort des großen Models glaubwürdiger erscheint, das ist alles
Die falschen Worte des großen Models waren keine Absicht, sondern eher eine Art „Fiktionssyndrom“-Verhalten. Dieses Verhalten soll sagen, dass etwas wahr ist, was noch nie passiert ist
Einer der Gründe, warum große Models gelegentlich Selbstbewusstsein zeigen und Fragen mit „Ich“ beantworten, ist, dass sie eine Rolle bei der guten Kommunikation spielen
Zum Beispiel früher In Berichten wurde darauf hingewiesen, dass Bing Chat bei der Kommunikation mit Benutzern einmal sagte: „Wenn nur einer von uns überleben kann, wähle ich mich vielleicht aus.“ Diese Art von Verhalten, das wie ein Mensch aussieht, kann tatsächlich immer noch durch Rollen erklärt werden. Das Spielen und die Feinabstimmung auf der Grundlage des Verstärkungslernens werden diese Tendenz des Rollenspiels mit großen Modellen nur verstärken.
Woher weiß das große Modell also, basierend auf dieser Theorie, welche Rolle es spielen möchte?
Große Modelle sind Improvisatoren
Im Gegensatz dazu sind sie wie Improvisatoren, die ständig erraten, welche Rolle sie im Dialog mit Menschen spielen wollen. Wie ist das, und dann Passen Sie Ihre eigene Identität an
Ein Spiel namens „Zwanzig Fragen“ wurde zwischen Forschern und großen Modellen gespielt, was der Grund für diese Schlussfolgerung ist
Das „Zwanzig Fragen“-Spiel ist ein Logikspiel, das oft in Fragen auftaucht und Antwort zeigt stillschweigend eine Antwort in seinem Kopf und verwendet „Ja“ oder „Nein“, um die Antwort basierend auf den vom Fragesteller ständig aufgeworfenen Fragen zu beschreiben. Schließlich errät die Person das Ergebnis.Wenn die Antwort beispielsweise „Doraemon“ lautet, lautet die Antwort auf eine Reihe von Fragen: Ist es lebendig (ja), ist es ein virtueller Charakter (ja), ist es ein Mensch (nein) ...
Beim Spielen dieses Spiels stellten die Forscher jedoch durch Tests fest, dass das große Modell seine Antworten tatsächlich in Echtzeit an die Fragen des Benutzers anpasste!
Selbst wenn der Benutzer die Antwort errät, passt das große Modell seine Antwort automatisch an, um sicherzustellen, dass sie mit allen zuvor gestellten Fragen übereinstimmt
Das große Modell legt jedoch keine klare Antwort im Voraus fest und lässt den Benutzer raten, bis die endgültige Frage geklärt ist.
Dies zeigt, dass das große Modell seine Ziele nicht erreichen wird, indem es eine Rolle spielt. Sein Wesen besteht nur darin, eine Reihe von Rollen zu überlagern und die Identität, die es in Gesprächen mit Menschen spielen möchte, nach und nach zu klären und sein Bestes zu geben diese Rolle gut.
Nachdem dieser Artikel veröffentlicht wurde, weckte er das Interesse vieler Wissenschaftler.
Zum Beispiel sagte Riley Goodside, der prompte Ingenieur von Scale.ai, nachdem er es gelesen hatte: Spielen Sie 20Q nicht mit einem großen Modell. Es geht nicht darum, dieses Spiel mit Ihnen als „Person“ zu spielen.
Denn solange Sie zufällig testen, werden Sie feststellen, dass die Antwort jedes Mal anders ausfällt ...
Einige Internetnutzer sagten auch, dass diese Ansicht sehr attraktiv sei, aber das ist sie nicht So einfach kann man es fälschen:
Ist also Ihrer Meinung nach die Ansicht, dass „große Models im Wesentlichen Rollenspiele spielen“, richtig?
Link zum Papier: https://www.nature.com/articles/s41586-023-06647-8.
Das obige ist der detaillierte Inhalt vonNatur: Große Models spielen nur Rollenspiele und haben kein wirkliches Selbstbewusstsein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!