Heim > Technologie-Peripheriegeräte > KI > Yann LeCun: Unabhängig von sozialen Normen ist ChatGPT weit entfernt von echten Menschen

Yann LeCun: Unabhängig von sozialen Normen ist ChatGPT weit entfernt von echten Menschen

WBOY
Freigeben: 2023-04-15 10:25:02
nach vorne
1398 Leute haben es durchsucht

OpenAI hat ChatGPT Ende 2022 eingeführt und seine Popularität hält bis heute an. Dieses Modell ist einfach nur Laufverkehr und wird auf jeden Fall überall, wo es hingeht, für heftige Diskussionen sorgen.

Große Technologieunternehmen, Institutionen und sogar Einzelpersonen haben ihre Bemühungen zur Entwicklung von ChatGPT-ähnlichen Produkten verstärkt. Gleichzeitig verband Microsoft ChatGPT mit Bing und Google veröffentlichte Bard, um die Suchmaschine zu betreiben. Jensen Huang, CEO von NVIDIA, gab ChatGPT eine hohe Bewertung. Er sagte, dass ChatGPT der iPhone-Moment im Bereich der künstlichen Intelligenz und eine der größten Technologien in der Geschichte der Informatik sei.

Viele Menschen sind davon überzeugt, dass die Konversations-KI angekommen ist, aber sind diese Modelle wirklich perfekt? Nicht unbedingt, es wird immer ein paar unheimliche Momente dabei geben, etwa das ungehemmte Hervorbringen von Bemerkungen nach Belieben oder das Plappern über Pläne, die Welt zu erobern.

Um diese absurden Momente der Konversations-KI zu verstehen, haben Yann LeCun, einer der drei Giganten des Deep Learning, und Jacob Browning, Postdoktorand am Department of Computer Science der New York University, gemeinsam einen Artikel „AI Chatbots“ geschrieben Don't Care About Your Social Norms“, in dem drei Aspekte der Konversations-KI erörtert werden: Chatbots, soziale Normen und menschliche Erwartungen.

Yann LeCun: Unabhängig von sozialen Normen ist ChatGPT weit entfernt von echten Menschen

In dem Artikel wurde erwähnt, dass Menschen sehr gut darin sind, Versprecher zu vermeiden und sich selbst vor Fehlern und respektlosen Worten und Taten zu schützen. Im Gegensatz dazu machen Chatbots oft Fehler. Wenn wir also verstehen, warum Menschen Fehler so gut vermeiden können, können wir besser verstehen, warum Chatbots derzeit nicht vertrauenswürdig sind.

Der Chatbot fügt menschliches Feedback hinzu, um zu verhindern, dass das Modell etwas Falsches sagt.

Bei GPT-3 gehören zu den Möglichkeiten, Fehler zu machen, auch ungenaue Modellstatistiken. GPT-3 stützt sich mehr auf Benutzereingaben. Sein Verständnis von Kontext, Situation usw. konzentriert sich nur auf das, was aus Benutzereingaben gewonnen werden kann. Das Gleiche gilt für ChatGPT, allerdings leicht modifiziert auf eine neue und interessante Art und Weise. Zusätzlich zu den Statistiken wurden die Antworten des Modells auch durch menschliche Bewerter verstärkt. Für die Ausgabe des Systems werden menschliche Bewerter es verstärken, damit es gute Antworten ausgibt. Das Endergebnis ist, dass das System nicht nur etwas Plausibles sagt, sondern (im Idealfall) auch etwas sagt, das ein Mensch als angemessen erachten würde – selbst wenn das Modell etwas Falsches sagt, wird es andere zumindest nicht beleidigen.

Aber diese Methode fühlt sich zu mechanisch an. Es gibt unzählige Möglichkeiten, in menschlichen Gesprächen das Falsche zu sagen: Wir können etwas Unangemessenes, Unehrliches, Verwirrendes oder einfach nur Dummes sagen. Wir werden sogar dafür kritisiert, dass wir den falschen Ton oder die falsche Betonung anschlagen, wenn wir die richtigen Dinge sagen. Im Umgang mit anderen durchqueren wir unzählige „Gesprächsminenfelder“. Sich davon abzuhalten, das Falsche zu sagen, ist nicht nur ein wichtiger Teil eines Gesprächs, es ist oft wichtiger als das Gespräch selbst. Manchmal kann es die einzig richtige Vorgehensweise sein, den Mund zu halten.

Das führt zu zwei Fragen: Wie können wir die gefährliche Situation kontrollieren, dass das Model nicht das Falsche sagt? Und warum können sich Chatbots nicht effektiv davon abhalten, das Falsche zu sagen?

Wie soll das Gespräch ablaufen?

Menschliche Gespräche können sich um jedes Thema drehen, als ob es ein Drehbuch wäre: Restaurantbestellung, Smalltalk, Entschuldigung für die Verspätung usw. Allerdings handelt es sich hierbei nicht um geschriebene Skripte, sondern sie sind voller Improvisationen, sodass dieses menschliche Gesprächsmodell ein allgemeineres Modell ist und die Regeln nicht so streng sind.

Dieses vorgeschriebene Sprechen und Verhalten des Menschen wird nicht durch Worte eingeschränkt. Selbst wenn Sie die Sprache nicht verstehen, kann das gleiche Skript funktionieren, z. B. eine Geste machen, um zu wissen, was die andere Person will. Soziale Normen bestimmen diese Skripte und helfen uns, uns im Leben zurechtzufinden. Diese Kodizes geben vor, wie sich jeder in bestimmten Situationen verhalten soll, weisen jeder Person Rollen zu und geben umfassende Handlungsanweisungen. Das Befolgen von Normen ist nützlich: Es vereinfacht unsere Interaktionen, indem es sie standardisiert und rationalisiert, sodass es für den anderen einfacher wird, die Absichten des anderen vorherzusagen.

Der Mensch hat Routinen und Normen entwickelt, die jeden Aspekt unseres sozialen Lebens regeln, von der Wahl der Gabeln bis hin zur Frage, wie lange man warten sollte, bevor man die Hupe betätigt. Dies ist überlebenswichtig in einer Welt mit Milliarden von Menschen, in der die meisten Menschen, denen wir begegnen, völlig Fremde sind, deren Überzeugungen möglicherweise nicht mit unseren übereinstimmen. Die Einführung dieser gemeinsamen Normen wird Gespräche nicht nur ermöglichen, sondern auch fruchtbar machen und festlegen, worüber wir sprechen sollten – und worüber wir nicht sprechen sollten.

Die Kehrseite der Normen

Menschen neigen dazu, diejenigen zu sanktionieren, die gegen Normen verstoßen, manchmal offen und manchmal verdeckt. Soziale Normen machen es sehr einfach, einen Fremden zu bewerten, beispielsweise beim ersten Date. Durch Gespräche und Fragen bewerten beide Parteien das Verhalten des anderen und ob die andere Person gegen eine der Normen verstößt – zum Beispiel, wenn sie sich in einer Unhöflich oder unangemessen – oft verurteilen wir sie und lehnen das zweite Date ab.

Für den Menschen basieren diese Urteile nicht nur auf einer ruhigen Analyse, sondern darüber hinaus auf unserer emotionalen Reaktion auf die Welt. Ein Teil unserer Erziehung als Kinder ist das Emotionstraining, um sicherzustellen, dass wir in einem Gespräch die richtigen Emotionen zur richtigen Zeit vermitteln: Wut, wenn jemand gegen die Etikette verstößt, Ekel, wenn jemand etwas Beleidigendes sagt, Ekel, wenn wir lügen, uns schämen. Unser moralisches Gewissen ermöglicht es uns, schnell auf alles Unangemessene in einem Gespräch zu reagieren und vorauszusehen, wie andere auf unsere Worte reagieren werden.

Aber darüber hinaus wird der gesamte Charakter einer Person in Frage gestellt, die gegen einfache Normen verstößt. Wenn er in einer Sache lügen würde, würde er dann in anderen Dingen lügen? Ziel der Offenlegung ist es daher, die andere Person zu beschämen und sie gleichzeitig dazu zu zwingen, sich für ihr Verhalten zu entschuldigen (oder es zumindest zu verteidigen). Auch die Normen wurden verschärft.

Kurz gesagt: Menschen sollten sich strikt an soziale Normen halten, sonst besteht ein hohes Risiko für das, was sie sagen. Wir sind für alles, was wir sagen, verantwortlich. Wählen Sie also sorgfältig aus, was wir sagen, und erwarten Sie, dass die Menschen um uns herum dasselbe tun. Die hohen Einsätze menschlicher Gespräche zeigen, was Chatbots so beunruhigend macht. Indem sie lediglich vorhersagen, wie ein Gespräch verlaufen wird, halten sie sich am Ende nur grob an menschliche Normen, sind aber nicht an diese Normen gebunden. Wenn wir beiläufig mit Chatbots chatten oder ihre Fähigkeit, Sprachrätsel zu lösen, testen, geben sie oft plausible Antworten und verhalten sich wie normale Menschen. Jemand könnte sogar einen Chatbot mit einem Menschen verwechseln.

Aber wenn wir die Eingabeaufforderung geringfügig ändern oder ein anderes Skript verwenden, wird der Chatbot plötzlich Verschwörungstheorien, rassistische Tiraden oder Unsinn von sich geben. Dies kann daran liegen, dass sie auf Inhalte geschult sind, die von Verschwörungstheoretikern, Trollen usw. auf Reddit und anderen Plattformen verfasst wurden.

Jeder von uns kann so etwas wie ein Troll sagen, aber wir sollten es nicht tun, weil die Worte von Trollen voller Unsinn, beleidigender Bemerkungen, Grausamkeit und Unehrlichkeit sind. Die meisten von uns sagen diese Dinge nicht, weil wir sie nicht glauben. Anstandsnormen haben beleidigendes Verhalten an den Rand der Gesellschaft gedrängt, sodass die meisten von uns es nicht wagen würden, es auszusprechen.

Im Gegensatz dazu erkennen Chatbots nicht, dass es Dinge gibt, die sie nicht sagen sollten, egal wie statistisch wahrscheinlich sie sind. Sie sind sich der sozialen Normen nicht bewusst, die die Grenzen zwischen dem, was gesagt wird und dem, was nicht gesagt wird, definieren, und sie sind sich des tiefen sozialen Drucks nicht bewusst, der unseren Sprachgebrauch beeinflusst. Selbst wenn Chatbots zugeben, dass sie es vermasselt haben und sich entschuldigen, verstehen sie nicht, warum. Wenn wir darauf hinweisen, dass sie falsch liegen, entschuldigt sich der Chatbot sogar, um die richtige Antwort zu erhalten.

Dies beleuchtet ein tieferes Problem: Wir erwarten von menschlichen Sprechern, dass sie dem treu bleiben, was sie sagen, und wir machen sie dafür verantwortlich. Wir müssen dafür weder ihr Gehirn untersuchen noch irgendetwas über Psychologie verstehen, wir müssen nur wissen, dass sie stets zuverlässig sind, sich an die Regeln halten und sich respektvoll verhalten, um ihnen zu vertrauen. Das Problem bei Chatbots besteht nicht darin, dass sie „Black Boxes“ sind oder mit der Technologie nicht vertraut sind, sondern dass sie lange Zeit unzuverlässig und abschreckend waren und keine Anstrengungen unternommen wurden, um sie zu verbessern oder überhaupt zu erkennen, dass es ein Problem gab .

Natürlich sind sich die Entwickler dieser Probleme bewusst. Sie und Unternehmen, die eine breite Nutzung ihrer KI-Technologie wünschen, machen sich Sorgen um den Ruf ihrer Chatbots und verbringen viel Zeit damit, das System umzustrukturieren, um schwierige Gespräche zu vermeiden oder unangemessene Antworten zu eliminieren. Während dies dazu beiträgt, Chatbots sicherer zu machen, müssen Entwickler hart arbeiten, um den Leuten, die versuchen, sie zu knacken, einen Schritt voraus zu sein. Daher ist der Ansatz der Entwickler reaktiv und immer im Rückstand: Es gibt zu viele Möglichkeiten, dass etwas schiefgehen kann, als dass man sie vorhersagen könnte.

SMART, ABER NICHT MENSCHLICH

Das sollte uns nicht selbstgefällig darüber machen, wie schlau Menschen und wie dumm Chatbots sind. Ihre Fähigkeit, über alles zu sprechen, offenbart vielmehr ein tiefes (oder oberflächliches) Verständnis des menschlichen Soziallebens und der Welt als Ganzes. Chatbots sind intelligent genug, um zumindest bei Tests gut abzuschneiden oder nützliche Informationen bereitzustellen. Die Panik, die Chatbots unter Pädagogen ausgelöst haben, spricht Bände für ihre beeindruckende Fähigkeit, aus buchbasiertem Lernen zu lernen.

Aber das Problem ist, dass es dem Chatbot egal ist. Sie haben keine intrinsischen Ziele, die sie durch den Dialog erreichen wollen, und lassen sich nicht durch die Gedanken oder Reaktionen anderer motivieren. Sie haben kein schlechtes Gewissen, wenn sie lügen, und ihre Ehrlichkeit wird nicht belohnt. Sie sind in einer Weise schamlos, dass selbst Trump sich genug um seinen Ruf kümmert, um zumindest zu behaupten, ehrlich zu sein.

Daher sind Chatbot-Gespräche bedeutungslos. Für Menschen ist Konversation eine Möglichkeit, das zu bekommen, was wir wollen, etwa eine Verbindung herzustellen, Hilfe bei einem Projekt zu bekommen, uns Zeit zu vertreiben oder etwas zu lernen. Ein Gespräch erfordert, dass wir uns für die Person, mit der wir sprechen, interessieren und uns idealerweise um sie kümmern.

Auch wenn uns die Person, mit der wir sprechen, egal ist, ist es uns zumindest wichtig, was die andere Person über uns denkt. Wir sind uns bewusst, dass Erfolg im Leben (z. B. enge Beziehungen, gute Arbeit usw.) von einem guten Ruf abhängt. Wenn unser sozialer Status sinkt, riskieren wir, alles zu verlieren. Gespräche beeinflussen, wie andere uns sehen, und viele von uns nutzen interne Monologe, um unsere Wahrnehmung von uns selbst zu formen.

Aber Chatbots haben keine eigenen Geschichten zu erzählen und keinen Ruf zu verteidigen, und sie verspüren nicht den gleichen Drang zu verantwortungsvollem Handeln wie wir. Chatbots können und sind in vielen Situationen mit hohem Skriptaufwand nützlich, etwa beim Spielen von Dungeon Master, beim Verfassen sinnvoller Texte oder bei der Unterstützung von Autoren bei der Erforschung von Ideen, um nur einige zu nennen. Aber ihnen fehlt das Wissen über sich selbst oder andere, um vertrauenswürdige soziale Akteure zu sein, die Art von Menschen, mit denen wir die meiste Zeit sprechen möchten.

Wenn Sie die Normen rund um Ehrlichkeit und Anstand nicht verstehen und sich nicht um Ihren Ruf kümmern, sind Chatbots von begrenztem Nutzen und sich auf sie zu verlassen, birgt echte Gefahren.

Seltsame Gespräche

Deshalb unterhalten sich Chatbots nicht auf die Art und Weise, wie Menschen es tun, und sie können ihre Ziele niemals erreichen, indem sie sich lediglich auf eine Art und Weise unterhalten, die statistisch glaubwürdig erscheint. Ohne wirkliches Verständnis der sozialen Welt sind diese KI-Systeme nur langweilige Schwätzer, egal wie witzig oder eloquent sie erscheinen.

Dies hilft dabei, Aufschluss darüber zu geben, warum diese KI-Systeme einfach sehr interessante Werkzeuge sind und warum Menschen sie nicht vermenschlichen sollten. Menschen sind nicht nur leidenschaftslose Denker oder Redner, sondern im Wesentlichen normentreue Wesen, die durch gemeinsame, erzwungene Erwartungen emotional miteinander verbunden sind. Das menschliche Denken und Sprechen hat seinen Ursprung in seiner eigenen sozialen Natur.

Der reine Dialog ist losgelöst von umfassender weltweiter Beteiligung und hat nichts mit Menschen gemein. Chatbots verwenden keine Sprache wie wir, auch wenn sie manchmal genau wie wir sprechen. Aber letztendlich verstehen sie nicht, warum wir so reden, das ist klar.

Das obige ist der detaillierte Inhalt vonYann LeCun: Unabhängig von sozialen Normen ist ChatGPT weit entfernt von echten Menschen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage