ChatGPT ist eine neue von OpenAI entwickelte Technologie, die die menschliche Kommunikation so gut nachahmt, dass viele glauben, dass sie bald die Welt erobern wird – und alle Arbeitsplätze darin.
Bei einem Austausch am 8. Februar, der vom Carney Institute for Brain Science der Brown University organisiert wurde, diskutierten zwei Wissenschaftler aus unterschiedlichen Forschungsbereichen die Ähnlichkeiten zwischen künstlicher Intelligenz und menschlicher Intelligenz.
Die Diskussion über die Neurowissenschaften von ChatGPT gab den Teilnehmern einen Einblick in aktuelle Modelle des maschinellen Lernens.
Ellie Pavlick, Assistenzprofessorin für Informatik und KI-Forscherin bei Google, sagte, dass das Modell trotz aller Begeisterung für die neue Technologie weder besonders komplex noch neu sei.
Sie erklärte, dass ChatGPT auf seiner grundlegendsten Ebene ein maschinelles Lernmodell ist, das darauf ausgelegt ist, das nächste Wort, den nächsten Ausdruck usw. in einem Satz vorherzusagen.
Pavlick sagte, dass es diese Art von prädiktivem Lernmodell schon seit Jahrzehnten gibt. Informatiker versuchen seit langem, Modelle zu erstellen, die dieses Verhalten zeigen und mit Menschen in natürlicher Sprache kommunizieren können. Dazu benötigt das Modell Zugriff auf eine Datenbank mit herkömmlichen Computerkomponenten, die es ihm ermöglicht, über übermäßig komplexe Ideen nachzudenken.
Neu ist die Art und Weise, wie ChatGPT trainiert oder entwickelt wird. Es hat Zugriff auf unvorstellbare Datenmengen – „alle Sätze im Internet“, wie Pavlick es ausdrückt.
„ChatGPT selbst ist kein Wendepunkt“, sagte Pavlick. „Der Wendepunkt war irgendwann in den letzten fünf Jahren, als es eine Zunahme im Wesentlichen der gleichen Strukturmodelle gab, aber sie wurden immer größer. Was passiert, ist, dass mit zunehmender Größe auch ihre Leistung besser wird.“
Der Weg Neu ist auch, dass ChatGPT und seine Konkurrenten der Öffentlichkeit frei zugänglich sind. Noch vor einem Jahr, so Pavlick, benötige man für die Interaktion mit einem System wie ChatGPT Zugriff auf ein System wie Brown's Compute Grid, ein dediziertes System, das nur Studenten, Lehrkräfte und Mitarbeiter mit bestimmten Berechtigungen nutzen könnten und das auch erforderlich sei ein gutes Maß an technischem Können.
Aber jetzt kann jeder, unabhängig von seinen technischen Fähigkeiten, die elegante, optimierte Benutzeroberfläche von ChatGPT nutzen.
Das Ergebnis des Trainings eines Computersystems mit einem so großen Datensatz ist, dass es allgemeine Muster zu erkennen scheint und in der Lage zu sein scheint, sehr realistische Artikel, Geschichten, Gedichte usw. zu generieren. , Dialog, Drama usw.
Es kann Fake-News-Berichte und gefälschte wissenschaftliche Erkenntnisse generieren und alle möglichen überraschend validen Ergebnisse – oder „Outputs“ – hervorbringen.
Die Gültigkeit ihrer Ergebnisse hat viele zu der Annahme geführt, dass Modelle des maschinellen Lernens wie Menschen denken können. Aber was ist mit ihnen?
ChatGPT ist ein künstliches neuronales Netzwerk, erklärt Thomas Serre, Professor für Kognitions-, Sprach- und Psychologiewissenschaften sowie Informatik. Das bedeutet, dass die Hardware und die Programmierung auf einer Reihe miteinander verbundener Knoten basieren, inspiriert von der Vereinfachung von Neuronen im Gehirn.
Serre sagt, dass es tatsächlich viele faszinierende Ähnlichkeiten in der Art und Weise gibt, wie Computergehirne und menschliche Gehirne neue Informationen lernen und diese zur Ausführung von Aufgaben verwenden.
„Es gibt Studien, die zumindest oberflächlich darauf hindeuten, dass es möglicherweise einen Zusammenhang zwischen den Arten von Wort- und Satzdarstellungen gibt, die Algorithmen wie ChatGPT verwenden und ausnutzen, um sprachliche Informationen zu verarbeiten, und dem, was das Gehirn zu tun scheint“, sagte er sagte.
Das Rückgrat von ChatGPT ist beispielsweise ein hochmodernes künstliches neuronales Netzwerk namens Transformer-Netzwerk. Diese aus der Forschung zur Verarbeitung natürlicher Sprache abgeleiteten Netzwerke dominieren in letzter Zeit den gesamten Bereich der künstlichen Intelligenz.
Transformer-Netzwerke verfügen über einen besonderen Mechanismus, den Informatiker „Selbstaufmerksamkeit“ nennen und der mit dem Aufmerksamkeitsmechanismus zusammenhängt, von dem bekannt ist, dass er im menschlichen Gehirn auftritt.
Eine weitere Ähnlichkeit mit dem menschlichen Gehirn ist ein Schlüsselaspekt, der die Technologie so fortschrittlich macht, sagte Serre.
In der Vergangenheit erforderte das Training künstlicher neuronaler Netze von Computern zum Erlernen und Verwenden von Sprache oder zur Bilderkennung mühsame, zeitaufwändige manuelle Aufgaben von Wissenschaftlern, wie zum Beispiel den Aufbau von Datenbanken und die Kennzeichnung von Objektkategorien, erklärte er.
Moderne große Sprachmodelle, wie sie in ChatGPT verwendet werden, können ohne diese explizite menschliche Aufsicht trainiert werden. Und dies scheint mit dem zusammenzuhängen, was Serre eine einflussreiche Gehirntheorie namens Predictive Coding Theory nennt. Dabei wird davon ausgegangen, dass das Gehirn, wenn eine Person jemanden sprechen hört, ständig Vorhersagen trifft und vorhersieht, was als nächstes gesagt wird.
Obwohl diese Theorie schon vor Jahrzehnten vorgeschlagen wurde, sagte Searle, dass sie in den Neurowissenschaften noch nicht vollständig getestet wurde. Allerdings treibt es derzeit eine Menge experimenteller Arbeit voran.
„Ich würde sagen, dass zumindest auf diesen beiden Ebenen der Aufmerksamkeitsmechanismus im Herzen dieses Netzwerks vorhersagt, was gesagt wird, was auf einer sehr groben Ebene mit Ideen im Zusammenhang mit den Neurowissenschaften zu tun zu haben scheint“, Serre kommentiert.
Eine aktuelle Studie verknüpfte die von großen Sprachmodellen verwendeten Strategien mit tatsächlichen Gehirnprozessen und stellte fest: „Wir müssen noch viel lernen, aber eine wachsende Zahl neurowissenschaftlicher Forschungen legt nahe, welche Rolle diese großen Sprachmodelle und visuellen Modelle spielen [ in Computern] hängt nicht völlig davon ab, was unser Gehirn tut, wenn wir natürliche Sprache verarbeiten.“ Diese Systeme lernen durch statistische Korrelationen, sagte Serre. Welche Informationen auch immer im Datensatz dominieren, sie werden die anderen Informationen übernehmen und verdrängen.
„Dies ist ein Bereich mit großem Schwerpunkt in der künstlichen Intelligenz, der nicht spezifisch für die Sprache ist“, sagte Serre. Er führte an, wie die Überrepräsentation weißer Männer im Internet einige Gesichtserkennungssysteme so weit verzerrt habe, dass sie Gesichter nicht mehr erkennen, die nicht weiß oder männlich aussehen.
„Systeme sind nur so gut wie die Trainingsdaten, die wir ihnen geben, und wir wissen, dass die Trainingsdaten zunächst einmal nicht so gut sind“, sagte Serre.
Daten sind auch nicht unendlich, fügte er hinzu, insbesondere angesichts der Größe dieser Systeme und ihres unersättlichen Appetits.
Pavlick sagte, dass die neueste Version von ChatCPT bestärkende Lernebenen enthält, die als Leitplanken dienen, um schädliche oder hasserfüllte Inhalte zu verhindern. Aber diese sind noch in Arbeit.
„Ein Teil der Herausforderung besteht darin, dass man einem Modell keine Regel vorgeben kann – man kann nicht einfach sagen: ‚Generiere niemals das und das‘“, sagte Pavlick.
„Es lernt durch Beispiele, also geben Sie ihm viele Beispiele für zu tunde Dinge und sagen dann: ‚Tu das nicht. Tu das. Es ist also immer möglich, einen kleinen Trick zu finden, um es dazu zu bringen, schlechte Dinge zu tun.‘ '"
CHATGPT träumt nicht
Sie sagte, es sei wichtig zu verstehen, dass Anwendungen wie ChatGPT homöostatische Systeme seien – mit anderen Worten, sie entwickeln und verändern sich online nicht in Echtzeit, obwohl sie sich offline möglicherweise weiter verbessern.
„Es ist nicht so, dass [ChatGPT] Dinge wiederholt, denkt und versucht, sie auf neue Weise zu kombinieren, um das zu festigen, was es weiß oder was auch immer im Gehirn vor sich geht“, sagte Pavlik.
„Es ist eher so: Fertig. Das ist das System. Wir nennen es einen Vorwärtsdurchgang durch das Netzwerk – es gibt kein Feedback davon. Es gibt keine Reflexion darüber, was es gerade getan hat, und keine Möglichkeit, es zu aktualisieren.“
Pavlick sagt das Wenn eine KI gebeten wird, beispielsweise einen Rap-Song über den Krebs-Zyklus oder ein psychedelisches Bild des Hundes einer anderen Person zu erstellen, sieht die Ausgabe vielleicht kreativ aus, aber in Wirklichkeit ist es genau das, was das System getan hat. Ein Mashup von Aufgaben wird darauf trainiert .
Im Gegensatz zu menschlichen Sprachbenutzern ändert jede Ausgabe nicht automatisch jede nachfolgende Ausgabe, verbessert die Funktionalität oder funktioniert nicht so, wie Menschen denken, dass Träume funktionieren.
Serre und Pavlick betonen, dass ein Vorbehalt bei jeder Diskussion über menschliche Intelligenz oder künstliche Intelligenz darin besteht, dass Wissenschaftler noch viel über beide Systeme lernen müssen.
Was den Hype um ChatGPT betrifft, insbesondere den Erfolg neuronaler Netze bei der Entwicklung von Chatbots, die fast menschlicher sind als Menschen, sagt Pavlick, dass er wohlverdient sei, insbesondere aus technologischer und technischer Sicht.
„Das ist sehr aufregend!“ sagte sie. „So ein System haben wir uns schon lange gewünscht.“
Das obige ist der detaillierte Inhalt vonWird ChatGPT wirklich die Welt erobern?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!