In weniger als einem Jahr wurden ChatGPT und GPT-4 nacheinander veröffentlicht, was das Verständnis der Menschen für KI ständig auffrischt.
Neue Technologie bringt Veränderungen mit sich und löst auch Diskussionen darüber aus, ob KI den Menschen ersetzen wird. Auch OpenAI-CEO Sam Altman äußerte öffentlich Bedenken hinsichtlich der leistungsstarken Fähigkeiten der Technologie der künstlichen Intelligenz.
Kürzlich gab Wang Jun, Professor am Fachbereich Informatik des University College London (UCL), in einem Interview mit AI Technology Review zu, dass ChatGPT zwar über starke Sprach- und Konversationsfähigkeiten verfügt, aber nicht in der Lage ist, systematische Entscheidungen zu treffen , wie Maschinensteuerung und Gruppenzusammenarbeit, dynamische Planung usw., und das sind die revolutionäreren Teile der KI-Technologiewelle.
Wang Jun, Professor für Informatik am University College London (UCL), Turing Fellow des Alan Turing Institute. Sein Hauptforschungsgebiet sind intelligente Informationssysteme, einschließlich maschinellem Lernen, verstärkendem Lernen, Multiagenten, Data Mining, Computerwerbung, Empfehlungssysteme usw.; Google Scholar wurde mehr als 16.000 Mal zitiert und hat mehr als 120 wissenschaftliche Arbeiten veröffentlicht wurde mehrfach mit dem Best Paper Award ausgezeichnet.
Wang Jun
Im April 2022 wurde das Shanghai Digital Brain Research Institute offiziell gegründet und Enigma Tech (chinesischer Name „Enigma Technology“) wurde intern gegründet und etabliert In der zweiten Jahreshälfte entwickelte das Institut für Mathematische Wissenschaften als Dekan des Brain Research Institute das erste groß angelegte Multi-Agent-Entscheidungsmodell CV, NLP, Reinforcement Learning und Multi-Agent und setzt sich dafür ein, Unternehmen bei der Lösung von Entscheidungsproblemen mit mehreren Szenarien zu unterstützen.
Wang Jun glaubt, dass das Aufkommen von ChatGPT das Problem gelöst hat, wie die Schwelle beim Training großer Modelle in der Vergangenheit gesenkt werden kann. Durch die Kombination natürlicher Sprachverarbeitung mit großen Entscheidungsmodellen kann ChatGPT nicht nur Chat, sondern auch AIGC ermöglichen (AI Generated Content, Content-Produktion), erkunden Sie AIGA (AI Generated Actions, Entscheidungsgenerierung) weiter, damit die Denk- und Entscheidungsfähigkeiten des Modells auf bestimmte Szenarien angewendet werden können und Unternehmen und Menschen wirklich dabei helfen, Entscheidungsprobleme zu lösen und den Menschen zu mehr kreativen Aktivitäten zu befreien.
KI ist untrennbar mit der ultimativen Verfolgung von Definitionsproblemen verbunden.
Wang Jun unterteilt den Weg zur Intelligenz in zwei Schritte. Der erste Schritt besteht darin, den Unterschied zwischen biologischen Systemen (lebende Systeme (Menschen gehören zu biologischen Systemen)) und nichtbiologischen Systemen zu klären.
Im Jahr 2013 schlug der Biophysiker Jeremy England eine bahnbrechende „dissipationsgesteuerte Anpassungstheorie“ vor, die den Ursprung des Lebens auf das unvermeidliche Ergebnis der Thermodynamik zurückführte. Molekülfreie Systeme verbrauchen unter bestimmten Bedingungen Energie, um das Leben zu fördern kontinuierlicher Energieverbrauch und die Zunahme der „Entropie“.
In der Theorie der Entropiezunahme und Entropieabnahme absorbiert der Prozess des Übergangs des Lebenskörpers von der Unordnung zur Ordnung weiterhin Energie und die Entropie nimmt ab. Wang Jun glaubt, dass KI vom Menschen erzeugt wird, also absorbiert sie auch Energie, um den Menschen bei der Vervollständigung zu helfen Mission der Entropiereduzierung Der Kernpunkt der Grundfrage ist, wie man Intelligenz definiert und wie viel Energie die KI absorbieren muss, um ein bestimmtes Intelligenzniveau zu erreichen.
Beim Einsatz von KI zur Bildklassifizierung und -erkennung kann die Genauigkeit des Klassifizierungsalgorithmus 98 % erreichen. Durch die Klassifizierung kann uns die KI dabei helfen, die ungeordnete Organisation von Bildinhalten in geordnete und regelmäßige Bilder umzuwandeln. Die Unsicherheit im System wird verringert und die Entropie verringert. Die Entropiereduzierung erfordert auch eine Berechnung, die die Rechenleistung des Algorithmus bestimmt. Die Rechenleistung ist ein Ausdruck der verbrauchten Energie.
Der zweite Schritt zur Intelligenz besteht laut Wang Jun darin, das Bewusstsein biologischer Systeme und sogenannter KI-Systeme zu unterscheiden. Gegenwärtig existiert künstliche Intelligenz nur als Werkzeug, um die Exzellenz der KI-Arbeit zu beurteilen. Um die Maschine schließlich dazu zu bringen, die gleichen Denkfähigkeiten wie Menschen zu erreichen, muss man zunächst die verschiedenen Phänomene des menschlichen Gehirns verstehen und zunehmendes Verständnis für Bedenken hinsichtlich des KI-Bewusstseins.
Nach Ansicht von Wang Jun ist Bewusstsein eine wichtige Manifestation der Intelligenz. Säugetiere können gleichzeitig Bewusstsein erkennen, Bewusstsein wahrnehmen und subjektive Gefühle entwickeln . Das Individuum und die Umgebung beeinflussen und schwingen mit und ermöglichen den Ausdruck subjektiver Gefühle.
In diesem Zusammenhang schlugen Wang Jun und sein Team vor, dass in der KI-Forschung die Interaktion mehrerer Agenten (Multi-Agent) genutzt werden muss, um Bewusstsein zu induzieren.
Nehmen Sie als Beispiel große Modelle, die künstlich definiert und auf eine bestimmte spezifische Aufgabe beschränkt sind. Es ist schwierig, eine intelligentere KI zu erzeugen, indem der Algorithmus für die Ausführung der Maschine sowie die Denk- und Entscheidungsprozesse des Modells entworfen werden. Herstellungsfähigkeiten können nicht gefördert werden.
Wang Jun sagte gegenüber AI Technology Review: „Wenn Sie mehrere Dinge gleichzeitig vorantreiben, ist eine große Idee erforderlich, die Sie leitet. Wenn nicht, ist es offensichtlich, dass es immer noch an einem inhärenten Gesetz mangelt.“ Maschinenmodelle zu einem größeren „Intelligenz“-kritischen Pfad.
Im Mai 2022 veröffentlichte DeepMind „GATO“, einen Allzweckagenten, der CV und NLP kombiniert. Er kann Atari-Spiele spielen, Bilduntertitel ausgeben, Blöcke mit Roboterarmen stapeln, mit Menschen chatten usw. und auch machen Entscheidungen basierend auf dem Kontext, ob Text, Gelenkdrehmomente, Tastendrücke oder andere Token (Wort für Wort) ausgegeben werden sollen, diese Arbeit sorgte damals für viele Diskussionen. Auch Wang Jun gehört zu den Followern.
Tatsächlich begannen Wang Jun und sein Team ab 2021 über die Möglichkeit nachzudenken, ein Entscheidungsmodell zu schaffen, das aufgabenübergreifende Aufgaben umsetzen und Lebenslauf, NLP, Reinforcement Learning und Multi-Agent in einer einheitlichen Entscheidung verknüpfen kann. Modell herstellen. Das Aufkommen von „GATO“ ermöglichte es Wang Jun, den riesigen erforschbaren Raum großer Modelle zu erkennen, um zu beweisen, dass es der allgemeine Trend ist, dass ein Modell Aufgaben in mehreren Bereichen lösen kann Beginnen Sie einfach mit der Bedeutung der Modellgröße. Wie kann dieses Problem durch kontinuierliche Interaktion mit der Umgebung gelöst werden? Der größte technische Punkt besteht darin, die Komplexität des verstärkenden Lernens und der Umgebungsinteraktion zu reduzieren.
Originaldaten spielen bei diesem Link eine Schlüsselrolle.
Erstellen Sie ein vorab trainiertes Modell, indem Sie die Originaldaten trainieren, die von anderen Aufgaben oder Algorithmen generiert werden, die mit der Umgebung interagieren. Dieses Modell kann schnell angewendet werden, wenn neue Aufgaben anstehen, wodurch der Wert von Regeln, Beziehungen und Datenänderungen maximiert wird. Da der Datensatz vor dem Training weiter wächst, wird auch das Modell größer, bis es alle Aufgaben abdecken kann.
Das Endergebnis ist, dass die Methoden zur Lösung des Problems gesammelt und mehrere Richtungen zusammengeführt und zu einem Multi-Agenten vereinheitlicht werden, der geplant und aufgabenübergreifend verallgemeinert werden kann. Multi-Agent-Agenten müssen oft die Gleichgewichtsbeziehung berücksichtigen, das heißt, während sie ihre eigenen Ziele erreichen, kann die andere Partei auch ihre Ziele erreichen und sich gegenseitig zurückhalten, um ein stabiles Gleichgewicht aufrechtzuerhalten.
In praktischen Anwendungsszenarien kann Multi-Agent auch bei der Lösung vieler praktischer Probleme wie Suche, Empfehlung und sogar Internetwerbung helfen Entspricht den Benutzerpräferenzen: „Ihnen empfohlen, ist eigentlich eine Entscheidung.“
Der Vorteil von Multi-Agenten besteht darin, dass sie ihre aufgabenübergreifenden Fähigkeiten voll ausschöpfen können.
Tatsächlich begannen Wang Jun und sein Student Zhang Weinan (Professor der Shanghai Jiao Tong University) bereits 2017 mit aufgabenübergreifenden Versuchen, verstärkendes Lernen zur Verarbeitung natürlicher Sprache (NLP) hinzuzufügen.
Bei der Verarbeitung natürlicher Sprache wurde in der Vergangenheit GAN zum Generieren von Text verwendet. Aufgrund der diskontinuierlichen Daten im Wortindex und Wortvektor während des Konvertierungsprozesses funktionierte die Feinabstimmung der Parameter häufig nicht, da das Diskriminanzmodell von GAN generierte Daten nur als Ganzes. Der Text wird jedoch im Allgemeinen Wort für Wort generiert, was die Kontrolle von Details erschwert.
Zu diesem Zweck schlugen sie das SeqGAN-Modell vor, das das Problem der Anwendung von GAN auf diskrete Daten löste, indem es sich auf bestärkende Lernstrategien stützte. Dies war auch eine der ersten Arbeiten, die bestärkendes Lernen nutzte, um ein generatives Sprachmodell zu trainieren und so Text zu erreichen Erzeugung in natürlicher Form Es hat ein breites Anwendungsspektrum in verschiedenen Bereichen wie der Sprachverarbeitung und dem Informationsabruf.
Papieradresse: https://arxiv.org/pdf/1609.05473.pdf
„Bestärkendes Lernen und Entscheidungsfindung sind im Wesentlichen miteinander verbunden. Durch bestärkendes Lernen können einige Entscheidungsprobleme gelöst werden.“ Nach Ansicht von Jun ist die Entscheidungsfindung ein langfristiges Forschungsproblem. Der Vorschlag groß angelegter Entscheidungsfindungsmodelle mit mehreren Agenten kann nach der Verallgemeinerung einzigartige Vorteile in der KI schaffen -Maßstabsbasierte Entscheidungsmodelle.
2. AIGA geht weiter als AIGC
In diesem Wettbewerb um allgemeine künstliche Intelligenz sind ChatGPT und GPT-4 nicht die Endpunkte. Der Schwerpunkt des Wettbewerbs liegt auf der wertvolleren industriellen Revolution und Innovation unter der Welle.
In dieser Zeit pflegte Wang Jun auch eine enge Kommunikation mit Freunden, denen das Marktkapital am Herzen liegt.
Nach Ansicht von Wang Jun sind einige der Probleme im akademischen Kreis nicht mutig genug und unterliegen Ressourcenbeschränkungen, und das Nachdenken über Probleme wird durch bestimmte Faktoren eingeschränkt. In der industriellen Welt können große Entscheidungsmodelle umfassendere Anwendungsszenarien haben. Ob in traditionellen Branchen, Internet-Suchempfehlungen, industriellem Internet usw., es sind vielfältige Entscheidungen erforderlich.
Mit dieser Idee im Hinterkopf begann Wang Jun über die Möglichkeit nachzudenken, groß angelegte Entscheidungsmodelle in Industrie, Wissenschaft und Forschung zu integrieren.
Nach einer einjährigen Vorbereitungszeit wurde im April 2022 das Shanghai Digital Brain Research Institute offiziell gegründet. Enigma Tech („Enigma Technology“) wurde intern inkubiert und etabliert. Es ist hauptsächlich für die Umsetzung der wissenschaftlichen Forschungsergebnisse des Digital Brain verantwortlich Forschungsinstitut für die Branche und Bereitstellung einer Plattform für digitale Forschung. Das Institut stellt reale Szenarien und echte Geschäftsdaten bereit. Wang Jun ist Mitbegründer und Dekan des Instituts für Mathematik sowie leitender Wissenschaftler von Puzzle Technology.
Wenn große Modelle in tatsächliche Anwendungsszenarien eintreten, stehen Unternehmen häufig vor zwei Hauptproblemen: Das Modell ist nicht breit gefächert und die Eintrittsschwelle ist hoch.
Die klassische Methode des maschinellen Lernens verwendet ein benutzerdefiniertes Modell. Nachdem das Unternehmen eine Aufgabe ausgegeben hat, definiert es zunächst das Problem, sammelt Daten für das Training und testet das Modell Problem: Daten für Schulungen sammeln und erneut modellieren. Tests führen häufig dazu, dass Unternehmen eine Menge finanzieller und personeller Ressourcen für die Bereitstellung verschwenden, und es handelt sich nicht um ein breites Spektrum. Gleichzeitig erfordert die Verwendung großer Modelle ein extrem hohes technisches Können der Ingenieure und eine gewisse Optimierungserfahrung, und die Schwelle für eine Unternehmensbeteiligung ist hoch.
Wang Jun glaubt, dass ChatGPT in Kombination mit großen Entscheidungsmodellen niedrigschwellige und breit gefächerte Probleme effektiv lösen kann.
Vor diesem Hintergrund leitete Wang Jun das Puzzle-Technologieteam, das DB-Großmodell (AIGA-Richtungsmodell, AIGA: AI Generated Actions, Entscheidungsgenerierung) vorzuschlagen. Sein erstes DB1 ist das weltweit erste multimodale Entscheidungsfindungs-Großmodell. Das von DeepMind eingeführte GATO unterstützt Multi-Agenten vollständig und kann mehr als tausend Entscheidungsaufgaben gleichzeitig bearbeiten.
Leistung von DB1 bei Fahrzeugkollaborationsaufgaben
Durch die Kombination von ChatGPT mit einem großen Entscheidungsmodell ermöglicht ChatGPT nicht nur das Chatten, sondern erforscht AIGA auch weiter auf der Grundlage von AIGC und ermöglicht so die Denkfähigkeit und Entscheidungsfähigkeit des Modells. Die daraus resultierenden Interaktionen werden mit der Umgebung spezifischer Szenarien verknüpft, die sich direkt an realen Industrieszenarien orientieren können Zusammenarbeit, Gerätedynamik und Unternehmensautonomie, Softwareentwicklung und andere umfassendere Anwendungen.
Und dann Unternehmen und Menschen wirklich dabei helfen, Entscheidungsprobleme zu lösen und Menschen für kreativere Aktivitäten freizugeben. „Letztendlich wird es den Fortschritt der gesamten Menschheit stark fördern. In diesem Fall können wir echte AGI (Künstliche Allgemeine Intelligenz) züchten.
Derzeit ist die Grundstruktur des Digital Brain Research Institute fertiggestellt. und das Geschäft. Der Inhalt deckt alles von Algorithmen und Systemen bis hin zu spezifischen Ingenieurprojekten ab und kann auf mehrere Szenarien wie Empfehlungssysteme, Fehlervorhersage, autonomes Fahren, Marktdesign, Spieleszenarien, EDA-Optimierung usw. angewendet werden, um praktische Probleme zu lösen Unternehmensbetrieb.
Für Wang Jun, der das Labor verlässt und das Digital Brain Research Institute gründet, sind seine Gefühle und sein Zustand völlig anders: Es ist unmöglich, alle Faktoren in der Forschung zusammen zu berücksichtigen. Um dieses Problem zu lösen, müssen zunächst andere Dinge vereinfacht werden Sobald das Problem gelöst ist, geht es weiter mit dem nächsten; und die Umsetzung einer Forschung ist eher eine Ansammlung mehrerer Probleme, die es erfordert, jedes Problem einzeln zu lösen und die Methoden zur Lösung des Problems in einem einheitlichen Verfahren anzuwenden Benehmen.
Im Juli letzten Jahres hatte AI Technology Review die Ehre, eine ausführliche Diskussion mit Dekan Wang Jun zu führen. Damals brachte er zum Ausdruck, dass das Ziel des Instituts für Mathematik darin bestehe, die Entscheidungsintelligenzforschung und die KI-Forschung zu fördern und die beste und grundlegendste Forschung in China zu betreiben.
In nur einem Jahr überraschte Wang Jun mit dem Aufkommen von Modellen wie Stable Diffusion, ChatGPT und GPT-4 den revolutionären Fortschritt der KI-Technologie und gab ihm auch ein konkreteres Ziel für das Institut für Mathematik Entscheidungsmodelle auf konkrete Szenarien zur Lösung praktisch bedeutsamer Probleme.
Von der Wissenschaft bis zur Industrie hat sich das Digital Brain Research Institute schon lange nicht mehr weiterentwickelt, und sein Prototyp spiegelt auch die Richtung von Wang Juns Erforschung und Erforschung auf dem Weg der künstlichen Intelligenz wider. „Wir wollen einfach unseren eigenen Weg gehen. Wie können wir Industrie, Wissenschaft und Forschung kombinieren, um einen neuen Weg zu schaffen und einige Fragen zu stellen, die noch nie zuvor gestellt wurden.“
AI Technology Review: Vorstellung der Arbeit und Fortschritte des Instituts für Mathematik im vergangenen Jahr bei groß angelegten Multi-Agenten-Entscheidungsmodellen.
Wang Jun: Ich habe letzten Sommer mit der Planung eines neuen Themas begonnen. Wir hatten das Gefühl, dass große Modelle nicht nur in NLP und Lebenslauf vorkommen, sondern auch eine große Rolle bei der Entscheidungsfindung spielten Verschiedenes Das Einbetten der Aufgabe in ein großes Modell und das Erlernen in Transform haben uns inspiriert, also haben wir beschlossen, sie weiter zu erforschen und ein großes Entscheidungsmodell zu erstellen, das Video-, Bild- und Daten in natürlicher Sprache sowie Roboterdaten umfasst. und es werden sogar Solver-Daten hinzugefügt, etwa zur Durchführung von Optimierungsaufgaben, zur Organisation von Produktionsplänen, zur Optimierung von Fahrzeugen usw. Wir haben ein großes Modell mit etwa 1 Milliarde oder 1,5 Milliarden Parametern erstellt. Obwohl es sich um eine frühe Untersuchung handelte, hat es auch bewiesen, dass das große Modell nicht nur die Verarbeitung natürlicher Sprache betrifft, sondern auch eine wichtige Rolle bei der Entscheidungsfindung spielt.
Wir haben vor einiger Zeit an einem Fußballspiel gearbeitet und sind auf ein ungelöstes Problem gestoßen: Die aktuelle Forschungslogik von Reinforcement Learning, AlphaGo, StarCraft, Dota und anderen Spielsystemen besagt: Je mehr Leute es gibt, desto mehr Entscheidungsspielraum gibt es komplex sein.
In diesem Zusammenhang haben wir Fußball in der Spielszene als Forschungspunkt genutzt und viele Versuche in einem großen Entscheidungsfindungsmodell mit mehreren Agenten unternommen, vom einfachen 2-Personen-Fußball über 5-Personen- bis hin zu 11-Personen-Fußball. Dies ist ein relativ großes und herausforderndes Szenario für das verstärkende Lernen. Derzeit ist die Art des Problems noch nicht vollständig oder sehr gut gelöst, daher haben wir viel Zeit in diese Angelegenheit investiert und gehofft, etwas zu erreichen Erfolge.
AI Technology Review: Welche Auswirkungen wird die Veröffentlichung von ChatGPT auf die Forschung des Instituts für Mathematik haben?
Wang Jun: Unser Fokus lag schon immer auf der Entscheidungsfindung, und das gilt immer auch jetzt. Doch nach dem Erscheinen von ChatGPT waren wir von seinen Sprachfähigkeiten sehr überrascht, die unsere Erwartungen völlig übertrafen und auch eine gewisse Rolle bei der Förderung von Entscheidungsaufgaben spielten.
Im Prozess der Entscheidungsoptimierung müssen zwei Hauptprobleme gelöst werden: breites Spektrum und niedrige Schwelle.
Das große Entscheidungsmodell löst bis zu einem gewissen Grad das Breitbandproblem des Modells. Neue Aufgaben werden in das große Modell zur Iteration und Feinabstimmung gestellt. Ein großes Modell kann verschiedene Entscheidungsprobleme lösen.
Das Problem der niedrigen Schwelle ist in KI-Unternehmen weit verbreitet. Der Einsatz großer Modelle erforderte oft eine sehr hohe Fähigkeit von Ingenieuren, sich am Entscheidungsprozess für Probleme zu beteiligen Die Teilnahme von Unternehmen war sehr hoch, was auch die Kosten für den Einsatz von KI erhöht.
Um das Problem der niedrigen Schwelle für die Verwendung zu lösen, hatten wir uns zuvor vorgestellt, eine relativ einfache Sprache zu erfinden, die komplexer und strenger als natürliche Sprache, aber einfacher als echte Programmierung sein kann und von jedem verwendet werden kann ChatGPT, plötzlich Lassen Sie uns erkennen, dass die natürliche Sprache der Maschine das Niveau der normalen Kommunikation mit Menschen erreichen kann und der Schmerzpunkt der niedrigen Schwelle sofort gelöst ist. Für uns sind die Auswirkungen dieser Änderung ziemlich groß.
Was noch interessanter ist, ist, dass ChatGPT über bestimmte logische Argumentationsfunktionen verfügt, die uns dabei helfen können, ein komplexes Problem in mehrere Unterprobleme zu zerlegen. Dieser Teil des Unterproblems erforderte ursprünglich eine manuelle Zerlegung durch ChatGPT Anhand des Beispiels kann das Problem in Grundprobleme zerlegt werden, und dann können die vorhandenen Entscheidungsfähigkeiten der Grundprobleme direkt über das große Entscheidungsmodell aufgerufen werden.
ChatGPT senkt die Schwelle für die Entscheidungsfindung
Kommentar zur KI-Technologie: Multi-Agent-Entscheidungsmodelle decken viele Bereiche ab. Welche Datenanforderungen gelten? Besteht nach der Kombination mit ChatGPT ein besonderer Bedarf an Daten in einem bestimmten Bereich?
Wang Jun: Es wird einige spezifische Anforderungen geben.
Natürliche Sprachdaten sind offline und gehören zum methodischen Lernen; die Entscheidungsfindung erfordert viele Datengenerierungsfunktionen und einen Simulator. Wenn wir beispielsweise einem Roboterhund das Laufen beibringen, lassen wir ihn nicht an regnerischen Tagen oder in anderen Umgebungen herumlaufen, um Daten zu sammeln. Wir bauen oft zuerst einen Simulator, der der Außenwelt sehr ähnlich ist, und verwenden ihn zum Generieren Daten: Nachdem das Modell gelernt wurde, wird es in eine reale Szene gebracht, um Feedback zu geben, und kommt dann zurück, um erneut zu lernen, sodass es seine Entscheidungsfähigkeiten schnell auf reale Anwendungen übertragen kann. Große Modelltechnik deckt eine Vielzahl von Szenen ab, egal ob es regnet, auf Treppen geht oder auf Sand läuft, es ist kein Problem.
Der mechanische Hund läuft in verschiedenen Umgebungen
Die zweite Schwierigkeit besteht darin, dass das Training von Entscheidungsdaten schwieriger ist als die Verarbeitung natürlicher Sprache. Die Effizienz der Datengenerierung, der Ort ihrer Generierung und die Zuordnung zu verschiedenen Lernmodulen Lernen erfordert eine einheitliche Lösung auf Systemebene. Wir haben zuvor eine Reihe groß angelegter Lernmethoden entwickelt, die hauptsächlich in dieser Trainingsmethode für verstärktes Lernen verwendet werden. Nach der Veröffentlichung von ChatGPT war die auf dem großen Oracle-Modell basierende Trainingsmethode jedoch nicht mehr geeignet.
Kommentar zur KI-Technologie: Wie kann ChatGPT in bestimmten Szenarien zur Kombination mit großen Entscheidungsmodellen verwendet werden?
Wang Jun: Nehmen wir einen Fall eines mechanischen Hundes: Zuerst haben wir den mechanischen Hund mit der klassischen Kontrollmethode trainiert. Sein Problem ist, dass er kein Problem damit hat, auf einer einzigen Umweltstraße zu laufen Bedingung, aber an regnerischen Tagen kann er nicht im Schnee laufen, aber als wir die große Modelllösung hinzufügten, verfügte der mechanische Hund über grundlegende interaktive Fähigkeiten und konnte Überlegungen anstellen. Senden Sie eine Anweisung an den Roboterhund, um eine Nachricht zu senden, und das Modell zerlegt die Aufgabe automatisch in 1 bis 5 Grundschritte. Jedes Modul verfügt über eine entsprechende Logik in der Übertragung, z. B. die Pfadplanung von Punkt A nach Punkt B.
Da der Roboterhund selbst nicht das Konzept hat, nach Osten oder Westen zu gehen, sondern nur Koordinaten, ist es notwendig, die interaktiven Anweisungen mit spezifischer Semantik zu kombinieren und zu korrespondieren Anweisungen werden in Programmiersprache umgewandelt und können direkt interagiert werden. Nach Erhalt der Frage zerlegt der Roboterhund die Anweisung in mehrere verschiedene Fragen. Er optimiert zunächst einen Teil des Chats und gleicht die Aktionen, Entscheidungen und Semantik mit der natürlichen Sprache ab generiert von ChatGPT.
Dies ist zur Hauptrichtung unserer nächsten Forschung geworden. Wir nennen es AIGA (AI Generate Actions). In der Anfangsphase brachte ChatGPT AIGC in Kombination mit dem großen Entscheidungsmodell zum Einsatz Vom Generieren von Inhalten geht es weiter zum Generieren von Aktionen und Generieren von Entscheidungen.
Die Stärke des Instituts für Wissenschaft und Technologie liegt in groß angelegten Entscheidungsmodellen. Wir wollen, dass KI nicht nur kommuniziert , aber was noch wichtiger ist, um Ihnen bei der Optimierung und Entscheidungsfindung zu helfen, und wir halten es für sehr wertvoll. Nachdem ChatGPT mit dem großen Entscheidungsmodell kombiniert wurde, beschränkt sich die generierte Interaktion nicht mehr auf die Fähigkeit, Fragen zu beantworten, sondern auch darauf, ob es komplexe und komplexe Konstruktionen verstehen kann. Durch die Interaktion mit der Umgebung kann ChatGPT kombiniert werden mit dem großen Entscheidungsmodell zur Realisierung von Roboterkollaboration, Gerätedynamik, unternehmensautonomer Planung, Softwareentwicklung und anderen umfassenderen Anwendungen.
Natürliche Sprache ist die Basis
Überprüfung der KI-Technologie: Nach dem Training multimodaler Daten werden mit zunehmender Anzahl von Parametern mehr Fähigkeiten entstehen ?Text, Bild, Sprache, Video ... welche Modalität wird einen größeren Einfluss auf das multimodale Modell haben?
Wang Jun: In Bezug auf Daten gibt es eine gewisse Grenze für „große Anstrengungen können Wunder bewirken“. Obwohl wir diese Grenze noch nicht vollständig erkannt haben, habe ich das Gefühl, dass wir uns nicht nur auf das Erlernen von ChatGPT konzentrieren. Trainingsmethoden.
Die Sprach- und Konversationsfähigkeiten von ChatGPT sind stark, aber versteht ChatGPT wirklich, was es aufnimmt? Ich denke, es wird nicht verstanden. Lassen Sie es ein Ratespiel spielen, oberflächlich betrachtet kann es spielen, aber in Wirklichkeit kennt es die Zahl nicht und kann sie nicht in Ihrem Kopf erraten. Bei ChatGPT geht es eher darum, sich logische Inhalte in den ursprünglichen Trainingsdaten zu merken. Seine Fähigkeit, Informationen abzugleichen, ist sehr schwach, aber seine Fähigkeit, sie wirklich zu verstehen.
Wie kann man seine Grenzen durchbrechen? Ich denke, wir müssen das Verständnis des Modells für die gesamte Welt zum Training hinzufügen. Wenn es kein mathematisches Modell zur Beschreibung der Welt erstellt und sein Verständnis in das Weltmodell einfügt, wird es kein tieferes Verständnis für die umgebende Welt haben. von. Um ein einfaches Beispiel zu geben: Wir geben ChatGPT alle menschlichen Schachfähigkeitsdaten unter 2000 Punkten. Wenn das Modell nur Menschen imitiert, kann es keine Intelligenz über 2000 Punkten imitieren.
Der KI-Erstellungsassistent, den Wang Juns Team zuvor gemacht hat
Daten sind wichtig, aber gleichzeitig , die Größe des Modells Es ist auch wichtig, über verschiedene Trainingsmethoden zu verfügen, um es zu verbessern.
In der Multimodalität ist die natürliche Sprache der Träger unseres Denkens. Sie erstellt eine relativ klare logische Beschreibung, die möglicherweise nicht hundertprozentig streng ist und hat einige unklare und vage Aspekte, aber es reicht aus, um einige sehr komplexe logische Zusammenhänge auszudrücken.
Gleichzeitig müssen wir uns aber auch darüber im Klaren sein, dass die in der natürlichen Sprache impliziten semantischen Informationen und Ausdrücke sehr wichtig sind. Mit anderen Worten, es kann dieses Problem möglicherweise sehr klar ausdrücken, aber das ist Darstellung Das Wichtigste ist die im Dialog enthaltene semantische Beziehung. Wenn andere multimodale Modi hinzukommen, kann sie durch Anpassen der entsprechenden semantischen Ausdrücke auf andere Modalitäten übertragen werden.
Auf der Grundlage natürlicher Sprache können wir weitere Modalitäten hinzufügen, um am Modell teilzunehmen.
AI Technology Review: Wie sehen Sie die Auswirkungen von „menschlichen Feedback“-Daten auf multimodale große Modelle oder große Entscheidungsmodelle?
Wang Jun: Es sind einige menschliche Feedbackdaten erforderlich, aber die Menge ist nicht so groß wie die vorherigen überwachten Lernanforderungen. Ein Basismodell muss nur ein paar Demonstrationen erhalten, um das Basismodell anzupassen auf neue Aufgabenszenarien und lassen Sie das Basismodell seine ursprünglichen Fähigkeiten entfalten. Dies ist eine Innovation des klassischen Trainingsmodells für maschinelles Lernen.
In der Vergangenheit haben die meisten KI-Unternehmen ein individuelles Modell übernommen. Als die Aufgabe kam, definierten sie zunächst das Problem, sammelten Daten für das Training und testeten das Modell Es wurden erneut Probleme mit der Erfassung von Definitionen festgestellt. Das Sammeln von Daten für Schulungen und Modelltests ist nicht nur schwierig zu reproduzieren, sondern die Bereitstellung wird auch eine Menge finanzieller und personeller Ressourcen in Anspruch nehmen.
ChatGPT Maschinelles Lernen basiert auf großen Modellen. Ich muss nicht zuerst das spezifische Problem kennen, es dann an Kunden oder Hersteller verteilen und die Nachahmung platzieren Bei Unternehmen mit großen Modellfunktionen stellt das Unternehmen den Gesamtprozess in umgekehrter Reihenfolge bereit und definiert ihn. Sein Kern besteht darin, das große Modell zu aktivieren und auf bestimmte Aufgaben anzuwenden, dann die Aufgaben zu definieren und die Ergebnisse auszugeben. Dadurch werden die Daten zum „menschlichen Feedback“ erheblich reduziert. Der Einfluss des Modells kann tatsächlich eine breitbandige und niederschwellige KI realisieren.
Kommentar zur KI-Technologie: Einige Leute glauben, dass in dieser Runde des ChatGPT-Wettbewerbs Rechenleistung und Modelle nicht mehr so wichtig sind wie in den beiden vorherigen Perioden und Szenarien und Daten zum Schlüssel dieser Runde werden . Du bist Was denkst du?
Wang Jun: Models sind sehr wichtig. Die aktuellen Verbesserungen der Sprachfähigkeiten einiger großer Modelle werden dazu führen, dass Modelle Menschen verstehen können, aber das ist nur ein Schein. Die grundlegende Modelltrainingsmethode, die nur auf wenigen Wörtern basiert, um das nächste Wort vorherzusagen, ist schwierig, die Denk- und Entscheidungsfähigkeiten des Modells zu verbessern, und diese beiden sind die grundlegendsten Fähigkeiten, die Sie benötigen zu wissen, wie man mit der Umwelt interagiert.
Aus der Sicht dieses Modells muss die Transform-Architektur noch innoviert werden, aber das bedeutet nicht, dass wir aufhören können, weiterzumachen Es entstehen produktive Modelle des neuronalen Netzwerkdenkens.
Rechenleistung, Modell, Daten und Szenarien sind alle sehr wichtig. Wenn die Daten und die Rechenleistung ein bestimmtes Niveau erreichen, muss eine neue Innovation, die Variablen von Daten und Rechenleistung, erscheinen Macht kann angesammelt werden und dann eine bestimmte Höhe erreichen und innovativ sein, das ist ein spiralförmiger Prozess.
Szenarien sind der Zweck, Probleme in Szenarien zu definieren und zu lösen und die Forschung nicht nur auf der akademischen Ebene zu belassen. Nachdem die Szene gefahren ist, wird ein neues Modell oder eine neue Methode verwendet und Daten und Rechenleistung werden genutzt, um ein anderes Extrem zu erreichen.
ChatGPT ist sehr breit gefächert, aber das bedeutet nicht, dass es alle KI-Probleme lösen kann. Woran sollten wir im nächsten Szenario denken und welche Probleme kann es lösen? Der Kern des Problems besteht darin, die Denk- und Entscheidungsfähigkeiten des Modells tatsächlich auf bestimmte Szenarien anzuwenden. Gleichzeitig muss es mit der Umgebung, den Menschen und verschiedenen Szenarien interagieren und letztendlich die Auswirkungen des Ganzen erkennen Die Energiewirtschaft hat den Fortschritt der gesamten Menschheit enorm gefördert.
In diesem Fall können wir echte AGI züchten. Dies ist auch das Ziel des Instituts für Mathematik.
Das obige ist der detaillierte Inhalt vonMit dem Segen von ChatGPT sind große Entscheidungsmodelle der AGI einen Schritt näher gekommen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!