Produziert von Sohu Technology
Autor|Zheng Songyi
Am 9. Juni fand in Peking die Zhiyuan-Konferenz für künstliche Intelligenz 2023 statt. Um vier Uhr morgens Ortszeit in Frankreich hielt Yann LeCun, bekannt als einer der „drei Giganten des Deep Learning in der Welt“, auf der französischen Videokonferenz in Peking eine Rede zum Thema „Auf dem Weg zu einem großen Modell“. „Fähig zu lernen, zu argumentieren und zu planen“ Die Rede drückte ein tiefgreifendes Nachdenken über künstliche Intelligenz aus.
Sohu Technology hat sich diese Rede auf der Zhiyuan-Konferenz angesehen. An Yang Likuns lächelndem Gesichtsausdruck während der Rede können wir Yang Likuns positive und optimistische Haltung gegenüber der Entwicklung künstlicher Intelligenz erkennen. Als Musk und andere zuvor einen gemeinsamen Brief unterzeichneten, in dem sie feststellten, dass die Entwicklung künstlicher Intelligenz Risiken für die menschliche Zivilisation mit sich bringen würde, widerlegte Yang Likun dies öffentlich und glaubte, dass künstliche Intelligenz noch nicht so weit entwickelt sei, dass sie eine ernsthafte Bedrohung für die Menschheit darstelle. In seiner Rede betonte Yang Likun noch einmal, dass künstliche Intelligenz kontrollierbar sei. Er sagte: „Angst entsteht durch die Erwartung möglicher negativer Ergebnisse, während Hochstimmung durch die Vorhersage positiver Ergebnisse erzeugt wird.“ Ich nenne es „zielgesteuerte KI“, sie wird kontrollierbar sein, weil wir ihr über eine Kostenfunktion Ziele setzen können, um sicherzustellen, dass diese Systeme nicht die Welt erobern wollen, sondern sie stattdessen der Menschlichkeit und Sicherheit erliegt.
Yang Likun sagte, dass die Kluft zwischen künstlicher Intelligenz und Menschen und Tieren im logischen Denken und Planen liegt, die wichtige Merkmale der Intelligenz sind. Die heutigen großen Modelle können nur „instinktiv reagieren“.
„Wenn man sie mit einer Billion oder zwei Billionen Token trainiert, ist die Leistung der Maschine erstaunlich, aber irgendwann macht die Maschine sachliche Fehler, logische Fehler und ihre Denkfähigkeiten sind begrenzt.“
Yang Likun betonte, dass Sprachmodelle, die auf Selbstüberwachung basieren, kein Wissen über die reale Welt erlangen können. Er glaubt, dass Maschinen im Vergleich zu Menschen und Tieren nicht sehr gut lernen können. Überwachtes Lernen wurde jahrzehntelang entwickelt, aber überwachtes Lernen erfordert zu viele Etiketten, das Erlernen erfordert viele Versuche und die Ergebnisse des verstärkenden Lernens sind unbefriedigend und machen Fehler falsch und nicht wirklich in der Lage, vernünftig zu denken oder zu planen."Genau wie wenn wir eine Rede halten, wird die Art und Weise, wie wir einen Punkt zum anderen ausdrücken und wie wir Dinge erklären, in unserem Gehirn geplant, anstatt Wort für Wort zu improvisieren. Vielleicht improvisieren wir auf einem niedrigen Niveau, aber auf einem hohen Niveau Wir müssen planen, daher ist die Notwendigkeit einer Planung sehr offensichtlich, dass vernünftige Menschen in relativ kurzer Zeit keine autoregressiven Elemente mehr verwenden werden (eines der Modelle in These). Systeme werden bald aufgegeben, weil sie nicht mehr zu reparieren sind.“
Er sagte, dass, damit das Sprachmodell das Wissen der realen Welt wirklich verstehen kann, eine neue Architektur erforderlich ist, um es zu ersetzen, und diese Architektur ist die Architektur, die er in dem von ihm vor einem Jahr veröffentlichten Artikel „Autonome Intelligenz“ vorgeschlagen hat. . Hierbei handelt es sich um eine Architektur, bei der ein Konfigurationsmodul das gesamte System steuert und auf der Grundlage von Eingabeinformationen Vorhersagen, Überlegungen und Entscheidungen durchführt. Das „Weltmodul“ verfügt über die Fähigkeit, fehlende Informationen abzuschätzen und zukünftige äußere Bedingungen vorherzusagen.
Als Yang Likun über die Herausforderungen sprach, denen sich die KI in den nächsten Jahren gegenübersehen wird, wies er auf drei Aspekte hin: Der erste besteht darin, das Repräsentations- und Vorhersagemodell der Welt zu erlernen; Nutzen Sie das Denken bewusst und zielgerichtet, um Aufgaben endlich zu erledigen. Eine Herausforderung besteht darin, komplexe Handlungsabläufe zu planen, indem Sie komplexe Aufgaben in einfachere Aufgaben zerlegen und diese hierarchisch ausführen.
Apropos, Yang Likun stellte ein weiteres Modell vor, das er in der Arbeit „World Model“ veröffentlichte, das sich eine Szene vorstellen und die Ergebnisse von Aktionen basierend auf der Szene vorhersagen kann. Das Ziel besteht darin, eine Abfolge von Aktionen zu finden, die durch das eigene Weltmodell vorhergesagt wird und eine Reihe von Kosten minimiert.
Als Yang Likun während der Frage-und-Antwort-Runde zu einer bevorstehenden Debatte über den Status und die Zukunft von AGI befragt wurde, sagte er, dass sich die Debatte um die Frage drehen werde, ob künstliche Intelligenzsysteme existenzielle Risiken für den Menschen darstellen. Max Tegmark und Yoshua Bengio werden sich für „Ja“ einsetzen und argumentieren, dass leistungsstarke KI-Systeme existenzielle Risiken für den Menschen darstellen könnten. Und Liqun Yang und Melanie Mitchell werden auf der „Nein“-Seite stehen.
„Uns geht es nicht darum, dass es keine Risiken gibt, sondern dass diese Risiken, obwohl sie existieren, durch sorgfältiges Design leicht gemindert oder unterdrückt werden können.“
Yang Likun glaubt, dass das superintelligente System noch nicht entwickelt wurde. Nach seiner Erfindung wird es zu spät sein, darüber zu diskutieren, „ob das superintelligente System für den Menschen sicher gemacht werden kann“.
Das obige ist der detaillierte Inhalt vonTuring-Preisträger Yang Likun: KI verfügt nur über begrenzte logische Denk- und Planungsfähigkeiten und wird sachliche und logische Fehler machen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!