


Turing-Preisträger Yang Likun: KI verfügt nur über begrenzte logische Denk- und Planungsfähigkeiten und wird sachliche und logische Fehler machen.
Produziert von Sohu Technology
Autor|Zheng Songyi
Am 9. Juni fand in Peking die Zhiyuan-Konferenz für künstliche Intelligenz 2023 statt. Um vier Uhr morgens Ortszeit in Frankreich hielt Yann LeCun, bekannt als einer der „drei Giganten des Deep Learning in der Welt“, auf der französischen Videokonferenz in Peking eine Rede zum Thema „Auf dem Weg zu einem großen Modell“. „Fähig zu lernen, zu argumentieren und zu planen“ Die Rede drückte ein tiefgreifendes Nachdenken über künstliche Intelligenz aus.
Sohu Technology hat sich diese Rede auf der Zhiyuan-Konferenz angesehen. An Yang Likuns lächelndem Gesichtsausdruck während der Rede können wir Yang Likuns positive und optimistische Haltung gegenüber der Entwicklung künstlicher Intelligenz erkennen. Als Musk und andere zuvor einen gemeinsamen Brief unterzeichneten, in dem sie feststellten, dass die Entwicklung künstlicher Intelligenz Risiken für die menschliche Zivilisation mit sich bringen würde, widerlegte Yang Likun dies öffentlich und glaubte, dass künstliche Intelligenz noch nicht so weit entwickelt sei, dass sie eine ernsthafte Bedrohung für die Menschheit darstelle. In seiner Rede betonte Yang Likun noch einmal, dass künstliche Intelligenz kontrollierbar sei. Er sagte: „Angst entsteht durch die Erwartung möglicher negativer Ergebnisse, während Hochstimmung durch die Vorhersage positiver Ergebnisse erzeugt wird.“ Ich nenne es „zielgesteuerte KI“, sie wird kontrollierbar sein, weil wir ihr über eine Kostenfunktion Ziele setzen können, um sicherzustellen, dass diese Systeme nicht die Welt erobern wollen, sondern sie stattdessen der Menschlichkeit und Sicherheit erliegt.
Yang Likun sagte, dass die Kluft zwischen künstlicher Intelligenz und Menschen und Tieren im logischen Denken und Planen liegt, die wichtige Merkmale der Intelligenz sind. Die heutigen großen Modelle können nur „instinktiv reagieren“.
„Wenn man sie mit einer Billion oder zwei Billionen Token trainiert, ist die Leistung der Maschine erstaunlich, aber irgendwann macht die Maschine sachliche Fehler, logische Fehler und ihre Denkfähigkeiten sind begrenzt.“
Yang Likun betonte, dass Sprachmodelle, die auf Selbstüberwachung basieren, kein Wissen über die reale Welt erlangen können. Er glaubt, dass Maschinen im Vergleich zu Menschen und Tieren nicht sehr gut lernen können. Überwachtes Lernen wurde jahrzehntelang entwickelt, aber überwachtes Lernen erfordert zu viele Etiketten, das Erlernen erfordert viele Versuche und die Ergebnisse des verstärkenden Lernens sind unbefriedigend und machen Fehler falsch und nicht wirklich in der Lage, vernünftig zu denken oder zu planen."Genau wie wenn wir eine Rede halten, wird die Art und Weise, wie wir einen Punkt zum anderen ausdrücken und wie wir Dinge erklären, in unserem Gehirn geplant, anstatt Wort für Wort zu improvisieren. Vielleicht improvisieren wir auf einem niedrigen Niveau, aber auf einem hohen Niveau Wir müssen planen, daher ist die Notwendigkeit einer Planung sehr offensichtlich, dass vernünftige Menschen in relativ kurzer Zeit keine autoregressiven Elemente mehr verwenden werden (eines der Modelle in These). Systeme werden bald aufgegeben, weil sie nicht mehr zu reparieren sind.“
Er sagte, dass, damit das Sprachmodell das Wissen der realen Welt wirklich verstehen kann, eine neue Architektur erforderlich ist, um es zu ersetzen, und diese Architektur ist die Architektur, die er in dem von ihm vor einem Jahr veröffentlichten Artikel „Autonome Intelligenz“ vorgeschlagen hat. . Hierbei handelt es sich um eine Architektur, bei der ein Konfigurationsmodul das gesamte System steuert und auf der Grundlage von Eingabeinformationen Vorhersagen, Überlegungen und Entscheidungen durchführt. Das „Weltmodul“ verfügt über die Fähigkeit, fehlende Informationen abzuschätzen und zukünftige äußere Bedingungen vorherzusagen.
Apropos, Yang Likun stellte ein weiteres Modell vor, das er in der Arbeit „World Model“ veröffentlichte, das sich eine Szene vorstellen und die Ergebnisse von Aktionen basierend auf der Szene vorhersagen kann. Das Ziel besteht darin, eine Abfolge von Aktionen zu finden, die durch das eigene Weltmodell vorhergesagt wird und eine Reihe von Kosten minimiert.
Als Yang Likun während der Frage-und-Antwort-Runde zu einer bevorstehenden Debatte über den Status und die Zukunft von AGI befragt wurde, sagte er, dass sich die Debatte um die Frage drehen werde, ob künstliche Intelligenzsysteme existenzielle Risiken für den Menschen darstellen. Max Tegmark und Yoshua Bengio werden sich für „Ja“ einsetzen und argumentieren, dass leistungsstarke KI-Systeme existenzielle Risiken für den Menschen darstellen könnten. Und Liqun Yang und Melanie Mitchell werden auf der „Nein“-Seite stehen.
„Uns geht es nicht darum, dass es keine Risiken gibt, sondern dass diese Risiken, obwohl sie existieren, durch sorgfältiges Design leicht gemindert oder unterdrückt werden können.“
Yang Likun glaubt, dass das superintelligente System noch nicht entwickelt wurde. Nach seiner Erfindung wird es zu spät sein, darüber zu diskutieren, „ob das superintelligente System für den Menschen sicher gemacht werden kann“.
Das obige ist der detaillierte Inhalt vonTuring-Preisträger Yang Likun: KI verfügt nur über begrenzte logische Denk- und Planungsfähigkeiten und wird sachliche und logische Fehler machen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Das Modellkontextprotokoll (MCP): ein universeller Anschluss für KI und Daten Wir alle vertraut mit der Rolle von AI bei der täglichen Codierung. Replit, Github Copilot, Black Box AI und Cursor IDE sind nur einige Beispiele dafür, wie KI unsere Workflows optimiert. Aber stell dir vor

Microsoft's Omniparser V2 und Omnitool: Revolutionierung der GUI -Automatisierung mit KI Stellen Sie sich AI vor, das nicht nur versteht, sondern auch mit Ihrer Windows 11 -Oberfläche wie ein erfahrener Profi interagiert. Microsofts Omniparser V2 und Omnitool machen dies zu einer Re

Revolutionierung der App -Entwicklung: Ein tiefes Eintauchen in den Replit Agent Müde, mit komplexen Entwicklungsumgebungen und dunklen Konfigurationsdateien zu ringen? Replit Agent zielt darauf ab, den Prozess der Umwandlung von Ideen in funktionale Apps zu vereinfachen. Diese AI-P

Die Vibe -Codierung verändert die Welt der Softwareentwicklung, indem wir Anwendungen mit natürlicher Sprache anstelle von endlosen Codezeilen erstellen können. Inspiriert von Visionären wie Andrej Karpathy, lässt dieser innovative Ansatz Dev

Dieser Blog-Beitrag teilt mit meiner Erfahrung mit dem neuen Animation-Tool von Runway ML von ML und dem Deckung sowohl der Weboberfläche als auch der Python-API. Während der Versprechen waren meine Ergebnisse weniger beeindruckend als erwartet. Möchten Sie generative KI erkunden? Lernen Sie, LLMs in p zu verwenden

Februar 2025 war ein weiterer bahnbrechender Monat für die Generative KI, die uns einige der am meisten erwarteten Modell-Upgrades und bahnbrechenden neuen Funktionen gebracht hat. Von Xais Grok 3 und Anthropics Claude 3.7 -Sonett, um g zu eröffnen

Yolo (Sie schauen nur einmal) war ein führender Echtzeit-Objekterkennungsrahmen, wobei jede Iteration die vorherigen Versionen verbessert. Die neueste Version Yolo V12 führt Fortschritte vor, die die Genauigkeit erheblich verbessern

Das 500 -Milliarden -Dollar -Stargate AI -Projekt, das von Tech -Giganten wie Openai, Softbank, Oracle und Nvidia unterstützt und von der US -Regierung unterstützt wird, zielt darauf ab, die amerikanische KI -Führung zu festigen. Dieses ehrgeizige Unternehmen verspricht eine Zukunft, die von AI Advanceme geprägt ist
