Vielleicht ist Ihnen nicht aufgefallen, dass die jüngste Leistung künstlicher Intelligenzsysteme immer überraschender wird.
Zum Beispiel kann das neue Modell DALL-E 2 von OpenAI ansprechende Originalbilder basierend auf einfachen Textaufforderungen generieren. Modelle wie DALL-E machen es schwieriger, die Vorstellung zu leugnen, dass künstliche Intelligenz kreativ sein kann. Denken Sie zum Beispiel an DALL-Es fantasievolle Version von „einer Hip-Hop-Kuh, die eine Jeansjacke trägt und im Studio eine Hitsingle aufnimmt“. Oder schauen Sie sich für ein abstrakteres Beispiel die Erklärung von DALL-E zum alten Satz von Peter Thiel an: „Wir wollen fliegende Autos, nicht 140 Zeichen.“
In der Zwischenzeit hat DeepMind kürzlich ein neues Modell namens Gato angekündigt, das im Alleingang Hunderte ausführen kann von verschiedenen Aufgaben, vom Spielen von Videospielen über Gespräche bis hin zum Stapeln realer Blöcke mit einem Roboterarm. Fast alle bisherigen KI-Modelle konnten nur eine Sache – zum Beispiel Schach spielen. Damit stellt Gato einen wichtigen Schritt hin zu einer umfassenderen und flexibleren Maschinenintelligenz dar.
Und die heutigen großen Sprachmodelle (LLMs) – von GPT-3 von OpenAI über PaLM von Google bis hin zu OPT von Facebook – verfügen über eine schwindelerregende Vielfalt an Sprachfunktionen. Sie können differenzierte und tiefgehende Gespräche über nahezu jedes Thema führen. Sie können selbst beeindruckende, originelle Inhalte erstellen, von Geschäftsnotizen bis hin zu Gedichten. Um nur ein aktuelles Beispiel zu nennen: GPT-3 hat kürzlich eine gut geschriebene wissenschaftliche Arbeit über sich selbst verfasst und wird derzeit einem Peer-Review zur Veröffentlichung in einer renommierten wissenschaftlichen Zeitschrift unterzogen.
Diese Fortschritte haben in der Community der künstlichen Intelligenz zu mutigen Spekulationen und hitzigen Diskussionen über die Richtung der technologischen Entwicklung geführt.
Einige glaubwürdige KI-Forscher glauben, dass wir der „künstlichen allgemeinen Intelligenz“ (AGI) jetzt sehr nahe sind, einem oft diskutierten Maßstab, der sich auf leistungsstarke, flexible künstliche Intelligenz bezieht, die jede kognitive Aufgabe besser erfüllen kann als Menschen. Letzten Monat machte ein Google-Ingenieur namens Blake Lemoine Schlagzeilen, als er dramatisch behauptete, dass Googles groß angelegtes Sprachmodell LaMDA empfindungsfähig sei.
Der Widerstand gegen solche Behauptungen war ebenso groß, und viele KI-Kommentatoren wiesen diese Möglichkeit rundweg zurück.
Was sollen wir also von all den erstaunlichen jüngsten Fortschritten in der künstlichen Intelligenz halten? Wie sollten wir über Konzepte wie künstliche Intelligenz und künstliche Intelligenzwahrnehmung denken?
Der öffentliche Diskurs zu diesen Themen muss in mehrfacher Hinsicht neu gestaltet werden. Überdrehte Enthusiasten, die glauben, dass die superintelligente KI unmittelbar vor der Tür steht, und abweisende Skeptiker, die glauben, dass die jüngsten Entwicklungen in der KI nur ein Hype sind, liegen mit ihren Überlegungen zu einigen grundlegenden Aspekten der modernen KI falsch.
Ein Grundprinzip der künstlichen Intelligenz, das oft ignoriert wird, ist, dass sich künstliche Intelligenz grundlegend von menschlicher Intelligenz unterscheidet.
Es ist falsch, künstliche Intelligenz zu direkt mit menschlicher Intelligenz zu vergleichen. Die heutige künstliche Intelligenz ist mehr als nur eine „weniger entwickelte“ Form menschlicher Intelligenz. Die hochentwickelte KI von morgen wird nicht nur eine leistungsfähigere Version der menschlichen Intelligenz sein.
Viele verschiedene Intelligenzmodi und -dimensionen sind möglich. Stellen Sie sich KI am besten nicht als unvollkommene Nachahmung der menschlichen Intelligenz vor, sondern als eine einzigartige, fremde Form der Intelligenz, deren Konturen und Fähigkeiten sich in grundlegender Weise von unseren unterscheiden.
Um dies konkreter zu machen, werfen Sie einen kurzen Blick auf den heutigen Stand der künstlichen Intelligenz. Die heutige künstliche Intelligenz übersteigt in einigen Bereichen die menschlichen Fähigkeiten bei weitem – während sie in anderen weit hinterherhinkt.
Zum Beispiel: Seit einem halben Jahrhundert ist das „Problem der Proteinfaltung“ eine große Herausforderung im Bereich der Biologie. Kurz gesagt, das Problem der Proteinfaltung erfordert die Vorhersage der dreidimensionalen Form eines Proteins auf der Grundlage seiner eindimensionalen Aminosäuresequenz. Jahrzehnte und Generationen der klügsten Köpfe der Welt haben zusammengearbeitet, um diese Herausforderung nicht zu lösen. Ein Rezensent beschrieb es 2007 als „eines der wichtigsten, noch ungelösten Probleme der modernen Wissenschaft“.
Ende 2020 lieferte ein KI-Modell namens AlphaFold von DeepMind eine Lösung für das Proteinfaltungsproblem. Wie John Moult, der sich seit langem mit der Proteinforschung beschäftigt, sagte: „Dies ist das erste Mal in der Geschichte, dass ernsthafte wissenschaftliche Probleme durch KI gelöst wurden.“ -dimensionale Denkformen, die einfach über die menschlichen Fähigkeiten hinausgehen. Der Rahmen des Denkens. Aber es liegt nicht außerhalb der Reichweite moderner maschineller Lernsysteme.
Mittlerweile verfügt jedes gesunde menschliche Kind über eine „verkörperte Intelligenz“, die die fortschrittlichste künstliche Intelligenz der Welt bei weitem übertrifft.
Schon in jungen Jahren können Menschen mühelos Dinge tun, wie zum Beispiel Fangen spielen, über unbekanntes Gelände laufen oder den Küchenkühlschrank für einen Snack öffnen. Es stellt sich heraus, dass diese körperlichen Fähigkeiten für künstliche Intelligenz schwer zu beherrschen sind.
Dies ist im „Moravec-Paradoxon“ zusammengefasst. Wie der KI-Forscher Hans Moravec in den 1980er Jahren sagte: „Es ist relativ einfach, einen Computer dazu zu bringen, bei einem Intelligenztest oder beim Schachspielen die Leistung eines Erwachsenen zu erreichen, aber es ist schwierig oder unmöglich, einen Computer dazu zu bringen, die Leistung eines Erwachsenen zu erbringen.“ ein einjähriges Kind. .Wahrnehmung und Mobilität.“
Moravecs Erklärung für diese nicht intuitive Tatsache ist evolutionär: „In den großen, hochentwickelten sensorischen und motorischen Teilen des menschlichen Gehirns stecken Milliarden von Jahren Wissen über die Natur von Die Erfahrung, wie man darin überleben kann [auf der anderen Seite] ist dieser Denkprozess, den wir höheres Denken nennen, meines Erachtens die dünnste Schicht des menschlichen Geistes, und sie funktioniert nur, weil sie dies versteht. Angetrieben von einem älteren, leistungsfähigeren, wenn auch oft unbewussten, sensomotorischen Wissen sind wir alle große Olympioniken in Wahrnehmung und Bewegung, so gut, dass wir das Schwierige einfach aussehen lassen Fähigkeiten. Erst vor wenigen Wochen schrieb ein Team von DeepMind-Forschern in einem neuen Artikel: „Das Verständnis aktueller KI-Systeme für ‚intuitive Physik‘ verblasst im Vergleich zu dem sehr kleiner Kinder.
All das. Was ist das Ergebnis?“
So etwas wie allgemeine künstliche Intelligenz gibt es nicht.
AGI ist weder möglich noch unmöglich. Vielmehr ist es als Konzept inkohärent.
Intelligenz ist keine einzelne, genau definierte, verallgemeinerbare Fähigkeit oder gar eine spezifische Gruppe von Fähigkeiten. Auf der höchsten Ebene ist intelligentes Verhalten einfach ein Akteur, der Wissen über seine Umgebung erwirbt und nutzt, um seine Ziele zu verfolgen. Da es eine große (theoretisch unendliche) Anzahl verschiedener Arten von Agenten, Umgebungen und Zielen gibt, kann sich Intelligenz auf unzählige verschiedene Arten manifestieren.
KI-Guru Yann LeCun hat es gut auf den Punkt gebracht: „Es gibt keine allgemeine künstliche Intelligenz … selbst Menschen sind spezialisiert.“
Definieren Sie „allgemeine“ oder „echte“ künstliche Intelligenz als etwas, das das tun kann, was Menschen können Das Wichtigste (aber Bessere) an künstlicher Intelligenz – die Idee, dass menschliche Intelligenz allgemeine Intelligenz ist – ist die kurzsichtige Menschenzentrierung. Wenn wir die menschliche Intelligenz als ultimativen Anker und Maßstab für die Entwicklung künstlicher Intelligenz betrachten, werden wir all die mächtigen, tiefgreifenden, unerwarteten, gesellschaftlich vorteilhaften und völlig nichtmenschlichen Fähigkeiten verpassen, die maschinelle Intelligenz möglicherweise hat.
Stellen Sie sich eine KI vor, die die Zusammensetzung der Erdatmosphäre auf atomarer Ebene versteht und dynamisch mit extrem hoher Genauigkeit vorhersagen könnte, wie sich das gesamte System im Laufe der Zeit entwickeln würde. Stellen Sie sich vor, es wäre möglich, einen präzisen, sicheren Geoengineering-Eingriff zu entwickeln, bei dem wir bestimmte Mengen bestimmter Verbindungen an bestimmten Orten in der Atmosphäre ablagern und so den durch die anhaltenden Kohlenstoffemissionen der Menschheit verursachten Treibhauseffekt ausgleichen und die Auswirkungen der globalen Erwärmung abschwächen der Erdoberfläche.
Stellen Sie sich eine künstliche Intelligenz vor, die jeden biologischen und chemischen Mechanismus im menschlichen Körper bis auf die molekulare Ebene verstehen kann. Stellen Sie sich vor, es könnte auf diese Weise eine auf die Gesundheit jedes Einzelnen zugeschnittene Diät verschreiben, die Grundursache jeder Krankheit genau diagnostizieren und neue personalisierte Therapien (auch wenn es diese noch nicht gäbe) zur Behandlung schwerer Krankheiten entwickeln.
Stellen Sie sich vor, dass eine KI ein Protokoll erfinden könnte, um Atomkerne auf eine Weise zu verschmelzen, die sicher mehr Energie produziert, als sie verbraucht, und so die Kernfusion als kostengünstige, nachhaltige und unendlich reichlich vorhandene Energiequelle für die Menschheit erschließen könnte.
All diese Szenarien sind auch heute noch Fantasien und für die heutige künstliche Intelligenz unerreichbar. Der Punkt ist, dass das wahre Potenzial der künstlichen Intelligenz in dem Weg liegt, der zur Entwicklung neuer Formen der Intelligenz führt, die völlig anders sind als alles, was Menschen tun können. Wenn KI ein solches Ziel erreichen kann, wen interessiert es dann, ob sie „universell“ im Sinne der Übereinstimmung mit den menschlichen Fähigkeiten insgesamt ist?
Die Positionierung als „allgemeine künstliche Intelligenz“ schränkt und schmälert das Potenzial dieser Technologie. Und da die menschliche Intelligenz keine allgemeine Intelligenz ist, die es nicht gibt, ist sie von vornherein konzeptionell inkohärent.
Wie ist es, eine künstliche Intelligenz zu sein?
Der Google-Ingenieur Blake Lemoine löste letzten Monat eine Welle von Kontroversen und Kommentaren aus, als er öffentlich behauptete, dass eines der großen Sprachmodelle von Google bekannt geworden sei. (Bevor Sie sich eine endgültige Meinung bilden, lohnt es sich, die vollständige Abschrift der Diskussion zwischen Lemoine und KI selbst zu lesen.)
Die meisten Menschen – insbesondere KI-Experten – halten Lemoines Behauptungen für falsch und unvernünftig.
Google sagte in seiner offiziellen Antwort: „Unser Team hat Blacks Bedenken geprüft und ihm mitgeteilt, dass die Beweise seine Behauptungen nicht stützen.“ Erik Brynjolfsson, Professor an der Stanford University, glaubt, dass sensorische künstliche Intelligenz weitere 50 Jahre brauchen könnte. Gary Marcus mischte sich ein und bezeichnete Lemoines Behauptungen als „Unsinn“ und kam zu dem Schluss, dass es „hier nichts zu sehen gibt“.
Das Problem bei dieser gesamten Diskussion – einschließlich der Ablehnung durch Experten – besteht darin, dass die Existenz oder Abwesenheit von Wahrnehmung per Definition unbeweisbar, nicht falsifizierbar und nicht erkennbar ist.
Wenn wir über Wahrnehmung sprechen, beziehen wir uns auf die subjektive innere Erfahrung des Handelnden, nicht auf irgendeine äußere intellektuelle Manifestation. Niemand – nicht Blake Lemoine, nicht Erik Brynjolfsson, nicht Gary Marcus – kann ganz sicher sein, was hochkomplexe künstliche neuronale Netze intern tun oder nicht.
1974 veröffentlichte der Philosoph Thomas Nagel einen Artikel mit dem Titel „Wie ist es, eine Fledermaus zu sein?“ "Artikel. In diesem Artikel, einem der einflussreichsten philosophischen Aufsätze des 20. Jahrhunderts, wurde das notorisch schwer fassbare Konzept des Bewusstseins in einer einfachen, intuitiven Definition zusammengefasst: Ein Handelnder ist bewusst, wenn es etwas gibt, das bereit ist, dieser Handelnde zu sein. Zum Beispiel ist es etwas Besonderes, mein Nachbar oder sogar sein Hund zu sein, aber sein Briefkasten zu sein, ist nichts Vergleichbares.
Eine Kernbotschaft des Papiers ist, dass es unmöglich ist, genau zu wissen, wie es sich anfühlt, auf sinnvolle Weise ein anderer Organismus oder eine andere Spezies zu sein. Je unähnlicher ein anderer Organismus oder eine andere Spezies uns ist, desto unzugänglicher wird seine innere Erfahrung sein.
Nagel nutzt Fledermäuse als Beispiel, um diesen Punkt zu veranschaulichen. Er entschied sich für Fledermäuse, weil sie als Säugetiere hochkomplexe Lebewesen sind, ihre Lebenserfahrung sich jedoch stark von unserer unterscheidet: Sie fliegen, sie nutzen Sonar als primäres Mittel zur Wahrnehmung der Welt und so weiter.
Wie Nagel sagt (es lohnt sich, einige Absätze aus dem Papier vollständig zu zitieren):
„Unsere eigene Erfahrung liefert das Grundmaterial für unsere Vorstellungskraft, daher ist der Spielraum der Vorstellungskraft begrenzt.“ Eine Person fliegt in der Dämmerung und im Morgengrauen herum, und es hilft nicht, dass eine Person ein schlechtes Sehvermögen hat und die Welt um sich herum durch ein System reflektierter hochfrequenter Schallsignale wahrnimmt Den ganzen Tag auf dem Dachboden.
„Soweit ich es mir vorstellen kann (was nicht sehr weit entfernt ist), sagt es mir nur, wie es wäre, sich wie eine Fledermaus zu benehmen. Aber das ist nicht das Problem. Ich frage mich, wie es sich für eine Fledermaus anfühlt, eine Fledermaus zu sein. Wenn ich jedoch versuchen würde, mir das vorzustellen, wäre ich auf die Ressourcen meines eigenen Geistes beschränkt, die für diese Aufgabe nicht ausreichen. Ich kann es nicht erreichen, indem ich mir Ergänzungen zu meiner gegenwärtigen Erfahrung vorstelle, oder indem ich mir vorstelle, dass Fragmente nach und nach daraus entfernt werden, oder indem ich mir eine Kombination von Hinzufügungen, Entfernungen und Modifikationen vorstelle. „
Künstliche neuronale Netze sind für uns Menschen weitaus fremder und unzugänglicher als Fledermäuse, die zumindest Säugetiere und kohlenstoffbasierte Lebensformen sind.
Noch einmal der grundlegende Fehler, den zu viele Kommentatoren zu diesem Thema machen (oft nicht einmal berücksichtigt). ist die Annahme, dass wir unsere Erwartungen an die menschliche Wahrnehmung oder Intelligenz einfach auf künstliche Intelligenz abbilden können
Wir können die inhärente Erfahrung künstlicher Intelligenz überhaupt nicht bestimmen oder überhaupt darüber nachdenken Wie können wir das Thema KI-Wahrnehmung auf produktive Weise angehen?
Wir können uns oft vom Turing-Test inspirieren lassen, der erstmals 1950 von Alan Turing vorgeschlagen wurde. Kritisiert oder missverstanden und sicherlich unvollkommen, hat er sich im Laufe der Zeit bewährt ein Bezugspunkt im Bereich der KI, weil es bestimmte grundlegende Erkenntnisse über die Natur der maschinellen Intelligenz erfasst, die wir erkennen und akzeptieren. Es gibt niemals einen direkten Zugang zur Realität der internen Erfahrung einer KI Um die Intelligenz einer KI zu messen, besteht unsere einzige Möglichkeit darin, ihr Verhalten zu beobachten und dann entsprechende Schlussfolgerungen zu ziehen (Um es klar auszudrücken, Abbildung). Der Schwerpunkt liegt auf der Beurteilung der Denkfähigkeit einer Maschine, nicht unbedingt ihrer Fähigkeit zu fühlen. Für unsere Zwecke gilt jedoch Relevant sind die zugrunde liegenden Prinzipien. Douglas Hofstadter hat diese Idee besonders eloquent formuliert: „Woher wissen Sie, dass in mir etwas vorgeht, das dem ähnelt, was Sie ‚Denken‘ nennen, wenn ich mit Ihnen spreche? Der Turing-Test ist eine erstaunliche Sonde – wie ein Teilchenbeschleuniger in der Physik. Wenn Sie genau wie in der Physik verstehen möchten, was auf atomarer oder subatomarer Ebene vor sich geht, streuen Sie beschleunigte Teilchen von relevanten Zielen weg und beobachten ihr Verhalten, da Sie es nicht direkt sehen können. Daraus können Sie auf die internen Eigenschaften des Ziels schließen. Der Turing-Test erweitert diese Idee auf den Geist. Es behandelt Ideen als „Objekte“, die nicht direkt sichtbar sind, deren Struktur aber abstrakter erschlossen werden kann. Indem Sie das Problem vom Geist des Ziels „ablenken“, können Sie dessen Innenleben verstehen, genau wie in der Physik. „
Um Fortschritte in der Diskussion über die KI-Wahrnehmung zu erzielen, müssen wir uns an beobachtbaren Darstellungen als Stellvertretern für interne Erfahrungen orientieren; andernfalls drehen wir uns in losen, leeren Debatten, die in einer Sackgasse enden
Erik Brynjolfsson ist überzeugt dass die heutige KI nicht empfindungsfähig ist, doch seine Kommentare deuten darauf hin, dass er glaubt, dass die KI irgendwann empfindungsfähig sein wird. Woher wird er wissen, wonach er suchen wird?
In der Debatte um KI beschreiben Skeptiker die Technologie oft mit vereinfachten Begriffen, die ihre Fähigkeiten herunterspielen.
Wie es ein KI-Forscher als Antwort auf die Nachrichten von Blake Lemoine ausdrückte: „Es ist mysteriös, zu hoffen, durch Symbol- und Datenverarbeitung mithilfe höherdimensionaler parametrischer Funktionen Bewusstsein, Verständnis oder gesunden Menschenverstand zu erlangen.“ Gary Marcus argumentierte, dass die heutigen KI-Modelle nicht einmal „telepathisch intelligent“ seien, weil „sie lediglich Muster abgleichen und Daten aus riesigen statistischen Datenbanken abrufen“. Er glaubt, dass Googles groß angelegtes Sprachmodell LaMDA nur „Word Spreadsheet“ ist.
Diese Argumentation ist irreführend und trivial. Wenn wir dies wünschen, können wir schließlich die menschliche Intelligenz auf ähnlich vereinfachte Weise aufbauen: Unser Gehirn ist „nur“ eine große Ansammlung von Neuronen, die auf bestimmte Weise miteinander verbunden sind, „nur“ eine Ansammlung grundlegender chemischer Reaktionen in unserem Schädel.
Aber das geht am Thema vorbei. Die Kraft und Magie der menschlichen Intelligenz liegt nicht in bestimmten Mechanismen, sondern in der unglaublichen Fähigkeit, auf irgendeine Weise hervorzutreten. Einfache Grundfunktionen können zutiefst intellektuelle Systeme hervorbringen.
Letztendlich müssen wir KI anhand ihrer Fähigkeiten beurteilen.
Wenn wir den Stand der KI vor fünf Jahren mit dem Stand der Technik heute vergleichen, besteht kein Zweifel daran, dass sich ihre Fähigkeiten und Tiefe dank Durchbrüchen in Bereichen wie selbstüberwachtem Lernen erheblich (und immer noch beschleunigt) erweitert haben. Transformatoren und verstärkendes Lernen.
Künstliche Intelligenz ist nicht wie menschliche Intelligenz. Wann und ob eine KI empfindungsfähig wird – wann und ob sie jemals, in Nagels Formulierung, „wie etwas“ wird –, wird sie nicht mit dem vergleichbar sein, was es heißt, ein Mensch zu sein. Künstliche Intelligenz ist eine eigene, einzigartige, unbekannte, faszinierende und sich schnell entwickelnde Form der Erkenntnis.
Entscheidend ist, was künstliche Intelligenz leisten kann. Durchbrüche in der Grundlagenforschung wie AlphaFold, die Bewältigung von Herausforderungen auf Artenebene wie dem Klimawandel, die Förderung der menschlichen Gesundheit und Langlebigkeit sowie die Vertiefung unseres Verständnisses der Funktionsweise des Universums – diese Ergebnisse sind ein echter Test für die Leistungsfähigkeit und Komplexität der KI.
Das obige ist der detaillierte Inhalt vonAllgemeine künstliche Intelligenz, Wahrnehmung künstlicher Intelligenz und große Sprachmodelle. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!