Wir können weder Ziele völlig korrekt angeben, noch können wir den Schaden vorhersagen oder verhindern, den Maschinen mit Superkräften, die falsche Ziele verfolgen, auf globaler Ebene anrichten werden. Wir haben bereits Beispiele von Social-Media-Algorithmen gesehen, die die Präferenzen von Menschen ausnutzen, um Klicks zu optimieren, mit katastrophalen Folgen für demokratische Institutionen.
Nick Bostroms Buch „Superintelligence: Paths, Danger, Strategies“ aus dem Jahr 2014 geht näher auf die Idee ein, Risiken ernst zu nehmen. Die Zeitschrift „The Economist“ rezensierte dieses Buch und kam zu dem Schluss: „Die Einführung einer zweiten intelligenten Spezies auf der Erde hat weitreichende Konsequenzen und verdient unser tiefes Nachdenken.
Natürlich, in bestimmten Situationen.“ Wo viel auf dem Spiel steht, denken weise Männer bereits intensiv nach: Sie führen ernsthafte Debatten, wägen die Vor- und Nachteile ab, suchen nach Lösungen, finden Lösungslücken usw. Soweit ich weiß, hatten diese Bemühungen wenig Erfolg und stießen auf allerlei Ablehnung.
Die Argumente einiger prominenter Forscher im Bereich der künstlichen Intelligenz sind es kaum wert, widerlegt zu werden. Hier sind einige der Dutzenden Aussagen, die ich in Artikeln gesehen oder auf Konferenzen gehört habe:
Elektronische Taschenrechner sind im Rechnen konkurrenzlos, und Taschenrechner erobern nicht die Welt; daher gibt es keinen Grund dazu Sorgen Sie sich um übermenschliche künstliche Intelligenz.
Es gab in der Geschichte kein Beispiel dafür, dass Maschinen Millionen von Menschen töteten, und angesichts dessen wird es auch in Zukunft nicht passieren.
Es gibt keine unendlichen physikalischen Größen im Universum, und Intelligenz ist keine Ausnahme, sodass man sich über Superintelligenz keine allzu großen Sorgen machen muss.
Vielleicht ist die häufigste Antwort von Forschern der künstlichen Intelligenz: „Wir können sie ausschalten, aber er war nicht allzu zuversichtlich: #🎜🎜 #
Wenn.“ Eine Maschine könnte denken, sie könnte umfassender denken als wir. Wo wären wir also? Selbst wenn Maschinen dazu gebracht werden können, sich uns zu beugen, indem sie beispielsweise in kritischen Momenten abschalten, sollten wir uns als Spezies schämen ... Diese neue Gefahr ... wird uns zwangsläufig Angst machen. Das Ausschalten der Maschine wird nicht funktionieren. Der Grund ist ganz einfach. Das superintelligente Wesen wird diese Möglichkeit auf jeden Fall in Betracht ziehen und Maßnahmen ergreifen, um dies zu verhindern. Es tut dies nicht, weil es „überleben will“, sondern weil es die Ziele verfolgt, die wir ihm gesetzt haben, und weiß, dass es scheitern wird, wenn es ausgeschaltet wird. Wir können es nicht einfach „ausschalten“, genauso wenig wie wir Alpha Go schlagen können, indem wir einfach die Spielsteine auf die entsprechenden Felder auf dem Spielbrett legen. Andere Formen der Verleugnung wecken komplexere Ideen, wie zum Beispiel die Vorstellung, dass Intelligenz vielfältig ist. Beispielsweise verfügt eine Person möglicherweise über eine höhere räumliche Intelligenz als eine andere, aber über eine geringere soziale Intelligenz. Daher können wir sie nicht alle in einer strengen Reihenfolge ihrer Intelligenz einstufen. Dies gilt umso mehr für Maschinen: Es macht keinen Sinn, die „Intelligenz“ von AlphaGo mit der der Google-Suchmaschine zu vergleichen. Kevin Kelly, Gründungs-Chefredakteur des Wired-Magazins und aufschlussreicher Technologiekommentator, geht mit dieser Idee noch einen Schritt weiter. „Intelligenz ist keine einzelne Dimension, daher ist ‚klüger als menschlich‘ ein bedeutungsloses Konzept“, schrieb er in seinem Buch „Der Mythos einer übermenschlichen KI“. Meine Sorgen wurden durch einen Pol umgeworfen. Nun gibt es eine offensichtliche Antwort: Maschinen können Menschen in allen relevanten Dimensionen der Intelligenz übertreffen. In diesem Fall wäre der Roboter selbst nach Kellys strengen Maßstäben schlauer als ein Mensch. Aber diese ziemlich starke Annahme ist nicht notwendig, um Kellys Argument zu widerlegen.Nehmen Sie Schimpansen als Beispiel. Schimpansen verfügen möglicherweise über ein besseres Kurzzeitgedächtnis als Menschen, selbst bei Aufgaben, bei denen Menschen überragend sind, etwa beim Abrufen von Zahlenfolgen. Das Kurzzeitgedächtnis ist eine wichtige Dimension der Intelligenz. Nach Kellys Argumentation sind Menschen nicht schlauer als Schimpansen, er würde sogar sagen, „klüger als Schimpansen“ sei ein bedeutungsloses Konzept.
Das ist kein Trost für die Schimpansen und andere Arten, die nur dank menschlicher Toleranz überleben, und für alle Arten, die der Mensch zerstört hat. Auch dies ist kein Trost für alle, die befürchten, von Maschinen ausgelöscht zu werden.
Manche Leute denken, dass Superintelligenz unerreichbar ist, sodass das Risiko von Superintelligenz nicht mehr besteht. Diese Behauptungen sind nicht neu, aber es ist überraschend, dass KI-Forscher selbst mittlerweile sagen, dass eine solche künstliche Intelligenz unmöglich sei. Im wichtigen Bericht „Künstliche Intelligenz und Leben im Jahr 2030“ der Organisation AI100 heißt es beispielsweise: „Im Gegensatz zu Filmszenen werden und können übermenschliche Roboter in Zukunft nicht in der Realität auftauchen.“
Soweit ich weiß, ist dies das erste Mal, dass ein ernsthafter Forscher für künstliche Intelligenz öffentlich erklärt hat, dass künstliche Intelligenz auf menschlicher oder übermenschlicher Ebene unmöglich ist, und dies geschah in einer Zeit der rasanten Entwicklung der Forschung im Bereich der künstlichen Intelligenz die eine nach der anderen Eine Barriere wird durchbrochen. Es wäre, als würde eine Gruppe erstklassiger Krebsbiologen verkünden, dass sie uns die ganze Zeit getäuscht haben: Sie wussten von Anfang an, dass es niemals eine Heilung für Krebs geben würde.
Was hat diese große Veränderung ausgelöst? Der Bericht enthielt keine Argumente oder Beweise. (Welche Beweise gibt es tatsächlich dafür, dass es physikalisch unmöglich ist, eine bessere Anordnung der Atome als im menschlichen Gehirn zu haben?) Ich denke, der Hauptgrund ist Tribalismus – eine Verteidigung gegen einen möglichen „Angriff“ auf die künstliche Intelligenz: den Instinkt. Es erscheint jedoch etwas seltsam, eine superintelligente KI als etwas zu betrachten, das einen Angriff auf die KI darstellen könnte, und eine KI zu verteidigen, indem man sagt, sie werde ihre Ziele niemals erreichen, erscheint noch absurder. Wir können nicht sicherstellen, dass zukünftige Katastrophen nicht passieren, indem wir auf die Grenzen der menschlichen Kreativität setzen.
Streng genommen ist übermenschliche künstliche Intelligenz nicht unmöglich. Müssen wir uns also nicht vorzeitig über ihre Risiken Gedanken machen? Der Informatiker Andrew Ng meint, das gleicht der Sorge vor einer „Überbevölkerung auf dem Mars“. Dennoch geben langfristige Risiken weiterhin Anlass zur Sorge. Wann man sich über ein potenziell schwerwiegendes Problem Sorgen machen muss, an dem Menschen beteiligt sind, hängt nicht nur davon ab, wann das Problem auftritt, sondern auch davon, wie lange es dauert, eine Lösung vorzubereiten und umzusetzen.
Um beispielsweise einen Asteroiden zu entdecken, der 2069 mit der Erde kollidieren wird, werden wir dann bis 2068 warten, um mit der Arbeit an einer Lösung zu beginnen? Natürlich nicht! Die Menschheit wird globale Notfallprojekte ins Leben rufen, um Wege zu finden, mit Bedrohungen umzugehen, weil wir nicht im Voraus wissen können, wie viel Zeit wir brauchen werden.
Ng Endas Standpunkt lässt die Menschen auch das Gefühl haben, dass es unmöglich ist, Milliarden von Menschen zum Mars zu bringen. Diese Analogie ist falsch. Wir investieren enorme Mengen an wissenschaftlichen und technologischen Ressourcen in die Entwicklung leistungsfähigerer KI-Systeme, ohne Rücksicht darauf, was passieren wird, wenn wir Erfolg haben. Wir können eine passendere Analogie ziehen: Wir planen, Menschen zum Mars zu bringen, ohne die Atem- und Essprobleme nach der Ankunft zu berücksichtigen. Manche halten diesen Plan vielleicht für unklug.
Eine andere Möglichkeit, das potenzielle Problem zu umgehen, besteht darin, zu behaupten, dass Bedenken hinsichtlich des Risikos auf Unwissenheit zurückzuführen sind. Oren Etzioni, CEO des Allen Institute for Artificial Intelligence, hat beispielsweise Elon Musk und Stephen Hawking beschuldigt, Ludditen zu sein (Missbilligung neuer Technologien), die auf die potenziellen Bedrohungen durch KI aufmerksam gemacht und einen blinden Drang zum Widerstand gegen neue Dinge hervorgerufen hätten. :
Jede aufkommende technologische Innovation versetzt die Menschen in Angst. Von Webern, die zu Beginn des Industriezeitalters Schuhe in Webstühle warfen, bis hin zur heutigen Angst vor Killerrobotern: Wir fragen uns, welche Auswirkungen neue Technologien auf unser Selbstbewusstsein und unseren Lebensunterhalt haben werden. Wenn wir nichts wissen, geraten wir in Panik.
Selbst wenn man dieses klassische, trügerische Argument für bare Münze nimmt, ist es nicht stichhaltig. Hawking ist kein Unbekannter im wissenschaftlichen Denken, und Musk hat mehrere Forschungsprojekte im Bereich der künstlichen Intelligenz betreut und in diese investiert. Noch unqualifizierter ist die Annahme, dass Bill Gates, I.J. Good, Marvin Minsky, Alan Turing und Norbert Wiener nicht mehr dazu geeignet sind, über künstliche Intelligenz zu diskutieren.
Es ist auch völlig falsch, Luddismus zu beschuldigen. Es ist, als würde jemand Nuklearingenieuren vorwerfen, Idioten zu sein, wenn sie auf die Notwendigkeit hinweisen, Spaltungsreaktionen zu kontrollieren. Das heißt, die Risiken der KI zu erwähnen bedeutet, ihre potenziellen Vorteile zu leugnen. Nehmen Sie Oren Etzioni als Beispiel:
Pessimistische Prognosen berücksichtigen oft nicht die potenziellen Vorteile künstlicher Intelligenz bei der Vermeidung medizinischer Unfälle und der Reduzierung von Autounfällen.
Kürzlich hatte Facebook-CEO Mark Zuckerberg einen Medienaustausch mit Elon Musk:
Künstliche Intelligenz abzulehnen bedeutet, sich gegen das Fehlen von Unfällen, sicherere Autos und eine genauere Diagnose des Patientenzustands zu stellen.
Die Vorstellung, dass jeder, der Risiken erwähnt, „Anti-KI“ ist, ist bizarr. (Sind Nuklearsicherheitsingenieure „gegen Elektrizität“?) Darüber hinaus ist das gesamte Argument aus zwei Gründen genau konträr. Erstens: Wenn es keine potenziellen Vorteile gäbe, gäbe es keinen Anreiz für die KI-Forschung und die Gefahren, die von KI auf menschlicher Ebene ausgehen, und wir würden nicht darüber diskutieren. Zweitens: Wenn das Risiko nicht erfolgreich gemindert werden kann, wird es keinen Nutzen geben.
Katastrophale Ereignisse wie Three Mile Island im Jahr 1979, Tschernobyl im Jahr 1986 und Fukushima, Japan im Jahr 2011, haben die potenziellen Vorteile der Kernenergie erheblich verringert. Diese nuklearen Katastrophen beeinträchtigten die Entwicklung der Atomindustrie erheblich. Italien hat 1990 aus der Atomenergie ausgestiegen, und Belgien, Deutschland, Spanien und die Schweiz haben bereits angekündigt, aus den Atomenergieplänen auszusteigen. Von 1991 bis 2010 belief sich die jährliche Nettozubau neuer Kernkraftwerkskapazität auf etwa ein Zehntel dessen, was in den Jahren vor dem Unfall von Tschernobyl der Fall war.
Seltsamerweise glaubt der berühmte Kognitionswissenschaftler Steven Pinker angesichts dieser Ereignisse als Warnung immer noch, dass Menschen aufgrund der „Sicherheitskultur fortgeschrittener Gesellschaften“ nicht auf die Risiken künstlicher Intelligenz aufmerksam machen sollten. Alle erheblichen KI-Risiken werden gewährleistet . Selbst wenn man Tschernobyl, Fukushima und die durch unsere fortschrittliche Sicherheitskultur verursachte rasante globale Erwärmung außer Acht lässt, geht Pinkers Argumentation völlig am Kern der Sache vorbei. Zu einer funktionierenden Sicherheitskultur gehört es, potenzielle Fehlerarten aufzuzeigen und Möglichkeiten zu finden, diese zu verhindern. Das Standardmodell der KI sind Fehlerarten.
Pinker glaubt auch, dass problematisches KI-Verhalten auf das Setzen bestimmter Arten von Zielen zurückzuführen ist; wenn diese nicht berücksichtigt werden, wird es keine Probleme geben:
AI Dystopian Projects Projekt a enge männliche Mentalität auf den Begriff der Intelligenz. Sie glauben, dass Roboter mit übermenschlicher Intelligenz Ziele wie den Sturz ihrer Herren oder die Eroberung der Welt haben werden.
Yann LeCun, ein Deep-Learning-Pionier und Leiter der KI-Forschung bei Facebook, zitiert oft den gleichen Punkt, wenn er die Risiken von KI herunterspielt:
Wir müssen nicht zulassen KI hat Selbsterhaltungsinstinkte, Eifersucht usw. KI wird keine destruktiven „Emotionen“ haben, es sei denn, wir integrieren diese Emotionen in sie.
Wer dieses Risiko für vernachlässigbar hält, erklärt nicht, warum superkünstliche Intelligenz unter menschlicher Kontrolle stehen muss.
Tatsächlich spielt es keine Rolle, ob wir „Emotionen“ oder „Wünsche“ (wie Selbsterhaltung, Ressourcenbeschaffung, Wissensentdeckung oder im Extremfall Weltherrschaft) eingebettet haben. Maschinen werden diese Emotionen sowieso erzeugen, genau wie die Unterziele der Ziele, die wir aufbauen – egal welches Geschlecht es ist. Wie die Perspektive „Maschine ausschalten“ zeigt, ist das Ende der Lebensdauer einer Maschine an sich keine schlechte Sache. Dennoch sollte eine Lebensbeendigung vermieden werden, da es ihnen nach der Beendigung schwerer fallen wird, ihre Ziele zu erreichen.
Eine gängige Variante des Arguments „Vermeiden Sie das Setzen von Zielen“ ist, dass ein ausreichend intelligentes System aufgrund seiner Intelligenz zwangsläufig von selbst die „richtigen“ Ziele setzt. Der Philosoph David Hume aus dem 18. Jahrhundert widerlegte diese Ansicht in „A Treatise of Human Nature“. In seinem Buch „Superintelligence“ (Superintelligenz) betrachtet Nick Bostrom Humes Ansicht als einen orthogonalen Satz:
Es gibt eine orthogonale Beziehung zwischen Intelligenz und dem ultimativen Ziel: Jede Intelligenzstufe kann mit mehr kombiniert werden oder weniger irgendein Endziel.
Zum Beispiel kann das Ziel eines selbstfahrenden Autos jeder vorgegebene Ort sein; die Verbesserung des autonomen Fahrens bedeutet nicht, dass es sich automatisch weigert, zu Adressen zu fahren, die etablierte mathematische Berechnungen erfordern.
Ebenso ist es nicht schwer, sich vorzustellen, dass einem allgemeinen intelligenten System mehr oder weniger Ziele vorgegeben werden könnten, darunter die Maximierung der Anzahl der Büroklammern oder der Anzahl der Stellen bekannter Pi. So funktionieren Reinforcement-Learning-Systeme und andere Belohnungsoptimierer: Der Algorithmus ist völlig allgemein und kann jedes Belohnungssignal akzeptieren. Für Ingenieure und Informatiker, die im Standardmodell arbeiten, ist der Orthogonalitätssatz einfach eine Selbstverständlichkeit.
Der berühmte Robotik-Experte Rodney Brooks kritisierte Bostroms orthogonale These deutlich. Er behauptete, dass ein Programm „nicht intelligent genug sein kann, um die Methoden der menschlichen Gesellschaft zu untergraben.“ ohne zu verstehen, wie es den Menschen Probleme bereitet.“
Angesichts von Bruskes Definition des Problems ist ein solches Programm jedoch nicht nur möglich, sondern tatsächlich unvermeidlich. Bruske glaubt, dass die Best Practices von Maschinen zum „Erreichen von vom Menschen gesetzten Zielen“ Probleme für den Menschen verursachen. Man erkennt, dass diese Probleme die Vernachlässigung menschlicher Ziele bei der Festlegung von Zielen widerspiegeln. Die beste Lösung, die von einer Maschine ausgeführt wird, verursacht wahrscheinlich Probleme für den Menschen, und die Maschine ist sich dessen wahrscheinlich bewusst, aber es ist offensichtlich nicht ihre Sache, dass die Maschine diese Probleme nicht als problematisch ansieht.
Kurz gesagt, die „Skeptiker“, die glauben, dass die von KI ausgehenden Risiken minimal sind, erklären nicht, warum Super-KI-Systeme unter menschlicher Kontrolle stehen müssen; sie versuchen nicht einmal zu erklären, warum Super-KI-Systeme dies tun niemals entwickelt werden.
Der Bereich der künstlichen Intelligenz muss Risiken eingehen und sein Bestes tun, um sie zu reduzieren, anstatt weiterhin in Opposition und Verleumdung zu verfallen und immer wieder unglaubwürdige Argumente auszugraben. Soweit wir wissen, sind diese Risiken weder trivial noch unüberwindbar. Der erste Schritt besteht darin, zu erkennen, dass das Standardmodell ersetzt werden muss und dass das KI-System ein festgelegtes Ziel optimiert. Das ist schlechte Technik. Wir müssen viel Arbeit leisten, um die Grundlagen der künstlichen Intelligenz neu zu gestalten und zu rekonstruieren.
Das obige ist der detaillierte Inhalt vonEs ist noch nicht zu spät, sich vor künstlicher Intelligenz in Acht zu nehmen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!