Der offene Brief von Musk und anderen, in dem die Einstellung der KI-Forschung gefordert wurde, wurde in Frage gestellt und beschuldigt, den Hype zu verschärfen und Papiere zu verfälschen

王林
Freigeben: 2023-04-17 08:07:02
nach vorne
1524 Leute haben es durchsucht

Der offene Brief von Musk und anderen, in dem die Einstellung der KI-Forschung gefordert wurde, wurde in Frage gestellt und beschuldigt, den Hype zu verschärfen und Papiere zu verfälschen

Nachrichten vom 31. März: Elon Musk, CEO von Tesla, Steve Wozniak, Mitbegründer von Apple, und Tausende andere. Eine Reihe von KI-Forschern hat kürzlich einen offenen Brief unterzeichnet, in dem sie ein Moratorium für die Erforschung fortschrittlicherer KI-Technologien fordert. Dieser Brief wurde jedoch von vielen Experten und sogar Unterzeichnern in Frage gestellt und beschuldigt, den KI-Hype zu verschärfen, Unterschriften zu fälschen und Papiere zu verfälschen.

Dieser offene Brief wurde vom Future of Life Institute verfasst, einer gemeinnützigen Organisation, deren Aufgabe es ist, „die globalen katastrophalen und existenziellen Risiken leistungsstarker Technologien zu reduzieren“. Konkret konzentriert sich das Institut auf die Abmilderung langfristiger „existentieller“ Risiken für die Menschheit, wie beispielsweise superintelligente KI. Musk ist ein Unterstützer der Organisation und spendete ihr im Jahr 2015 10 Millionen US-Dollar.

In dem Brief heißt es: „Leistungsstärkere KI-Systeme sollten nur dann entwickelt werden, wenn wir davon überzeugt sind, dass die Auswirkungen der KI positiv sind und die Risiken kontrollierbar sind. Daher fordern wir alle KI-Labore auf, die Schulung der KI sofort für mindestens 6 Monate auszusetzen.“ Systeme, die leistungsfähiger sind als GPT-4, sollten diese Zeit nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung zu entwickeln und zu implementieren, die von unabhängigen externen Experten streng geprüft und überwacht werden In dem Brief wurde auch klargestellt: „Dies bedeutet nicht, dass die KI-Entwicklung generell auf Eis gelegt wird, sondern lediglich ein Rückzug aus der gefährlichen Konkurrenz hin zu größeren, unvorhersehbaren Black-Box-Modellen mit aufkommenden Fähigkeiten.“ wie Microsoft und Google, die im vergangenen Jahr viele neue KI-Produkte herausgebracht haben.

Weitere namhafte Unterzeichner sind unter anderem Emad Mostaque, CEO des Bildgenerator-Startups Stability AI, sowie der Autor und Historiker Yuval Noah Harari und Pinterest-Mitbegründer Evan Sharp. Es gab auch Unterschriften von Mitarbeitern der am KI-Wettbewerb beteiligten Unternehmen, darunter das Google-Schwesterunternehmen DeepMind und Microsoft. Obwohl OpenAI die GPT-Reihe von KI-Modellen entwickelt und kommerzialisiert hat, hat niemand den Brief unterschrieben.

Obwohl der Brief den Verifizierungsprozess durchlaufen hat, hatte der Brief zunächst viele falsche Unterzeichner, darunter die Nachahmung von OpenAI-CEO Sam Altman und Meta-Chef-KI-Wissenschaftler Yann LeCun. Das Future of Life Institute hat inzwischen die Liste bereinigt und die Anzeige weiterer Unterschriften auf dem Brief ausgesetzt, während es jede Unterschrift überprüft.

Die Veröffentlichung dieses offenen Briefes hat jedoch für Aufruhr gesorgt und wurde von vielen KI-Forschern, darunter auch vielen der Unterzeichner selbst, genau unter die Lupe genommen. Einige Unterzeichner haben ihren Standpunkt widerrufen, einige prominente Unterschriften haben sich als gefälscht erwiesen und mehr KI-Forscher und Experten haben öffentlich ihre Einwände gegen die Beschreibung und den vorgeschlagenen Ansatz des Briefes geäußert.

Gary Marcus, Professor für Psychologie und Neurowissenschaften an der New York University, sagte: „Der Buchstabe ist nicht perfekt, aber der Geist ist richtig.“ Unterdessen twitterte Stability AI CEO Mushtaq, dass OpenAI ein wirklich „offenes“ KI-Unternehmen sei „Ich glaube also nicht, dass es die beste Idee ist, das Training für sechs Monate auszusetzen, und ich stimme mit vielen der Ansichten in dem Brief nicht überein, aber es gibt einige Dinge in dem Brief, die sehr interessant sind.“

KI-Experten kritisierten den Brief, weil er den „KI-Hype“ fördere, es aber versäume, die heute bestehenden KI-Schäden aufzulisten oder konkrete Maßnahmen zu fordern. Einige glauben, dass dies eine seit langem bestehende, aber etwas unrealistische Sichtweise fördert, die als schädlich und antidemokratisch kritisiert wurde, weil sie die Superreichen begünstigt und ihnen aus bestimmten Gründen moralisch zweifelhaftes Verhalten erlaubt.

Emily M. Bender, Professorin am Fachbereich Linguistik der University of Washington und Co-Autorin des am Anfang des offenen Briefs zitierten Artikels, schrieb auf Twitter, dass der Brief „voller KI-Hype“ sei und missbraucht werde ihre Forschungsergebnisse. In dem Brief heißt es: „Umfassende Untersuchungen zeigen, dass KI-Systeme mit vergleichbarer menschlicher Intelligenz eine erhebliche Bedrohung für die Gesellschaft und die Menschheit darstellen können. Bender entgegnete jedoch, dass sie in der Studie ausdrücklich darauf hingewiesen habe, dass sich diese Bedrohung auf die aktuellen groß angelegten Sprachmodelle beziehe.“ ihr Einsatz in Unterdrückungssystemen, was viel konkreter und dringlicher ist als die im offenen Brief postulierten zukünftigen KI-Bedrohungen.

Bender schrieb weiter: „Wir haben Ende 2020 einen ausführlichen Artikel veröffentlicht, in dem wir darauf hingewiesen haben, dass diese Eile, größere Sprachmodelle zu erstellen, ohne die Risiken zu berücksichtigen, problematisch ist. Das Risiko und der Schaden bestanden jedoch nie darin, dass ‚KI zu mächtig ist‘.“ im Gegenteil, es geht um die Konzentration der Macht in den Händen der Menschen, es geht um die Reproduktion von Unterdrückungssystemen, es geht um die Zerstörung von Informationsökosystemen, es geht um die Zerstörung natürlicher Ökosysteme usw.

Sasha Luccioni, Forschungswissenschaftlerin beim KI-Startup Hugging Face, sagte in einem Interview: „Der offene Brief ist im Wesentlichen irreführend: Er soll die Aufmerksamkeit aller auf die eingebildete Macht und den Schaden großer Sprachmodelle lenken und sehr vage und größtenteils ineffektiv vorschlagen.“ Lösungen, anstatt sich auf diese Schäden zu konzentrieren und sie hier und jetzt anzugehen, zum Beispiel mehr Transparenz zu fordern, wenn es um die Trainingsdaten und -fähigkeiten von LLM geht, oder um Gesetze zu bitten, die festlegen, wo und wann sie verwendet werden dürfen , außerordentlicher Professor für Informatik an der Princeton University, sagte, der offene Brief sei voller KI-Hype und „mache es noch wichtiger, sich mit echten, anhaltenden KI-Schäden zu befassen.

Der offene Brief wirft mehrere Fragen auf: „Sollten wir alle Jobs automatisieren, auch die, die erfüllend sind? Sollten wir nichtmenschliche Köpfe kultivieren, die irgendwann die menschliche Intelligenz übertreffen und uns ersetzen?“ Gefahr, die Kontrolle über die Zivilisation zu verlieren? „

In diesem Zusammenhang sagte Narayanan, dass diese Fragen „Unsinn“ und „absolut lächerlich“ seien. Ob Computer den Menschen ersetzen und die menschliche Zivilisation übernehmen werden, ist eine sehr ferne Frage, Teil des langfristigen Denkens, das uns von aktuellen Problemen ablenkt. Schließlich wird KI bereits in die Arbeitsplätze der Menschen integriert und verringert den Bedarf an bestimmten Berufen, anstatt eine Form „nichtmenschlichen Denkens“ zu sein, die uns „überflüssig“ machen wird.

Narayanan sagte auch: „Ich denke, diese können als legitime langfristige Bedenken angesehen werden, aber sie wurden immer wieder erwähnt und lenken die Aufmerksamkeit von aktuellen Schäden ab, einschließlich sehr realer Informationssicherheit und Sicherheitsrisiken! Und die Bewältigung dieser Sicherheitsrisiken wird.“ Leider kann der Hype in diesem Brief, einschließlich der Übertreibungen der KI-Fähigkeiten und der Risiken für das menschliche Überleben, zu weiteren Einschränkungen bei KI-Modellen führen, was es noch schwieriger macht, auf Risiken zu reagieren.“ Auch viele der Unterzeichner des offenen Briefes verteidigten sich. Yoshua Bengio, Gründer und wissenschaftlicher Leiter der Forschungsorganisation Mila, sagte, das sechsmonatige Moratorium sei notwendig, damit Regierungsbehörden, einschließlich Regierungen, KI-Systeme verstehen, prüfen und validieren könnten, um sicherzustellen, dass sie für die Öffentlichkeit sicher seien. Er fügte hinzu, dass es gefährliche Machtkonzentrationen gebe, KI-Tools das Potenzial hätten, Demokratien zu destabilisieren, und „es bestehe ein Konflikt zwischen demokratischen Werten und der Art und Weise, wie diese Tools entwickelt würden.“

Max Tegmark, Professor für Physik am NSF AI and Fundamental Interaction Institute (IAIFI) des MIT und Direktor des Future of Life Institute, sagte, dass das schlimmste Szenario darin besteht, dass die Menschen allmählich ihr Verständnis für die Kontrolle über die Zivilisation verlieren. Das Risiko bestehe nun darin, dass „wir die Kontrolle an eine Gruppe nicht gewählter, mächtiger Leute in Technologieunternehmen verlieren, die zu viel Einfluss haben.“

Diese Kommentare sprechen von einer riesigen Zukunft und deuten auf den Verlust der Angst vor zivilisierter Kontrolle hin. Über konkrete Maßnahmen wurde jedoch außer der Forderung nach einem sechsmonatigen Moratorium nicht gesprochen.

Timnit Gebru, ein Informatiker und Gründer des Distributed AI Institute, postete auf Twitter, dass es ironisch sei, dass sie ein Moratorium für das Training von KI-Modellen forderten, die leistungsfähiger als GPT-4 seien, ging dabei jedoch nicht auf eine Reihe von Bedenken ein GPT-4 selbst.

Das obige ist der detaillierte Inhalt vonDer offene Brief von Musk und anderen, in dem die Einstellung der KI-Forschung gefordert wurde, wurde in Frage gestellt und beschuldigt, den Hype zu verschärfen und Papiere zu verfälschen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage