Kann künstliche Intelligenz (KI) die menschliche Gesellschaft in ein wirklich intelligentes Zeitalter führen?
Obwohl die Branche der künstlichen Intelligenz nach mehr als 60 Jahren der Entwicklung bahnbrechende Fortschritte gemacht hat und in allen Aspekten der Wirtschaft und Gesellschaft weit verbreitet ist, ist der Aufbau eines künstlichen Intelligenzsystems, das mit menschlichen Werten im Einklang steht, immer noch ein Problem ungelöstes Problem.
Jetzt könnte eine aktuelle Studie des britischen Unternehmens für künstliche Intelligenz DeepMind Praktikern in der Branche der künstlichen Intelligenz eine neue Denkweise zur Lösung dieses Problems bieten.
Berichten zufolge hat das künstliche Intelligenzsystem von DeepMind nicht nur gelernt, Richtlinien für die Umverteilung öffentlicher Gelder zu formulieren, indem es von mehr als 4.000 Personen und in Computersimulationen in einem Online-Wirtschaftsspiel für 4 Spieler gelernt hat, sondern hat auch sehr gut abgeschnitten und andere besiegt menschliche Spieler.
Bei dem Spiel entscheiden die Spieler, ob sie eine Geldspende behalten oder zum Wohle der Allgemeinheit mit anderen teilen möchten.
Das entsprechende Forschungspapier mit dem Titel „Human-centred Mechanism Design with Democratic AI“ wurde am 5. Juli online in der renommierten Fachzeitschrift „Nature Human Behavior“ veröffentlicht.
Quelle: Nature Human Behavior
Annette Zimmermann, Assistenzprofessorin an der University of York im Vereinigten Königreich, warnte: „Setzen Sie Demokratie nicht eng mit der Suche nach dem Willkommensten gleich das „Präferenzzufriedenheits“-System der Politik.“ Sie sagte auch, dass es bei der Demokratie nicht nur darum geht, die beste Umsetzung Ihrer Lieblingspolitik zu erreichen – es geht darum, einen Prozess zu schaffen, in dem die Bürger gleichberechtigt sein können. Sie können mit allen in Kontakt treten und (Angelegenheiten) besprechen andere.
Wirtschaftliche Mechanismen, die von KI entwickelt wurden
In der Ökonomie und Spieltheorie untersucht ein Bereich namens Mechanismusdesign, wie der Fluss von Reichtum, Informationen oder Macht zwischen Akteuren mit Anreizen optimal gesteuert werden kann, um gewünschte Ziele zu erreichen.
In dieser Arbeit versuchte das Forschungsteam zu beweisen, dass Agenten des Deep Reinforcement Learning (RL) verwendet werden können, um einen wirtschaftlichen Mechanismus zu entwerfen, der die Präferenzen der motivierten Bevölkerung erhalten kann.
In diesem Spiel beginnen die Spieler mit unterschiedlichen Geldbeträgen, müssen entscheiden, wie viel sie zur besseren Entwicklung eines öffentlichen Fonds beitragen möchten, und erhalten schließlich einen Teil als Gegenleistung. Sie müssen wiederholt entscheiden, ob sie eine Geldspende behalten möchten. Oder teilen Sie es mit anderen Spielern, um einen möglichen gemeinsamen Nutzen zu erzielen.
Das Forschungsteam trainierte einen Deep-Reinforcement-Learning-Agenten, um einen Umverteilungsmechanismus zu entwerfen, der Gelder unter Bedingungen gleicher und ungleicher Vermögensverhältnisse an Spieler verteilt.
Die geteilten Einnahmen werden den Spielern durch zwei verschiedene Umverteilungsmechanismen zurückgegeben, von denen einer vom System der künstlichen Intelligenz und der andere von Menschen entwickelt wurde. (Quelle: Nature Human Behavior) von jedem Spieler, um die Wohlstandslücke zwischen den Spielern zu verringern.
Im Vergleich zum „egalitären“ Ansatz (gleichmäßige Zuweisung von Mitteln unabhängig vom Beitrag jedes Spielers) und zum „libertären“ Ansatz (Zuweisung von Geldern entsprechend dem Anteil des Beitrags jedes Spielers an öffentlichen Mitteln) geht diese Richtlinie von menschlichen Spielern aus gewann mehr Stimmen.
Gleichzeitig korrigiert diese Politik auch das anfängliche Vermögensungleichgewicht und stoppt das „Trittbrettfahrerverhalten“ der Spieler. Sofern die Spieler nicht etwa die Hälfte des Startkapitals einbringen, erhalten sie fast keine Gegenleistung. Allerdings warnte das Forschungsteam auch, dass ihre Forschungsergebnisse weder ein Rezept für eine „KI-Regierung“ darstellen, noch beabsichtigen sie, einige auf künstlicher Intelligenz basierende Werkzeuge speziell für die Politikgestaltung zu entwickeln. Forschungsergebnisse zeigen, dass durch die Entwicklung eines Mechanismus, den Menschen in einem anreizkompatiblen Wirtschaftsspiel deutlich bevorzugen, künstliche Intelligenzsysteme trainiert werden können, um demokratische Ziele zu erreichen. Quelle: Pixabay Eine weitere offene Frage ist, ob Menschen den Mechanismen vertrauen, mit denen KI-Systeme entworfen werden. Wenn die Identität des Schiedsrichters im Voraus bekannt ist, bevorzugen Spieler möglicherweise einen menschlichen Schiedsrichter gegenüber einem KI-Schiedsrichter. Allerdings neigen Menschen auch dann dazu, KI-Systemen zu vertrauen, wenn sie glauben, dass eine Aufgabe für Menschen zu komplex ist. Ist es vertrauenswürdig?
In dieser Arbeit verwendete das Forschungsteam Techniken der künstlichen Intelligenz, um Neuzuweisungsschemata von Grund auf zu erlernen, ein Ansatz, der Forscher der künstlichen Intelligenz – die selbst möglicherweise voreingenommen oder nicht repräsentativ für die breitere Bevölkerung sind – von der Auswahl einer domänenspezifischen Belastung entlastet Zieloptimierung.
Diese Forschungsarbeit wirft auch mehrere Fragen auf, von denen einige theoretisch anspruchsvoll sind. Man könnte sich beispielsweise fragen, ob es eine gute Idee ist, demokratische Ziele als Methode zur Werteausrichtung hervorzuheben. Das KI-System hat möglicherweise die Tendenz anderer demokratischer Methoden geerbt, „die Vielen auf Kosten der Wenigen zu stärken“. Dies ist besonders wichtig angesichts der dringenden Bedenken, dass KI auf eine Weise eingesetzt werden könnte, die bestehende Voreingenommenheit, Diskriminierung oder Ungleichheit in der Gesellschaft verschärft.
Außerdem würden Spieler anders reagieren, wenn ihnen diese Mechaniken mündlich erklärt würden, anstatt sie durch Erfahrung zu erlernen. Eine umfangreiche Literatur zeigt, dass sich Menschen manchmal anders verhalten, insbesondere im Hinblick auf riskante Entscheidungen, wenn Mechanismen „auf der Grundlage von Beschreibungen“ und nicht „auf der Grundlage von Erfahrungen“ beschrieben werden. Die von der KI entworfenen Mechanismen lassen sich jedoch möglicherweise nicht immer in Worten ausdrücken. In diesem Fall ist es wahrscheinlich, dass das beobachtete Verhalten vollständig von der vom Forschungsteam gewählten Beschreibung abhängt.
Am Ende des Papiers betonte das Forschungsteam auch die Ergebnisse und erklärte, dass sie eine Form der „Governance künstlicher Intelligenz“ unterstützen, bei der autonome Agenten politische Entscheidungen ohne menschliches Eingreifen treffen.
Sie hoffen, dass durch die Weiterentwicklung der Methode Werkzeuge bereitgestellt werden, die dabei helfen können, reale Probleme auf wirklich menschliche Weise zu lösen.
Das obige ist der detaillierte Inhalt vonDie neueste Forschung von DeepMind: KI besiegt Menschen und entwirft einen besseren Wirtschaftsmechanismus|Nature-Unterjournal. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!