Kürzlich hatte ein Auto einer bestimmten Marke während der Prototypenprüfung einen Unfall, bei dem es zu großen Personen- und Sachschäden kam, was sofort Schlagzeilen machte. Gleichzeitig widmet sich die öffentliche Meinung auch dem alltäglichen Thema des autonomen Fahrzeugfahrens. Ist autonomes Fahren sicher? Soll das autonome Fahren erschlossen werden? Unter dem Deckmantel des autonomen Fahrens ist es schwierig zu bestimmen, ob künstliche Intelligenz moralisches Urteilsvermögen als Kern des Problems haben kann.
MIT hat in den USA eine Website namens „Moral Machine“ entworfen. Die Website entwirft verschiedene Szenarien, in denen Autos die Kontrolle verlieren, um den Zuschauern die Möglichkeit zu geben, Entscheidungen zu treffen, und sammelt Feedback von 3 Millionen Benutzern. Moral Machine hat herausgefunden, dass Menschen eher dazu neigen, selbstfahrende Autos selbstzerstören zu lassen, um mehr Leben zu schützen, aber hoffen, dass ihre Autos nicht über diese Funktion verfügen. Diese Schlussfolgerung hat nichts mit Kultur oder Bräuchen zu tun. Sie ist eine allgemeine Entscheidung der Menschen und steht im Einklang mit dem allgemeinen Verständnis der Gesellschaft. Die Menschen hoffen, das Leben einiger weniger Menschen zu opfern. Dies verstößt jedoch gegen das Gesetz, da das menschliche Leben selbst nicht vergleichbar und quantifizierbar ist.
Dies ist eine unvermeidliche ethische Frage beim autonomen Fahren. Wenn KI gemäß den Bestimmungen zur Integration von Befugnissen und Verantwortlichkeiten Entscheidungen außerhalb der Kontrolle treffen darf, bedeutet dies einerseits, dass die KI bzw. das dahinter stehende Unternehmen für autonomes Fahren die Verantwortung für das Entscheidungsverhalten tragen sollte. Wenn andererseits KI keine Entscheidungen treffen darf, kann man nicht von autonomem Fahren sprechen – denn die Definition eines autonomen Autos ist ein Auto, das seine Umgebung wahrnehmen und ohne menschliches Eingreifen navigieren kann.
Das „Trolley-Problem“ beim autonomen Fahren ist nur ein Mikrokosmos der Schwierigkeiten, mit denen die Branche der künstlichen Intelligenz konfrontiert ist. Obwohl Modelle der künstlichen Intelligenz mit dem Fortschritt der Technologie und der Entwicklung der Big-Data-Industrie ausgereifter geworden sind, befinden sie sich immer noch in einer peinlichen Situation, wenn es um menschliche Fragen wie Moral und Bewusstsein geht: Laut der „Singularitäts“-Theorie der künstlichen Intelligenz , Künstliche Intelligenz wird irgendwann den Menschen in Bezug auf Rationalität und Sensibilität übertreffen, aber der Mensch hatte schon immer einen „Frankenstein-Komplex“ in Bezug auf die Sicherheit künstlicher Intelligenz. Im Allgemeinen sind Menschen psychologisch nicht in der Lage, Empathie mit nicht-biologischen Maschinen zu akzeptieren.
Anfang Juni dieses Jahres wurde LaMDA, das 2021 von Google eingeführte Sprachmodell für Konversationsanwendungen, von einem der verantwortlichen Ingenieure, Lemoy, als „bewusst“ entlarvt. Er glaubt, dass das LaMDA-Modell eine „Person“ ist, die über Selbstbewusstsein verfügt, die Welt wahrnehmen kann und über die Intelligenz eines sieben- oder achtjährigen Kindes verfügt. Lemoy sagte, das LaMDA-Modell sehe sich nicht nur als Mensch, sondern kämpfe auch für seine Rechte als Mensch und verteidige sie energisch. Nach Ausbruch des Vorfalls unterstützten viele Internetnutzer Lemoy und glaubten, dass die Einzigartigkeit der künstlichen Intelligenz angekommen sei. Sie glauben, dass künstliche Intelligenz bewusst und gefühlvoll geworden sei und wie Menschen unabhängig denken könne.
Ist künstliche Intelligenz moralisch? Das heißt, sollte künstliche Intelligenz Werturteile fällen?
Wenn man künstliche Intelligenz als moralisch betrachtet, bedeutet das, dass künstliche Intelligenz sich der Kontrolle des menschlichen Willens entziehen und unabhängige Bewertungen von Ereignissen oder Dingen vornehmen kann. Auf technischer Ebene ist dies nicht schwer zu erreichen. Durch die „Einspeisung“ großer Datenmengen kann künstliche Intelligenz Ereignisse oder Dinge digitalisieren und anhand einer Reihe von „Beurteilungsstandards“ messen, die durch Deep Learning gebildet werden. Das Gleiche gilt für das oben genannte LaMDA-Modell. Tatsächlich ist das LaMDA-Modell jedoch nur eine Antwortmaschine. Gary Marcus, ein bekannter Experte für maschinelles Lernen und neuronale Netze, sagte: „LaMDA extrahiert einfach Wörter aus dem menschlichen Korpus und gleicht dann Ihre Fragen ab.“ sogenannte „Moral“ der künstlichen Intelligenz „Es ist nur eine Reaktion auf Ereignisse oder Dinge und bietet kein tiefes Verständnis dafür, was moralische Bewertung ist und welche Bedeutung moralische Bewertung hat.“
Ein weiteres Beispiel ist, dass verschiedene Modelle der künstlichen Intelligenz unterschiedliche Methoden haben, mit derselben Situation umzugehen. Nimmt man immer noch das autonome Fahren als Beispiel und stürmt auf die gleiche Weise auf denselben Eimer zu, sind die Ergebnisse völlig unterschiedlich. Einige kollidierten direkt, andere wichen aus. Kann das eine moralische Ebene erreichen? Offensichtlich nicht, es gibt nicht einmal einen Unterschied zwischen den beiden Modellen, da die Modelle, die auf unterschiedlichen Konzepten und Anforderungen basieren, besondere Merkmale aufweisen. Ersteres ist der Ansicht, dass diese Situation in den Bereich der Fahrerbedienung fällt und kein Eingreifen erforderlich ist dass ein Eingriff durchgeführt werden sollte.
Wenn wir einen Schritt zurücktreten und davon ausgehen, dass künstliche Intelligenz über ein menschenähnliches Bewusstsein verfügt und unabhängig denken kann, bedeutet das, dass wir hoffen können, dass sie moralische Probleme lösen kann? Die Antwort ist nein. Einfach ausgedrückt: Moralische Probleme, die nicht von Menschen selbst gelöst werden können, können ohne das Konzept der „Menschlichkeit“ nicht durch Zahlen gelöst werden.
Aus dieser Perspektive gibt es bei der Wertbeurteilung der Entwicklung künstlicher Intelligenz keine moralische Frage. Wichtiger ist die Analyse, warum eine moralische Bewertung erforderlich ist. Der grundlegende Zweck der moralischen Bewertung besteht darin, zu einem Ergebnis zu gelangen und das weitere Verhalten zu steuern. Der Reporter ist der Ansicht, dass künstliche Intelligenz im Hinblick auf die Zuschreibung künstlicher Intelligenz in Entscheidungssysteme und Ausführungssysteme unterteilt werden sollte und für die entsprechenden Systeme ein „Verantwortlicher“-System eingeführt werden sollte.
Aus entscheidungstechnischer Sicht werden zwar Taten, nicht aber Gedanken bestraft, es richtet sich aber nur gegen natürliche Personen. Die „Ideen“ der aktuellen künstlichen Intelligenz können durch Daten ausgedrückt werden, sodass künstliche Intelligenz aus Sicht der Entscheidungsfindung immer noch Management und Kontrolle benötigt. Es gibt Fehler in den „Ideen“ der künstlichen Intelligenz. Der Grund dafür ist, dass es ein Problem mit den zum Trainieren des Algorithmus verwendeten Daten gibt, das heißt, die künstliche Intelligenz lernt die in der Gesellschaft bestehenden Probleme und wendet sie an. Amazon, eine amerikanische E-Commerce-Marke, verwendet beispielsweise Algorithmen der künstlichen Intelligenz, um bei der Einstellung von Mitarbeitern zunächst die Lebensläufe von Kandidaten zu überprüfen. Die Ergebnisse sind eher auf Männer ausgerichtet, da Ingenieure, wenn sie den Algorithmus trainieren, Mitarbeiter einsetzen, die zuvor bei Amazon eingestellt wurden. Die Lebensläufe werden trainiert und Amazon hat mehr männliche Mitarbeiter. Das Ergebnis ist, dass ein solcher Algorithmus den Lebenslauf-Screening-Algorithmus von Amazon stärker auf Männer ausrichtet, was zu einer „Geschlechtsdiskriminierung“ im Algorithmus führt. Der Reporter ist der Ansicht, dass die für das Algorithmusdesign oder -training verantwortliche Person zur Rechenschaft gezogen werden sollte, wenn das rechtliche Ergebnis durch den Algorithmus und die Trainingsdaten verursacht wird.
Aus verhaltenstechnischer Sicht wird künstliche Intelligenz aus rechtlicher Sicht immer noch als eine Sache und nicht als Gegenstand von Rechten und Fähigkeiten betrachtet, auch wenn künstliche Intelligenz den Menschen in der Verhaltensumsetzung erreichen oder sogar übertreffen kann. Dies bedeutet auch, dass das geltende Recht der künstlichen Intelligenz die rechtliche Verantwortung verweigert. Dies liegt im Wesentlichen daran, dass künstliche Intelligenz nicht für die von ihr durchgeführten Handlungen verantwortlich sein kann. Die Einrichtung eines Systems der „verantwortlichen Person“ ähnelt dem System der rechtlichen Vertretung Eine juristische Person ist eine Organisation, die aus bestimmten Personen besteht. Die natürliche Person trägt die Haftung, die sich aus der Tat ergibt. Durch die Unterscheidung von „Denken“ und „Handeln“ kann die Zuweisung von Verantwortung detaillierter gestaltet und eine effektive Verantwortung sichergestellt werden, ohne die Begeisterung für die Entwicklung der Branche der künstlichen Intelligenz zu beeinträchtigen. Im aktuellen zivilrechtlichen Bereich gilt die Produkthaftung für Verstöße gegen Produkte der künstlichen Intelligenz und betont die Verantwortung von Entwicklern, Herstellern und Verkäufern.
* * *
In den letzten Jahren hat unser Land nacheinander Grundsatzdokumente wie die „Governance-Grundsätze für künstliche Intelligenz der neuen Generation“ und den „Ethikkodex für künstliche Intelligenz der neuen Generation“ herausgegeben, in denen acht Grundsätze klar vorgeschlagen und die Integration betont werden von Ethik und Moral in den gesamten Lebenszyklus der künstlichen Intelligenz zu integrieren und die gesunde Entwicklung der Branche der künstlichen Intelligenz aus einer prinzipiellen Perspektive aufrechtzuerhalten. Relevante Quellen sagten, dass der Unterausschuss für künstliche Intelligenz des Nationalen Ethikausschusses für Wissenschaft und Technologie eine Hochrisikoliste der Ethik im Bereich künstlicher Intelligenz prüft und erstellt, um die ethische Überwachung wissenschaftlicher Forschungsaktivitäten im Bereich künstlicher Intelligenz besser zu fördern. Ich glaube, dass mit der Einführung weiterer gesetzlicher Regelungen ethische Fragen bei der Anwendung künstlicher Intelligenz deutlich entschärft werden.
Tipps
Trolley-Problem: Das „Trolley-Problem“ ist eines der berühmtesten Gedankenexperimente auf dem Gebiet der Ethik. Es wurde erstmals 1967 von der Philosophin Philippa Foot in der Arbeit „The Double Impact of Abortion Issues and Dogma“ vorgeschlagen . Der allgemeine Inhalt ist, dass 5 Personen an einem Straßenbahngleis festgebunden sind, 1 Person an dem Ersatzgleis festgebunden ist und eine außer Kontrolle geratene Straßenbahn mit hoher Geschwindigkeit näherkommt. Und neben Ihnen befindet sich zufällig ein Joystick. Sie können den Joystick drücken, um die Straßenbahn auf das Ersatzgleis zu fahren, die 1 Person zu töten und 5 Personen zu retten. Ein solches ethisches Dilemma wird als „Trolley-Problem“ bezeichnet.
Theorie der „Singularität“ der künstlichen Intelligenz: Die erste Person, die die „Singularität“ in den Bereich der künstlichen Intelligenz einführte, war der amerikanische Futurist Ray Kurzweil. In seinen beiden Büchern „The Singularity is Near“ und „The Future of Artificial Intelligence“ kombinierte er beides. Er nutzte die „Singularität“ als Metapher, um ein bestimmtes Stadium in Zeit und Raum zu beschreiben, in dem die Fähigkeiten der künstlichen Intelligenz übertreffen das des Menschen. Wenn künstliche Intelligenz diese „Singularität“ überschreitet, werden alle Traditionen, Verständnisse, Konzepte und der gesunde Menschenverstand, an die wir gewöhnt sind, nicht mehr existieren. Die beschleunigte Entwicklung der Technologie wird zu einem „außer Kontrolle geratenen Effekt“ führen und künstliche Intelligenz wird das Potenzial übertreffen Potenzial der menschlichen Intelligenz, die menschliche Zivilisation zu kontrollieren und schnell zu verändern.
Frankenstein-Komplex: Der vom Schriftsteller Asimov stammende Begriff bezieht sich auf den psychischen Zustand von Menschen, die Angst vor Maschinen haben. Frankenstein ist der Protagonist in einem Roman mit dem Titel „Frankenstein: Die Geschichte eines modernen Prometheus“, der 1818 von Mary Shelley geschrieben wurde. Er erschuf eine humanoide Kreatur, aber er reagierte auch. Mit „Frankenstein“ wird heute das von Menschen geschaffene Monster bezeichnet. In der aktuellen Literatur, Filmen und anderen Werken impliziert der „Frankenstein-Komplex“ oft, dass künstliche Intelligenz den Menschen erobert und beginnt, die Welt zu verwalten. Reporter Xu Yong Praktikant Yang Chenglin
Das obige ist der detaillierte Inhalt vonWann wird die Entwicklung der künstlichen Intelligenz ihre Fesseln durchbrechen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!