Im Juni 2022 veröffentlichte Microsoft den Microsoft Responsible Artificial Intelligence Standard v2 mit dem Ziel, „Produktentwicklungsanforderungen für verantwortungsvolle künstliche Intelligenz zu definieren“. Es überrascht vielleicht, dass in dem Dokument nur eine Art von Voreingenommenheit in der KI erwähnt wird, nämlich dass die Algorithmusentwickler von Microsoft sich der Probleme bewusst sein müssen, die durch Benutzer entstehen können, die sich zu sehr auf KI verlassen (auch bekannt als „Automatisierungsdiskriminierung“).
Kurz gesagt, Microsoft scheint sich mehr darum zu kümmern, was Benutzer über seine Produkte denken, als um die negativen Auswirkungen, die die Produkte tatsächlich auf Benutzer haben. Das ist eine gute geschäftliche Verantwortung (sagen Sie nichts Negatives über unsere Produkte), aber eine schlechte soziale Verantwortung (es gibt viele Beispiele für algorithmische Diskriminierung, die sich negativ auf Einzelpersonen oder Personengruppen auswirkt).
Es gibt drei große ungelöste Probleme mit kommerzieller KI:
Als künstliche Intelligenz erstmals in Cybersicherheitsprodukte eingeführt wurde, wurde sie als schützende Wunderwaffe beschrieben. Es besteht kein Zweifel daran, dass KI ihren Wert hat, aber angesichts einiger fehlerhafter Algorithmen, versteckter Diskriminierung und des Missbrauchs von KI durch Kriminelle und sogar der Ausspionierung der Privatsphäre durch Strafverfolgungsbehörden und Geheimdienste wird die Stimme gegen KI immer stärker.
Laut Scientific American vom 6. Juni 2022 ist das Problem die Kommerzialisierung einer Wissenschaft, die sich noch in der Entwicklung befindet:
Die größten Forschungsteams im Bereich der künstlichen Intelligenz sind nicht in der akademischen Welt, sondern in der Wirtschaft angesiedelt. In der Wissenschaft ist Peer-Review das A und O. Im Gegensatz zu Universitäten haben Unternehmen keinen Anreiz, fair zu konkurrieren. Anstatt neue wissenschaftliche Arbeiten zur wissenschaftlichen Begutachtung einzureichen, binden sie Journalisten durch Pressemitteilungen ein und überspringen den Peer-Review-Prozess. Wir wissen nur, was Unternehmen von uns wissen lassen wollen.
--Gary Marcus, Professor für Psychologie und Neurowissenschaften an der New York University
Das Ergebnis ist, dass wir nur von den positiven Aspekten der künstlichen Intelligenz hören, nicht aber von den negativen Aspekten der künstlichen Intelligenz.
Emily Tucker, Geschäftsführerin des Center for Privacy and Technology an der Georgetown Law School, kam zu einem ähnlichen Schluss: „Ab heute wird unser Zentrum die Begriffe ‚künstliche Intelligenz‘, ‚KI‘ und ‚Maschine‘ nicht mehr verwenden.“ „Lernen Sie, die Schäden der digitalen Technologie im Leben von Einzelpersonen und Gemeinschaften aufzudecken und zu mildern ... Einer der Gründe, warum Technologieunternehmen den Turing-Test so erfolgreich als strategisches Mittel zur Kapitalbeschaffung nutzen, liegt darin, dass Regierungen begierig darauf sind.“ um Zugang zu dem zu erhalten, was die Technologie zu bieten hat. Eine allgegenwärtige Kontrolle, die einfach, relativ kostengünstig auszuüben und durch Beschaffungsprozesse verfügbar ist, die demokratische Entscheidungsfindung oder Kontrolle umgehen.“
Kurz gesagt, das Streben nach Gewinn behindert die Entwicklung künstlicher Intelligenz . wissenschaftliche Entwicklung. Angesichts dieser Bedenken müssen wir uns fragen, ob man der KI in unseren Produkten vertrauen kann, dass sie genaue Informationen und unvoreingenommene Urteile liefert, anstatt von Menschen, Kriminellen oder sogar Regierungen missbraucht zu werden.
Fall 1: Ein selbstfahrendes Tesla-Auto fuhr direkt auf einen Arbeiter zu, der ein Stoppschild hielt, und bremste erst ab, als der Fahrer eingriff. Der Grund dafür ist, dass die KI darauf trainiert ist, Menschen zu erkennen und Stoppschilder zu erkennen, nicht aber darauf, Menschen zu erkennen, die Stoppschilder tragen.
Fall 2: Am 18. März 2018 wurde ein Fußgänger, der ein Fahrrad schob, von einem selbstfahrenden Uber-Auto angefahren und getötet. Laut NBC war die KI damals nicht in der Lage, „ein Objekt als Fußgänger zu klassifizieren, es sei denn, das Objekt befand sich in der Nähe eines Zebrastreifens“.
Fall 3: Während des britischen COVID-19-Lockdowns im Jahr 2020 wurden die Testergebnisse der Schüler durch Algorithmen der künstlichen Intelligenz beurteilt. Etwa 40 % der Schüler erhielten deutlich schlechtere Noten als erwartet. Dies liegt daran, dass der Algorithmus zu viel Wert auf die historischen Ergebnisse jeder Schule legt. Dadurch erhalten Schüler an Privatschulen und zuvor leistungsstarken öffentlichen Schulen einen großen Punktevorteil gegenüber anderen Schulen.
Fall 4: Tay ist ein Chatbot mit künstlicher Intelligenz, der 2016 von Microsoft auf Twitter eingeführt wurde. Durch die Nachahmung echter menschlicher Sprache möchte Tay ein intelligentes interaktives System werden, das Slang verstehen kann. Doch nach nur 16 Stunden realer Interaktion musste Tay offline gehen. „Hitler hatte Recht, Juden zu hassen“, twitterte es.
Fall 5: Kandidaten auswählen. Amazon wollte, dass KI dabei hilft, automatisch Kandidaten für die Besetzung offener Stellen auszuwählen, aber die Ergebnisse des Algorithmus waren sexistisch und rassistisch und begünstigten weiße, männliche Kandidaten.
Fall 6: Falsche Identität. Eine schottische Fußballmannschaft hat während des Coronavirus-Lockdowns ein Spiel online übertragen und dabei KI-gestützte Kameras eingesetzt, um den Ball zu verfolgen. Aber dieses KI-Schießsystem betrachtete die Glatze des Linienrichters ständig als einen Fußball, und der Fokus des Schießens lag immer auf dem Linienrichter und nicht auf dem Spiel.
Fall 7: Antrag abgelehnt. Im Jahr 2016 beantragte eine Mutter den Einzug ihres Sohnes in die Wohnung, in der sie lebte, wurde jedoch vom Wohnungsamt abgelehnt. Erst ein Jahr, nachdem der Sohn in ein Rehabilitationszentrum geschickt worden war, wurde der Grund durch einen Anwalt bekannt gegeben. Die vom Wohnungsamt eingesetzte künstliche Intelligenz ging davon aus, dass der Sohn wegen Diebstahls vorbestraft war, und wurde daher von der Wohnungsverwaltung ausgeschlossen. Tatsächlich war der Sohn jedoch bettlägerig und nicht in der Lage, das Verbrechen zu begehen.
Es gibt viele ähnliche Beispiele, und die Gründe dafür sind nur zwei. Der eine ist ein Designfehler, der durch unerwartete Abweichungen verursacht wird, und der andere ist ein Lernfehler. Der Fall selbstfahrender Autos ist ein Fall von Lernversagen. Obwohl Fehler mit zunehmender Anzahl von Lernvorgängen korrigiert werden können, kann bis zur Korrektur ein hoher Preis anfallen, sobald sie in Betrieb genommen werden. Wenn Sie jedoch Risiken vollständig vermeiden möchten, bedeutet dies, dass es niemals zum Einsatz kommt.
Fall 3 und Fall 5 sind Konstruktionsfehler und unerwartete Abweichungen haben die Ergebnisse verfälscht. Die Frage ist, ob Entwickler ihre Vorurteile beseitigen können, ohne zu wissen, dass sie sie haben.
Missbrauch bedeutet, dass der Anwendungseffekt künstlicher Intelligenz nicht dem entspricht, was der Entwickler beabsichtigt hat. Missbrauch bedeutet, etwas vorsätzlich zu tun, beispielsweise die einer künstlichen Intelligenz zugeführten Daten zu verunreinigen. Im Allgemeinen resultiert Missbrauch in der Regel aus den Handlungen des Besitzers eines KI-Produkts, während Missbrauch oft durch Handlungen Dritter (z. B. Cyberkriminelle) verursacht wird, die dazu führen, dass das Produkt auf eine Weise manipuliert wird, die vom Besitzer nicht beabsichtigt war. Schauen wir uns zunächst den Missbrauch an.
Kazerounian, Forschungsleiter bei Vectra AI, glaubt, dass versteckte Vorurteile unvermeidlich sind, wenn von Menschen entwickelte Algorithmen versuchen, Urteile über andere Menschen zu fällen. Wenn es beispielsweise um Kreditanträge und Mietanträge geht, gibt es in den Vereinigten Staaten eine lange Geschichte von Redlining und Rassismus, und diese diskriminierenden Richtlinien gibt es schon lange vor der KI-basierten Automatisierung.
Darüber hinaus sind Vorurteile, die tief in Algorithmen der künstlichen Intelligenz eingebettet sind, schwieriger zu erkennen und zu verstehen als menschliche Vorurteile. „Möglicherweise können Sie die Klassifizierungsergebnisse von Matrixoperationen in Deep-Learning-Modellen sehen. Aber die Leute können nur den Mechanismus der Operation erklären, aber nicht das Warum. Es erklärt nur den Mechanismus. Ich denke, auf einer höheren Ebene, was wir.“ Die Frage ist, ob einige Dinge geeignet sind, der künstlichen Intelligenz überlassen zu werden? . Die Studie ergab, dass künstliche Intelligenz in der Lage war, die Rasse zu identifizieren, indem sie sich ausschließlich auf medizinische Bilder wie Röntgen- und CT-Scans stützte, aber niemand wusste, wie die KI das tat. Wenn wir weiter darüber nachdenken, können medizinische KI-Systeme möglicherweise viel mehr leisten, als wir uns vorstellen, wenn es darum geht, die Rasse, die ethnische Zugehörigkeit, das Geschlecht eines Patienten und sogar die Frage, ob er inhaftiert ist, zu bestimmen.
Anthony Seeley, außerordentlicher Professor für Medizin an der Harvard Medical School und einer der Autoren, kommentierte: „Nur weil Ihr Algorithmus verschiedene Gruppen repräsentiert (die Qualität und Gültigkeit Ihrer Daten), ist das keine Garantie dafür Das wird immer so sein und auch nicht, dass es bestehende Ungleichheiten und Ungleichheiten verstärkt. Die Fütterung von Algorithmen mit mehr Daten ist kein Allheilmittel. Dieses Papier sollte uns dazu bringen, innezuhalten und unsere Bereitschaft, künstliche Intelligenz in der klinischen Diagnose einzusetzen, wirklich zu überdenken Das Problem betrifft auch den Bereich der Netzwerksicherheit. Am 22. April 2022 hat Microsoft seiner Produkt-Roadmap eine Funktion namens „Leaver Classifier“ hinzugefügt. Das Produkt wird voraussichtlich im September 2022 verfügbar sein. „Der Abgangsklassifikator kann Mitarbeiter, die beabsichtigen, das Unternehmen zu verlassen, frühzeitig erkennen, um das Risiko eines absichtlichen oder unbeabsichtigten Datenverlusts aufgrund des Abgangs von Mitarbeitern zu verringern.“
Als einige Medien versuchten, Microsoft zum Thema künstliche Intelligenz und Privatsphäre zu interviewen, Ich habe diese Antwort erhalten: „Microsoft hat im Moment nichts mitzuteilen, aber wenn es neue Neuigkeiten gibt, werden wir Sie rechtzeitig informieren.“ Aus ethischer Sicht muss berücksichtigt werden, ob KI zur Vorhersage der Absicht eingesetzt wird Das Unternehmen zu verlassen ist der richtige Einsatz von Technologie. Zumindest glauben die meisten Menschen, dass die Überwachung der Kommunikation, um festzustellen, ob jemand darüber nachdenkt, seinen Job aufzugeben, richtig oder angemessen ist, insbesondere wenn die Folgen negativ sein könnten.
Außerdem sind unerwartete Verzerrungen in Algorithmen schwer zu vermeiden und noch schwieriger zu erkennen. Warum machen künstliche Intelligenzsysteme keine Fehler, wenn es selbst für Menschen schwierig ist, persönliche Beweggründe effektiv zu beurteilen, wenn sie vorhersagen, ob jemand seinen Job aufgeben wird? Darüber hinaus kommunizieren Menschen bei der Arbeit auf unterschiedliche Art und Weise, indem sie Annahmen treffen, Witze machen, wütend werden oder über andere Menschen reden. Selbst wenn Sie eine Personalbeschaffungswebsite besuchen, um Ihren Lebenslauf zu aktualisieren, kann es sein, dass dies nur ein flüchtiger Gedanke in Ihrem Kopf ist. Sobald Mitarbeiter durch maschinelles Lernen mit hoher Wahrscheinlichkeit kündigen, werden sie während eines Wirtschaftsabschwungs wahrscheinlich als erste entlassen und haben keinen Anspruch auf Gehaltserhöhungen oder Beförderungen.
Es gibt auch eine umfassendere Möglichkeit. Wenn Unternehmen über diese Technologie verfügen können, verfügen auch Strafverfolgungsbehörden und Geheimdienste über diese Technologie. Derselbe Fehleinschätzung kann passieren, und die Folgen sind weitaus schwerwiegender als eine Beförderung oder Gehaltserhöhung.
Alex Polyakov, Gründer und CEO von Adversa.ai, ist eher besorgt über den Missbrauch von KI durch Manipulation des maschinellen Lernprozesses. „Forschungen von Wissenschaftlern und reale Bewertungsarbeiten unserer KI-Red-Teams [die als Angreifer agieren] haben bewiesen, dass es ausreicht, KI-Entscheidungen zu täuschen, sei es Computer Vision oder natürliche Sprachverarbeitung oder irgendetwas anderes, um ein sehr zu modifizieren kleiner Satz von Eingaben. „Zum Beispiel können die Wörter „isst Triebe und Blätter“ durch verschiedene Satzzeichen dargestellt werden. Terrorist. Für künstliche Intelligenz ist es eine nahezu unmögliche Aufgabe, die Bedeutung aller Wörter in allen Kontexten zu erschöpfen. Darüber hinaus hat Polyakov gleich doppelt bewiesen, wie einfach es ist, Gesichtserkennungssysteme auszutricksen. Das erste Mal wurde dem künstlichen Intelligenzsystem vorgegaukelt, dass alle Personen vor ihm Elon Musk seien. Das zweite Beispiel bestand darin, ein Bild eines Menschen zu verwenden, der offensichtlich wie dieselbe Person aussah, von der künstlichen Intelligenz jedoch als solche interpretiert wurde mehrere verschiedene Menschen. Die dabei zugrunde liegenden Prinzipien, nämlich die Manipulation des Lernprozesses künstlicher Intelligenz, können von Cyberkriminellen auf nahezu jedes Werkzeug der künstlichen Intelligenz angewendet werden. Letztendlich ist künstliche Intelligenz nur von Menschen gelehrte maschinelle Intelligenz. Von echter künstlicher Intelligenz sind wir noch viele Jahre entfernt, auch wenn wir nicht darüber diskutieren, ob echte künstliche Intelligenz erreicht werden kann. Derzeit sollte KI als Werkzeug zur Automatisierung vieler normaler menschlicher Aufgaben betrachtet werden, mit ähnlichen Erfolgs- und Misserfolgsraten wie Menschen. Natürlich ist es viel schneller und viel kostengünstiger als ein teures Analystenteam. Abschließend sollten sich alle Nutzer künstlicher Intelligenz über dieses Problem Gedanken machen, unabhängig davon, ob es sich um einen Algorithmus-Bias oder einen KI-Missbrauch handelt: Zumindest zum jetzigen Zeitpunkt können wir uns nicht zu sehr auf die Ergebnisse künstlicher Intelligenz verlassen.Das obige ist der detaillierte Inhalt vonIst künstliche Intelligenz (KI) vertrauenswürdig?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!