Sechs Faktoren gegen blindes Vertrauen in künstliche Intelligenz

王林
Freigeben: 2023-05-27 12:45:12
nach vorne
1165 Leute haben es durchsucht

Sechs Faktoren gegen blindes Vertrauen in künstliche Intelligenz

Die Auswirkungen von ChatGPT haben verschiedene Branchen berührt, was beweist, dass künstliche Intelligenz die Welt verändert. Grundsätzlich sicher sind diese Entwicklungen jedenfalls nicht. Wir können die Tatsache nicht ignorieren, dass der KI trotz der aufregenden neuen Möglichkeiten, die sie in vielen Bereichen bietet, ein inhärenter moralischer Kompass oder ein System zur Überprüfung von Fakten fehlt, um ihre Entscheidungen zu leiten.

Da die Welt immer mehr auf KI ausgerichtet ist, müssen wir darauf bestehen, alles, was wir hören, auf Fakten zu überprüfen. Es ist nicht ratsam, der KI unklug zu vertrauen, da einige Tools den Kontext möglicherweise falsch verstehen und selbstbewusst Fehler machen oder sogar Daten manipulieren.

6 Faktoren gegen blindes Vertrauen in künstliche Intelligenz

1 Sicherheit

Das Offensichtlichste und Grundlegendste ist die Sicherheit. Ein Verstoß gegen das Grundprinzip „Zuerst keinen Schaden anrichten“ wird schwerwiegende und irreparable Folgen haben, wie zum Beispiel Verrat. Im Jahr 2018 starb ein Fahrer, als ein selbstfahrendes Tesla-Auto mit einer Betonleitplanke kollidierte. In einer Forschungsarbeit aus dem Jahr 2019 wurde versucht zu beweisen, dass strategisch gezogene Linien auf der Straße einen Algorithmus der künstlichen Intelligenz kapern oder zum Unfall eines Fahrzeugs führen könnten, obwohl dieser Fall ein katastrophaler Ausreißer war.

2. Robustheit und Sicherheit

Die Beschränkung des Zugriffs, die Wahrung der Informationsintegrität und die Wahrung der Zugänglichkeitskonsistenz sind der Kern der Sicherheit. Tausende Algorithmen nutzen Schwachstellen in der Robustheit und Sicherheit künstlicher Intelligenz aus. Diese böswilligen Angriffe werden weiterhin eingebildet. Da es keine umfassenden Schutzmaßnahmen gibt, ist es umso wichtiger, dass die Ingenieure der analogen Intelligenz das entsprechende Sicherheitsverhältnis für jede neue Sicherheitsmaßnahme anpassen. KI kann durch Designfehler oder Schwächen bei bestimmten gegnerischen Angriffen getäuscht oder geschwächt werden. Wenn dies wahr wäre, wäre es auch möglich, den Rollstuhl einer anderen Person zu entführen, um in einen sicheren Bereich zu gelangen.

3. Datenschutz

Die Vermeidung von Schäden ist auch der Kern der Datenschutzgrundsätze. Es gibt so viele Informationslecks, die schlechten Akteuren die Möglichkeit bieten, Daten über das Glück, das Geld und das Privatleben einer Person ohne deren Zustimmung zu identifizieren oder zu analysieren. Besorgniserregende 81 % der Amerikaner glauben, dass die Vorteile der Datenerfassung die Risiken überwiegen. Forscher haben herausgefunden, dass farbige Menschen und ethnische Minderheiten stärker gefährdet sind als andere Gruppen. Aufgrund seiner Unterrepräsentation ist eine wirksamere Anonymisierung seiner Informationen nach den zuvor erwähnten Leaks umso notwendiger.

4. Einfachheit und Rationalität

In Bezug auf computergestützte Intelligenz ist Einfachheit ein allgemeines Merkmal. Benutzer wissen zumindest, dass sie mit künstlicher Intelligenz und nicht mit einem Menschen interagieren. Im Extremfall werden alle beruflichen Zyklen und Informationen gemeldet, sind zugänglich und aussagekräftig. Dieses Beispiel verdeutlicht deutlich die Folgen mangelnder Transparenz, und der Prüfungsskandal im Vereinigten Königreich ist sehr repräsentativ. Bei der Bewertung der Ergebnisse berücksichtigt der Algorithmus nicht nur die Leistung eines Schülers, sondern auch die historische Ergebnisbilanz der Schule und die Anzahl der Schüler, die die gleiche Punktzahl erhalten haben.

5. Ethik und Umwelt

Ethik und Fairness müssen die Ziele der künstlichen Intelligenz sein. Es muss sich an etablierte und durchgesetzte gesellschaftliche Normen, auch Gesetze genannt, halten. Es ist einfach, aber technisch anspruchsvoll. Die wahre Geschichte beginnt, wenn die öffentlichen Gewalten veraltete Strategien umsetzen oder freie Marktwirtschaftsstrategien übernehmen. Es liegt in der Verantwortung der KI-Ingenieure und -Eigentümer, das richtige ethische Gleichgewicht zu finden und dabei die Interessen, Mittel und Zwecke, Datenschutzrechte und Datenerfassung der Stakeholder zu berücksichtigen. Und nicht nur am Arbeitsplatz wird großen Technologieunternehmen oft vorgeworfen, Sexismus fortzusetzen. Aktivisten und Forscher sehen in weiblichen Sprachassistenten eine Normalisierung der Sichtweise von Frauen als Arbeitnehmerinnen und Eltern.

6. Verantwortlichkeit

Verantwortlichkeiten stellen sicher, dass das Framework anhand der verschiedenen zuvor genannten Komponenten untersucht werden kann. Um Fortschritte zu filtern und Gewinneinbußen vorzubeugen, bauen viele Unternehmen inzwischen intern verantwortungsvolle KI auf. Es kann jedoch sein, dass eine externe Kontrolle oder Überprüfung nicht möglich ist. Clearview AI ist in dieser Hinsicht ein Beispiel. Die Gesichtserkennungstechnologie des Unternehmens übertrifft alle anderen Technologien auf dem Markt, befindet sich jedoch in Privatbesitz und wird vom Eigentümer kontrolliert. Wenn dies von kriminellen Banden oder autoritären Regimen ausgenutzt wird, könnte dies unzählige Menschen gefährden.

Das obige ist der detaillierte Inhalt vonSechs Faktoren gegen blindes Vertrauen in künstliche Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage