Die Auswirkungen von ChatGPT haben verschiedene Branchen berührt, was beweist, dass künstliche Intelligenz die Welt verändert. Grundsätzlich sicher sind diese Entwicklungen jedenfalls nicht. Wir können die Tatsache nicht ignorieren, dass der KI trotz der aufregenden neuen Möglichkeiten, die sie in vielen Bereichen bietet, ein inhärenter moralischer Kompass oder ein System zur Überprüfung von Fakten fehlt, um ihre Entscheidungen zu leiten.
Da die Welt immer mehr auf KI ausgerichtet ist, müssen wir darauf bestehen, alles, was wir hören, auf Fakten zu überprüfen. Es ist nicht ratsam, der KI unklug zu vertrauen, da einige Tools den Kontext möglicherweise falsch verstehen und selbstbewusst Fehler machen oder sogar Daten manipulieren.
Das Offensichtlichste und Grundlegendste ist die Sicherheit. Ein Verstoß gegen das Grundprinzip „Zuerst keinen Schaden anrichten“ wird schwerwiegende und irreparable Folgen haben, wie zum Beispiel Verrat. Im Jahr 2018 starb ein Fahrer, als ein selbstfahrendes Tesla-Auto mit einer Betonleitplanke kollidierte. In einer Forschungsarbeit aus dem Jahr 2019 wurde versucht zu beweisen, dass strategisch gezogene Linien auf der Straße einen Algorithmus der künstlichen Intelligenz kapern oder zum Unfall eines Fahrzeugs führen könnten, obwohl dieser Fall ein katastrophaler Ausreißer war.
Die Beschränkung des Zugriffs, die Wahrung der Informationsintegrität und die Wahrung der Zugänglichkeitskonsistenz sind der Kern der Sicherheit. Tausende Algorithmen nutzen Schwachstellen in der Robustheit und Sicherheit künstlicher Intelligenz aus. Diese böswilligen Angriffe werden weiterhin eingebildet. Da es keine umfassenden Schutzmaßnahmen gibt, ist es umso wichtiger, dass die Ingenieure der analogen Intelligenz das entsprechende Sicherheitsverhältnis für jede neue Sicherheitsmaßnahme anpassen. KI kann durch Designfehler oder Schwächen bei bestimmten gegnerischen Angriffen getäuscht oder geschwächt werden. Wenn dies wahr wäre, wäre es auch möglich, den Rollstuhl einer anderen Person zu entführen, um in einen sicheren Bereich zu gelangen.
Die Vermeidung von Schäden ist auch der Kern der Datenschutzgrundsätze. Es gibt so viele Informationslecks, die schlechten Akteuren die Möglichkeit bieten, Daten über das Glück, das Geld und das Privatleben einer Person ohne deren Zustimmung zu identifizieren oder zu analysieren. Besorgniserregende 81 % der Amerikaner glauben, dass die Vorteile der Datenerfassung die Risiken überwiegen. Forscher haben herausgefunden, dass farbige Menschen und ethnische Minderheiten stärker gefährdet sind als andere Gruppen. Aufgrund seiner Unterrepräsentation ist eine wirksamere Anonymisierung seiner Informationen nach den zuvor erwähnten Leaks umso notwendiger.
In Bezug auf computergestützte Intelligenz ist Einfachheit ein allgemeines Merkmal. Benutzer wissen zumindest, dass sie mit künstlicher Intelligenz und nicht mit einem Menschen interagieren. Im Extremfall werden alle beruflichen Zyklen und Informationen gemeldet, sind zugänglich und aussagekräftig. Dieses Beispiel verdeutlicht deutlich die Folgen mangelnder Transparenz, und der Prüfungsskandal im Vereinigten Königreich ist sehr repräsentativ. Bei der Bewertung der Ergebnisse berücksichtigt der Algorithmus nicht nur die Leistung eines Schülers, sondern auch die historische Ergebnisbilanz der Schule und die Anzahl der Schüler, die die gleiche Punktzahl erhalten haben.
Ethik und Fairness müssen die Ziele der künstlichen Intelligenz sein. Es muss sich an etablierte und durchgesetzte gesellschaftliche Normen, auch Gesetze genannt, halten. Es ist einfach, aber technisch anspruchsvoll. Die wahre Geschichte beginnt, wenn die öffentlichen Gewalten veraltete Strategien umsetzen oder freie Marktwirtschaftsstrategien übernehmen. Es liegt in der Verantwortung der KI-Ingenieure und -Eigentümer, das richtige ethische Gleichgewicht zu finden und dabei die Interessen, Mittel und Zwecke, Datenschutzrechte und Datenerfassung der Stakeholder zu berücksichtigen. Und nicht nur am Arbeitsplatz wird großen Technologieunternehmen oft vorgeworfen, Sexismus fortzusetzen. Aktivisten und Forscher sehen in weiblichen Sprachassistenten eine Normalisierung der Sichtweise von Frauen als Arbeitnehmerinnen und Eltern.
Verantwortlichkeiten stellen sicher, dass das Framework anhand der verschiedenen zuvor genannten Komponenten untersucht werden kann. Um Fortschritte zu filtern und Gewinneinbußen vorzubeugen, bauen viele Unternehmen inzwischen intern verantwortungsvolle KI auf. Es kann jedoch sein, dass eine externe Kontrolle oder Überprüfung nicht möglich ist. Clearview AI ist in dieser Hinsicht ein Beispiel. Die Gesichtserkennungstechnologie des Unternehmens übertrifft alle anderen Technologien auf dem Markt, befindet sich jedoch in Privatbesitz und wird vom Eigentümer kontrolliert. Wenn dies von kriminellen Banden oder autoritären Regimen ausgenutzt wird, könnte dies unzählige Menschen gefährden.
Das obige ist der detaillierte Inhalt vonSechs Faktoren gegen blindes Vertrauen in künstliche Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!