KI-Bias ist ein ernstes Problem, das verschiedene Konsequenzen für den Einzelnen haben kann.
Mit der Weiterentwicklung der künstlichen Intelligenz tauchen Probleme und ethische Dilemmata im Zusammenhang mit datenwissenschaftlichen Lösungen auf. Da sich der Mensch aus dem Entscheidungsprozess entfernt hat, möchte er sicherstellen, dass die Urteile dieser Algorithmen weder voreingenommen noch diskriminierend sind. Künstliche Intelligenz muss jederzeit überwacht werden. Wir können nicht sagen, dass diese mögliche Verzerrung durch künstliche Intelligenz verursacht wird, da es sich um ein digitales System handelt, das auf prädiktiven Analysen basiert und große Datenmengen verarbeiten kann. Das Problem beginnt viel früher, wenn unbeaufsichtigt Daten in das System „eingespeist“ werden.
Im Laufe der Geschichte gab es bei den Menschen immer Vorurteile und Diskriminierung. Es scheint, dass sich unser Handeln in absehbarer Zeit nicht ändern wird. Vorurteile finden sich in Systemen und Algorithmen, die im Gegensatz zu Menschen immun gegen das Problem zu sein scheinen.
KI-Verzerrung tritt in datenbezogenen Bereichen auf, wenn die Art und Weise, wie Daten erfasst werden, zu Stichproben führt, die Interessengruppen nicht korrekt repräsentieren. Dies deutet darauf hin, dass Menschen bestimmter Rassen, Glaubensrichtungen, Hautfarben und Geschlechter in den Datenproben unterrepräsentiert sind. Dies kann dazu führen, dass das System diskriminierende Schlussfolgerungen zieht. Es wirft auch die Frage auf, was Data-Science-Beratung ist und warum sie wichtig ist.
Voreingenommenheit in der KI bedeutet nicht, dass das KI-System absichtlich dazu geschaffen wurde, eine bestimmte Gruppe von Menschen zu bevorzugen. Das Ziel der künstlichen Intelligenz besteht darin, es dem Einzelnen zu ermöglichen, seine Wünsche durch Beispiele und nicht durch Anweisungen auszudrücken. Wenn KI also voreingenommen ist, kann das nur daran liegen, dass die Daten voreingenommen sind! Die Entscheidungsfindung durch künstliche Intelligenz ist ein idealisierter Prozess, der in der realen Welt abläuft und menschliche Fehler nicht verbergen kann. Auch die Einbeziehung angeleiteten Lernens ist von Vorteil.
Das Problem der KI-Verzerrung entsteht, weil die Daten menschliche Entscheidungen enthalten können, die auf Vorurteilen basieren, die dazu beitragen, gute algorithmische Schlussfolgerungen zu ziehen. Es gibt mehrere Beispiele aus der Praxis für KI-Voreingenommenheit. Rassistische Menschen und berühmte Drag Queens wurden durch das Google-System zur Erkennung von Hassreden diskriminiert. Seit 10 Jahren speisen die Personalalgorithmen von Amazon vor allem Daten zu männlichen Mitarbeitern ein, was dazu führt, dass weibliche Kandidaten eher als qualifiziert für Jobs bei Amazon eingestuft werden.
Datenwissenschaftler am Massachusetts Institute of Technology (MIT) sagen, dass Gesichtserkennungsalgorithmen bei der Analyse der Gesichter von Minderheiten, insbesondere von Frauen aus Minderheiten, eine höhere Fehlerquote aufweisen. Dies kann daran liegen, dass der Algorithmus während des Trainings hauptsächlich mit weißen männlichen Gesichtern gefüttert wurde.
Da die Algorithmen von Amazon auf Daten seiner 112 Millionen Prime-Nutzer in den USA sowie von zig Millionen weiteren Personen trainiert werden, die die Website häufig besuchen und ihre anderen Artikel häufig nutzen, kann das Unternehmen das Kaufverhalten der Verbraucher vorhersagen. Das Werbegeschäft von Google basiert auf Vorhersagealgorithmen, die auf Daten aus den Milliarden von täglich durchgeführten Internetsuchen und den 2,5 Milliarden Android-Smartphones auf dem Markt basieren. Diese Internetgiganten haben riesige Datenmonopole aufgebaut und verfügen über nahezu unüberwindbare Vorteile im Bereich der künstlichen Intelligenz.
In einer idealen Gesellschaft wäre niemand voreingenommen und jeder hätte die gleichen Chancen, unabhängig von Hautfarbe, Geschlecht, Religion oder sexueller Orientierung. In der realen Welt existiert es jedoch, und diejenigen, die sich in bestimmten Bereichen von der Mehrheit unterscheiden, haben es schwerer, einen Arbeitsplatz zu finden und eine Ausbildung zu erhalten, weshalb sie in vielen Statistiken unterrepräsentiert sind. Abhängig von den Zielen des KI-Systems könnte dies zu falschen Schlussfolgerungen führen, dass diese Personen weniger qualifiziert sind, weniger wahrscheinlich in diese Datensätze aufgenommen werden und weniger geeignet sind, gute Ergebnisse zu erzielen.
Andererseits könnten KI-Daten ein großer Schritt in Richtung einer unvoreingenommenen KI sein. Hier sind einige Konzepte, die Sie berücksichtigen sollten:
Schauen Sie sich reale Daten an und sehen Sie, wo die Verzerrung liegt. Die Daten werden dann unter Verwendung realer Daten und beobachtbarer Verzerrungen synthetisiert. Wenn Sie einen idealen virtuellen Datengenerator erstellen möchten, müssen Sie eine Definition von Fairness einbeziehen, die versucht, verzerrte Daten in Daten umzuwandeln, die als fair angesehen werden könnten.
KI-generierte Daten können Lücken im Datensatz füllen, die kaum variieren oder nicht groß genug sind, um einen unvoreingenommenen Datensatz zu bilden. Selbst bei einer großen Stichprobengröße ist es möglich, dass einige Personen ausgeschlossen oder im Vergleich zu anderen unterrepräsentiert waren. Dieses Problem muss mithilfe synthetischer Daten gelöst werden.
Data Mining kann teurer sein als die Generierung unvoreingenommener Daten. Die eigentliche Datenerhebung erfordert Messungen, Interviews, große Stichproben und auf jeden Fall viel Aufwand. Durch KI generierte Daten sind kostengünstig und erfordern lediglich den Einsatz von Datenwissenschafts- und maschinellen Lernalgorithmen.
In den letzten Jahren haben Führungskräfte vieler gewinnorientierter Unternehmen für synthetische Daten sowie Syntheas Gründer MitreCorp. einen Anstieg des Interesses an ihren Dienstleistungen festgestellt. Da Algorithmen jedoch immer häufiger eingesetzt werden, um lebensverändernde Entscheidungen zu treffen, wird festgestellt, dass sie Rassismus, Sexismus und schädliche Vorurteile in anderen wichtigen Bereichen verstärken, darunter Gesichtserkennung, Kriminalitätsvorhersage und Entscheidungsfindung im Gesundheitswesen. Forscher sagen, dass das Trainieren von Algorithmen anhand algorithmisch generierter Daten die Wahrscheinlichkeit erhöht, dass KI-Systeme in vielen Situationen schädliche Vorurteile aufrechterhalten.
Das obige ist der detaillierte Inhalt vonSo vermeiden Sie KI-Voreingenommenheitsprobleme bei synthetischen Datengeneratoren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!