In den letzten 10 Jahren sind große Technologieunternehmen in vielen Technologien sehr gut geworden: Sprache, Vorhersage, Personalisierung, Archivierung, Textanalyse und Datenverarbeitung. Aber sie sind immer noch schlecht darin, schädliche Inhalte zu erkennen, zu kennzeichnen und zu entfernen. Was die in den Vereinigten Staaten verbreiteten Wahl- und Impfverschwörungstheorien angeht, muss man nur auf die Ereignisse der letzten zwei Jahre zurückblicken, um zu verstehen, welchen Schaden sie in der realen Welt anrichten.
Dieser Unterschied wirft einige Fragen auf. Warum verbessern Technologieunternehmen die Inhaltsmoderation nicht? Können sie dazu gezwungen werden? Werden neue Fortschritte in der künstlichen Intelligenz unsere Fähigkeit verbessern, schlechte Informationen zu erfassen?
Wenn Technologieunternehmen vom US-Kongress gebeten werden, ihre Rolle bei der Verbreitung von Hass und Fehlinformationen zu erläutern, neigen sie oft dazu, ihr Versagen auf die Komplexität der Sprache selbst zurückzuführen. Führungskräfte sagen, dass es eine schwierige Aufgabe sei, kontextbezogene Hassreden in verschiedenen Sprachen und Kontexten zu verstehen und zu verhindern.
Einer der Lieblingssprüche von Mark Zuckerberg ist, dass Technologieunternehmen nicht für die Lösung aller politischen Probleme der Welt verantwortlich sein sollten.
(Quelle: STEPHANIE ARNETT/MITTR | GETTY IMAGES)
Die meisten Unternehmen beschäftigen derzeit sowohl Technologie- als auch menschliche Content-Moderatoren, wobei der Job der letzteren unterbewertet wird, was sich in ihrer mageren Bezahlung widerspiegelt.
Zum Beispiel ist KI derzeit für 97 % aller auf Facebook entfernten Inhalte verantwortlich.
Renee DiResta, Forschungsmanagerin am Stanford Internet Observatory, sagte jedoch, dass künstliche Intelligenz nicht gut darin sei, Nuancen und Kontexte zu interpretieren, sodass es unwahrscheinlich sei, dass sie menschliche Inhaltsmoderatoren vollständig ersetzen werde, auch wenn Menschen nicht immer gut darin seien, diese zu erklären Dinge entweder.
Da automatisierte Content-Moderationssysteme in der Regel auf englischsprachigen Daten trainiert werden, können der kulturelle Hintergrund und die Sprache auch Herausforderungen darstellen und den effektiven Umgang mit Inhalten in anderen Sprachen erschweren.
Professor Hani Farid von der School of Information der University of California, Berkeley, liefert eine offensichtlichere Erklärung. Da die Moderation von Inhalten nicht im finanziellen Interesse von Technologieunternehmen liegt, hält sie laut Farid nicht mit den Risiken Schritt. Es geht nur um Gier. Hören Sie auf, so zu tun, als ginge es nicht um Geld. ”
Aufgrund der fehlenden bundesstaatlichen Regulierung ist es für Opfer von Online-Gewalt schwierig, von Plattformen finanzielle Verantwortung zu verlangen.
Die Moderation von Inhalten scheint ein nie endender Krieg zwischen Technologieunternehmen und schlechten Akteuren zu sein. Wenn Technologieunternehmen Regeln für die Moderation von Inhalten einführen, verwenden Kriminelle häufig Emojis oder absichtliche Rechtschreibfehler, um einer Entdeckung zu entgehen. Dann versuchen diese Unternehmen, die Lücken zu schließen, und die Leute finden neue Lücken, und der Kreislauf geht weiter.
Jetzt kommt das große Sprachmodell...
Die aktuelle Situation ist bereits sehr schwierig. Mit dem Aufkommen generativer künstlicher Intelligenz und groß angelegter Sprachmodelle wie ChatGPT könnte sich die Situation noch verschlimmern. Generative Technologie hat ihre Probleme – zum Beispiel ihre Tendenz, Dinge souverän zu erfinden und als Tatsachen darzustellen –, aber eines ist klar: KI wird immer besser in der Sprache.
Während sowohl DiResta als auch Farid vorsichtig sind, glauben sie, dass es noch zu früh ist, um ein Urteil darüber zu fällen, wie sich die Dinge entwickeln werden. Obwohl viele große Modelle wie GPT-4 und Bard über integrierte Inhaltsmoderationsfilter verfügen, können sie dennoch schädliche Inhalte wie Hassreden oder Anweisungen zum Bau einer Bombe erzeugen.
Generative KI ermöglicht es Kriminellen, Desinformationskampagnen in größerem Umfang und schneller durchzuführen. Dies ist eine schlimme Situation, da die Methoden zur Identifizierung und Kennzeichnung von KI-generierten Inhalten völlig unzureichend sind.
Andererseits schneiden die neuesten groß angelegten Sprachmodelle bei der Textinterpretation besser ab als frühere Systeme der künstlichen Intelligenz. Theoretisch könnten sie genutzt werden, um die Entwicklung einer automatisierten Inhaltsmoderation zu erleichtern.
Technologieunternehmen müssen in die Neugestaltung großer Sprachmodelle investieren, um dieses spezifische Ziel zu erreichen. Während Unternehmen wie Microsoft damit begonnen haben, sich mit der Angelegenheit zu befassen, gibt es noch keine nennenswerten Aktivitäten.
Farid sagte: „Obwohl wir viele technologische Fortschritte gesehen haben, bin ich skeptisch gegenüber Verbesserungen bei der Inhaltsmoderation.“
Während große Sprachmodelle schnell Fortschritte machen, stehen sie immer noch vor Herausforderungen beim Kontextverständnis, was dazu führen kann, dass sie die subtilen Unterschiede zwischen Beiträgen und Bildern nicht so genau verstehen wie menschliche Moderatoren. Auch interkulturelle Skalierbarkeit und Spezifität bereiten Probleme. „Setzen Sie ein Modell für eine bestimmte Art von Nische ein? Tun Sie es nach Land? Tun Sie es nach Community? Das ist keine allgemeingültige Frage“, sagte DiResta.
Neue Tools basierend auf neuen Technologien
Ob generative KI letztendlich der Online-Informationslandschaft schadet oder hilft, hängt möglicherweise weitgehend davon ab, ob Technologieunternehmen gute, weit verbreitete Tools entwickeln können, die uns sagen, ob Inhalte durch KI generiert wurden.
DiResta sagte mir, dass die Erkennung synthetischer Medien eine technische Herausforderung sein kann, die priorisiert werden muss, weil sie eine Herausforderung darstellt. Dazu gehören Methoden wie das digitale Wasserzeichen, bei dem ein Codestück als dauerhafte Markierung eingebettet wird, dass der angehängte Inhalt durch künstliche Intelligenz erstellt wurde. Automatisierte Tools zur Erkennung von KI-generierten oder manipulierten Beiträgen sind attraktiv, weil sie im Gegensatz zu Wasserzeichen kein aktives Tagging durch den Ersteller von KI-generierten Inhalten erfordern. Mit anderen Worten: Aktuelle Tools, die versuchen, maschinengenerierte Inhalte zu identifizieren, sind nicht gut genug.
Einige Unternehmen haben sogar vorgeschlagen, mithilfe von Mathematik kryptografische Signaturen von Informationen sicher aufzuzeichnen, beispielsweise wie ein Inhalt generiert wurde. Dies würde jedoch auf Technologien zur freiwilligen Offenlegung wie Wasserzeichen basieren.
Die neueste Version des Gesetzes über künstliche Intelligenz (KI-Gesetz), das gerade letzte Woche von der Europäischen Union vorgeschlagen wurde, verlangt von Unternehmen, die generative künstliche Intelligenz verwenden, die Benutzer zu benachrichtigen, wenn der Inhalt tatsächlich maschinell generiert wird. Wir werden in den kommenden Monaten wahrscheinlich mehr über neue Tools erfahren, da die Nachfrage nach Transparenz bei KI-generierten Inhalten steigt.
Unterstützung: Ren
Originaltext:
https://www.technologyreview.com/2023/05/15/1073019/catcher-bad-content-in-the-age-of-ai/
Das obige ist der detaillierte Inhalt vonWie erkennt man im Zeitalter der großen Models unangemessene Inhalte? Der EU-Gesetzentwurf verpflichtet KI-Unternehmen, das Recht der Nutzer auf Information sicherzustellen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!