Es besteht immer die Möglichkeit, dass die Informationen, die Menschen hören oder lesen, ungenau sind, sei es aus Zeitungen, Zeitschriften, Online-Quellen oder Rundfunksendungen. Desinformation gibt es seit den Anfängen der menschlichen Kultur, aber die schiere Menge an Informationen, die wir aus unserer vernetzten Online-Welt erhalten, macht uns besonders anfällig für den versehentlichen Konsum von verzerrtem oder gefälschtem Material. Die Menschen müssen verstehen, wie komplex KI dabei helfen kann, das Problem von Fake News und Voreingenommenheit zu lösen.
Verbraucher sind es gewohnt, dass ihre Meinung durch das beeinflusst wird, was sie online lesen, sehen und hören, beispielsweise durch Influencer-Marketing oder die Unterstützung von Prominenten. Meinungen haben große Macht, unabhängig davon, ob sie durch Fakten gestützt werden oder nicht, und viele gefälschte Nachrichten beruhen darauf, starke Emotionen zu wecken. Wenn es um die Aufmerksamkeit und Gefühle von Menschen geht, ist es oft notwendig, innezuhalten und darüber nachzudenken, ob das, was wir hören oder lesen, korrekt ist.
Laut MIT-Forschern dauert es sechsmal länger, bis echte Nachrichten 1.500 Menschen auf Twitter erreichen als gefälschte Nachrichten. Darüber hinaus ist die Kettenlänge (die Anzahl der Personen, die einen Social-Media-Beitrag teilen) zwischen zutreffenden Nachrichten und gefälschten Nachrichten höchst unverhältnismäßig. Die Zahl der überprüfbaren Nachrichten überstieg nie die Zahl 10, die Falschmeldungen stiegen jedoch auf 19. Dies ist teilweise darauf zurückzuführen, dass böswillige Akteure Bot-Schwärme nutzen, um falsche Informationen zu verbreiten.
Desinformation betrifft mittlerweile Menschen, Regierungen und Unternehmen auf der ganzen Welt. In der heutigen expandierenden digitalen Informationswirtschaft ist das Entdecken und Aussortieren sogenannter „Fake News“ eine große Aufgabe. Verbesserungen der künstlichen Intelligenz (KI) könnten es den Nutzern von Online-Informationen jedoch möglicherweise leichter machen, Realität von Fiktion zu unterscheiden.
Hier sehen Sie, wie künstliche Intelligenz eingesetzt werden kann, um die Verbreitung von Fehlinformationen zu stoppen und das Internet zu einer ausgewogeneren Nachrichtenquelle zu machen.
Durch den Einsatz fortschrittlicher Algorithmen, um Personen zu entdecken und zu erreichen, die wahrscheinlich Informationen leicht aufnehmen werden, nutzen seriöse Unternehmen künstliche Intelligenz, um die wahrscheinlichsten Verbraucher einer Information zu lokalisieren und gezielt anzusprechen Meinung. Beispielsweise hat Google im Jahr 2015 seinen RankBrain-Algorithmus implementiert, um seine Fähigkeit zu verbessern, verlässliche Ergebnisse zu identifizieren.
Um computergeneriertes Material von von Menschen erstellten Artikeln zu unterscheiden, kann KI-basierte Technologie eine sprachliche Analyse des Textinhalts durchführen und Hinweise wie Wortmuster, syntaktische Struktur und Lesbarkeit finden. Diese Algorithmen können jeden Text analysieren, um Fälle von Hassrede zu finden, indem sie Wortvektoren, Wortpositionen und Konnotationen untersuchen.
Fake-News-Quellen stammen meist aus einer illegalen Quelle, bevor sich die Informationen verbreiten. Project Fandango sucht nach Social-Media-Beiträgen oder Internetseiten mit demselben Begriff oder Anspruch, nachdem es Artikel verwendet hat, die von menschlichen Faktenprüfern als falsch erachtet wurden. Dies ermöglicht es Journalisten und Experten, die Quelle der Desinformation aufzuspüren und etwaige Gefahren zu neutralisieren, bevor sie außer Kontrolle geraten.
Politifact, Snopes und FactCheck verwenden menschliche Redakteure, um die erste Untersuchung durchzuführen, die zur Bestätigung der Authentizität einer Geschichte oder eines Bildes erforderlich ist. Sobald eine Fälschung identifiziert wird, durchsucht das KI-System das Internet nach ähnlichen Informationen, die soziale Unruhen auslösen könnten. Darüber hinaus kann die Anwendung einem Website-Artikel einen Reputationsfaktor zuweisen, wenn festgestellt wird, dass das Material authentisch ist.
Einige KI-Engines verwenden derzeit die folgenden Messwerte in ihren Bewertungsergebnissen:
• Stimmungsanalyse: Einstellung von Journalisten zu Nachrichten im Allgemeinen oder einem bestimmten Thema, über das sie schreiben.
•Meinungsanalyse: Persönliche Gefühle, Meinungen, Überzeugungen oder Bewertungen der Arbeit eines Journalisten
•Revisionsanalyse: Die Untersuchung, wie sich eine Nachricht im Laufe der Zeit verändert und wie sie die öffentliche Wahrnehmung und Stimmung manipuliert.
•Propagandaanalyse: Nutzen Sie die Propagandaanalyse, um bis zu 18 verschiedene Überzeugungsstrategien zu erkennen, die Ihnen dabei helfen können, potenzielle Desinformation aufzudecken.
Alle vier zusammen ergeben ein umfassendes Bild der Glaubwürdigkeit eines Artikels und der Probleme, mit denen wir konfrontiert sind.
Sprachmodelle wie GPT-3 können bereits Artikel, Gedichte und Prosa basierend auf einer Zeile von Eingabeaufforderungen erstellen. Künstliche Intelligenz hat die Herstellung von Materialien, die Menschen ähneln, nahezu perfektioniert. Künstliche Intelligenz hat es so einfach gemacht, alle Arten von Informationen zu manipulieren, dass Open-Source-Programme wie FaceSwap und DeepFaceLab unerfahrene neue Benutzer zum Zentrum potenzieller sozialer Unruhen machen könnten.
Diese Probleme werden noch dadurch verschlimmert, dass diese semantischen Analysealgorithmen nicht in der Lage sind, das Wesen von Bildern von Hassreden zu entschlüsseln, die nicht verändert, sondern in schädlichen oder ungenauen Kontexten verbreitet werden.
Sobald betrügerische Inhalte entdeckt werden, ist deren Entfernung schwieriger als es scheint. Einigen Organisationen wird möglicherweise Zensur und der Versuch vorgeworfen, Informationen zu verbergen, die die eine oder andere Organisation für unwahr hält. Es ist schwierig, ein Gleichgewicht zwischen dem Recht auf freie Meinungsäußerung und der Bekämpfung von Desinformation und Fake News zu finden.
KI fehlt im Allgemeinen auch die Fähigkeit, Humor und Streiche zu erkennen. Wenn gefälschte Nachrichten oder Desinformationen auf unbeschwerte oder scherzhafte Weise verwendet werden, kann dies daher als böswillige Desinformation eingestuft werden. Aber es lässt sich nicht leugnen, dass KI im Kampf gegen Fake News ein großer Vorteil sein kann. Im Kampf gegen gefälschte Internetnachrichten ist die Technologie von entscheidender Bedeutung, da sie mit den riesigen Mengen an Material umgehen kann.
Fake News sind kein Problem, das allein durch Algorithmen gelöst werden kann – wir müssen unsere Denkweise in der Art und Weise, wie wir uns Wissen aneignen, ändern. Während Crowdsourcing von kollaborativem Wissen zwischen Berufsgruppen für die Auswertung von Rohdaten von entscheidender Bedeutung ist, kann eine Gemeinschaft sachkundiger Benutzer auch Initiativen zur ethischen Überwachung unterstützen.
Aktive Aktionen, an denen nicht alle Parteien beteiligt sind, können den Vertrauensverlust der Öffentlichkeit in Institutionen und Medien beschleunigen, was den Auftakt zur Anarchie darstellt. Bis der Mensch die Fähigkeit entwickeln kann, Online-Inhalte objektiv zu analysieren, müssen KI-basierte Technologien zu Partnern im Kampf gegen Fehlinformationen im Internet werden.
Das obige ist der detaillierte Inhalt vonWie künstliche Intelligenz Fake News und Voreingenommenheit im Internet beseitigen kann. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!