Ein 1995 geborenes Mädchen beging Selbstmord, weil sie einen Blogbeitrag online gestellt hatte.
Nach der Veröffentlichung dieses zarten Blogbeitrags stieß der Protagonist Zheng Linghua auf viele Gerüchte und Beschimpfungen.
Manche Leute stellen ihre Identität in Frage und verbreiten Gerüchte, dass sie eine „Bardame“ sei, nur weil ihre Haare rosa sind; andere verbreiten Gerüchte, dass sie eine „junge und alte Liebe“, „Chaliu“ und „Lügnerin“ sei und verbreiten Gerüchte über sie Verdienen Sie Geld, indem Sie die Krankheit Ihres Großvaters ausnutzen.
Es ist so hässlich. Obwohl viele Medien die Gerüchte widerlegten, erhielt Zheng Linghua keine Entschuldigung. Selbst als Zheng Linghua zu den legalen Waffen griff, um ihre Rechte zu verteidigen, wurde sie dennoch schikaniert.
Am Ende litt Zheng Linghua an Depressionen und beendete sein Leben vor nicht allzu langer Zeit.
Solche Dinge sind im Internet schon oft passiert. Diese Art von „schrecklichen Worten“, die die Online-Welt durchdringen, löst bei den Menschen nicht nur Ekel aus, sondern kann sogar Menschen das Leben kosten Verhalten – Cyber-Gewalt, auch „Cyber-Gewalt“ genannt.
Kann KI heute, wo KI bereits fließend mit Menschen kommunizieren kann, eine Rolle bei der Identifizierung von Cyber-Gräueltaten spielen?
Obwohl die meisten Internetplattformen einige Systeme zur Identifizierung spezieller Sprache eingeführt haben, erkennen und erkennen die meisten dieser Systeme nur Schlüsselwörter. Das Löschen ist offensichtlich nicht schlau genug, und diese Einschränkungen können mit ein wenig Aufmerksamkeit umgangen werden.
Um gewalttätige Äußerungen im Internet genau zu identifizieren, müssen tatsächlich zwei Dinge getan werden:
Das erste, worauf man achten sollte, ist der Inhalt von Bemerkungen zu Cyber-Gewalt, da die meisten Briefe und Nachrichten im Internet segmentiert sind und Cyber-Gewalt oft während des Gesprächs allmählich ernst wird und schließlich negative Konsequenzen hat .
Der zweite Punkt, der Anlass zur Sorge gibt, ist die Geschwindigkeit. Denn im Internet müssen zu viele Daten verarbeitet werden. Wenn die Erkennung lange dauert, hat das System keinen praktischen Nutzen und wird nicht übernommen .
Ein Forscherteam in Großbritannien hat ein neues Modell für künstliche Intelligenz namens BiCapsHate entwickelt, das diese beiden Herausforderungen bewältigt. Die Ergebnisse wurden am 19. Januar in IEEE Transactions on Computational in einem Artikel in Social Systems veröffentlicht.
Das Modell besteht aus fünf Schichten eines tiefen neuronalen Netzwerks, das mit einer Eingabeschicht beginnt, die den Eingabetext verarbeitet, dann zu einer Einbettungsschicht, die den Text in eine numerische Darstellung einbettet, und dann zu einer BiCaps-Schicht Beim Erlernen der sequentiellen und sprachlichen Kontextdarstellung bereitet die dichte Schicht das Modell für die endgültige Klassifizierung vor und die endgültige Ausgabeschicht gibt die Ergebnisse aus.
Die BiCaps-Ebene ist die wichtigste Komponente. Sie erhält über Kapselnetzwerke effektiv Kontextinformationen in verschiedene Richtungen vor und nach dem Eingabetext. Machen Sie Ihr Modell dank einer Fülle handabgestimmter flacher und tiefer Hilfsfunktionen (einschließlich Hatebase-Wörterbüchern) noch informativer. Die Forscher führten umfangreiche Experimente mit fünf Benchmark-Datensätzen durch, um die Wirksamkeit des vorgeschlagenen BiCapsHate-Modells zu demonstrieren. Die Gesamtergebnisse zeigen, dass BiCapsHate die bestehenden hochmodernen Methoden, einschließlich fBERT, HateBERT und ToxicBERT, übertrifft.
Bei ausgeglichenen und unausgeglichenen Datensätzen erreicht BiCapsHate eine F-Score-Genauigkeit von 94 % bzw. 92 %.
Tarique Anwar ist Dozent am Fachbereich Informatik der University of York und hat an dieser Forschung teilgenommen. Er wies darauf hin, dass Online-Debatten häufig zu negativen, hasserfüllten und beleidigenden Trolling-Kommentaren führen, die nicht durch bestehende Praktiken zur Inhaltsmoderation auf Social-Media-Plattformen kontrolliert werden können.
Er sagte: „Darüber hinaus spiegeln Hassreden im Internet manchmal reale Umstände wider und führen zu Kriminalität und gewalttätigem Verhalten.“ Tariq Anwar sagte auch, dass es mehrere Beispiele dafür gibt, dass Hassreden im Internet zu körperlicher Gewalt und Unruhen führen.
Um zur Lösung dieses Problems beizutragen, hat das Team von Tariq Anwar beschlossen, BiCapsHate zu entwickeln, und es hat sehr gute Ergebnisse erzielt.
Wie Anwar betonte, kann Sprache in manchen Fällen mehrdeutig sein, d. h. ein Wort kann in einem Kontext positiv und in einem anderen negativ sein. Frühere Modelle wie HateBERT, toxicBERT und fBERT waren in dieser Hinsicht nicht gut genug. Diese künstlichen Intelligenzen können den Kontext bis zu einem gewissen Grad erfassen, aber Tariq Anwar glaubt, dass „diese immer noch nicht gut genug sind“.
Ein weiterer Vorteil von BiCapsHate ist die Fähigkeit des Modells, Berechnungen mit begrenzten Hardwareressourcen durchzuführen. „[Andere Modelle] erfordern High-End-Hardwareressourcen wie GPUs und High-End-Systeme für die Datenverarbeitung“, erklärte Tariq Anwar. „Im Gegensatz dazu kann BiCapsHate... auf einer CPU-Maschine ausgeführt werden, selbst wenn Sie nur über 8 GB Speicher verfügen.“ Es ist erwähnenswert, dass diese künstliche Intelligenz bisher nur für die Analyse von Englisch entwickelt und getestet wurde Sprache, daher muss es in andere Sprachen angepasst werden. Es ist auch weniger gut darin, beleidigende Worte mit einem milden oder subtilen hasserfüllten Ton zu erkennen, als intensivere Hassreden.
Die Forscher hoffen, als nächstes Möglichkeiten zur Beurteilung der psychischen Gesundheit von Nutzern zu untersuchen, die online Hass äußern. Wenn man befürchtet, dass die Person psychisch instabil ist und gegenüber Menschen in der realen Welt körperlich gewalttätig sein könnte, kann ein frühzeitiges Eingreifen in Betracht gezogen werden, um die Wahrscheinlichkeit zu verringern, dass dies geschieht.
Das obige ist der detaillierte Inhalt vonSetzen Sie KI ein, um Tastaturkrieger und Internet-Trolle zu bekämpfen und das Leben derjenigen zu schützen, die online gemobbt werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!