1995 年生まれの少女は、ブログ投稿をオンラインに投稿したことが原因で自殺しました。
##この優しいブログ投稿の公開後、主人公の鄭玲華は多くの噂や虐待に遭遇しました。 髪がピンクだったという理由だけで彼女の身元を疑問視し、「バーテンダー」であるという噂を広めた人もいれば、彼女が「老いも若きも恋人」であり、恋人同士だったという噂を広めた人もいました。祖父の病気を利用して金儲けをしているという噂を広めた「嘘つき」「cha-flow」。 これはとても見苦しいです。多くのメディアがこの噂に反論したが、鄭玲華氏は謝罪を受けておらず、権利を守るために合法的な武器をとったときでも、依然として嫌がらせを受けていた。 結局、鄭玲華さんはうつ病を患い、つい最近その生涯を閉じました。 インターネット上では、このようなことが何度も起きています。インターネットの世界に蔓延するこのような「ひどい言葉」は、人々に嫌悪感を与えるだけでなく、人の命を奪うことさえあります。また、この行為を表す特別な用語、サイバー暴力、または略して「サイバー暴力」とも呼ばれます。 それでは、AI がすでに人間と流暢にコミュニケーションできるようになった今日、AI はサイバー残虐行為を特定する役割を果たすことができるのでしょうか? 2 つの大きな問題を乗り越え、オンラインの暴力的なコメントの識別精度は 90% を超えました。 ほとんどのインターネット プラットフォームはすでに何らかの特別な認識を開始していますが、システム 音声システムですが、これらのシステムのほとんどはキーワードを検出して削除するだけであり、明らかに十分にスマートではありませんが、少し注意することでこれらの制限を回避できます。 実際、オンラインの暴力的な発言を正確に特定するには、次の 2 つのことを行う必要があります:アンワルが指摘しているように、言語は場合によっては曖昧になることがあります。つまり、ある単語は、ある文脈では肯定的であり、別の文脈では否定的である可能性があります。 HateBERT、有毒BERT、fBERTなどの以前のモデルは、この点で十分ではありませんでした。これらの人工知能はある程度コンテキストを捕捉できますが、タリク・アンワル氏は「これらはまだ十分ではない」と考えています。
BiCapsHate のもう 1 つの利点は、限られたハードウェア リソースを使用して計算を実行できるモデルの機能です。 「(他のモデルは)GPU などのハイエンドのハードウェア リソースや、コンピューティング用のハイエンド システムが必要です」と Tariq Anwar 氏は説明しました。 「対照的に、BiCapsHate は、メモリが 8 GB しかない場合でも、CPU マシンで実行できます。」
この人工知能が開発され、これまでのところテストされているが、英語の音声を分析するようにのみ設計されているため、他の言語にも適応させる必要がある。また、より激しいヘイトスピーチに比べて、穏やかまたは微妙なヘイトトーンの攻撃的な言葉を見つけるのが苦手です。
研究者らは次に、オンラインで憎悪を表明するユーザーの精神的健康を評価する方法を探求したいと考えています。その人が精神的に不安定で、現実世界の人々に対して身体的に暴力を振るう可能性があると懸念される場合は、その可能性を減らすために早期の介入が検討される可能性があります。
以上がAI を使用してキーボード戦士やインターネット荒らしと戦い、オンラインでいじめられている人々の命を守りますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。