AI 音声詐欺: 95% が人間の音声をシミュレートし、接続者の 77% が経済的損失を被る

王林
リリース: 2023-05-06 17:55:09
転載
1557 人が閲覧しました

AI 语音诈骗日益猖獗:实现 95% 模拟人声、77% 接通者遭经济损失

マカフィーが発表した最新のレポートによると、人工知能 (AI) を利用した音声詐欺がますます横行しており、詐欺電話を​​受けた人の 77% が経済的損失を引き起こすとのことです。

AI 语音诈骗日益猖獗:实现 95% 模拟人声、77% 接通者遭经济损失

報告書では 2 つの実際のケースについて言及しました。1 つは AI を使用して被害者の親族をシミュレートし、何かのために緊急にお金が必要であると表明しました。もう 1 つは AI を使用して娘をシミュレートしました. 実際に娘が誘拐されたわけではないにもかかわらず、母親から身代金を要求された。

AI 音声クローン ツールは非常に安価で入手可能なため、悪意のある当事者が音声クローンを迅速かつ簡単に作成できます。サンプル音声を入手する方法は、ソーシャル メディアで自分の声を共有している人々からです。オンラインで自分の声を共有すればするほど、攻撃者があなたの声を見つけて複製することが容易になります。

AI 语音诈骗日益猖獗:实现 95% 模拟人声、77% 接通者遭经济损失

AI 语音诈骗日益猖獗:实现 95% 模拟人声、77% 接通者遭经济损失

添付レポートの内容は次のとおりです。

  • 音声の 正解率クローン作成ツールの被害率は 95% に達します
  • 77% AI 詐欺電話を​​受けた人は経済的損失を被りました
  • 3 分の 1 以上が ## 以上の損失を被りました#1,000 米ドル
  • 7% の人々が 5,000 ドルから 15,000 ドルのお金を騙し取られました
  • 米国の 11% の人々が 5,000 ドルから 15,000 ドルの損失を被りました
  • AI 詐欺による窃盗2022 年
  • 26 億米ドル
興味のあるユーザーは [

PDF] をクリックして元のレポートにアクセスしてください。

以上がAI 音声詐欺: 95% が人間の音声をシミュレートし、接続者の 77% が経済的損失を被るの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート