诈骗者利用 AI 声音冒充亲人窃取数百万美元

王林
发布: 2023-05-02 22:10:05
转载
828 人浏览过

诈骗者利用 AI 声音冒充亲人窃取数百万美元

2022 年,超过 5,000 名受害者通过电话被骗走钱财。

  • 人工智能语音生成软件让骗子可以模仿亲人的声音。
  • 这些假冒行为导致人们在 2022 年通过电话被骗走 1100 万美元。
  • 老年人占目标人群的大多数。

一段时间以来,人工智能一直是科技界的中心话题,因为微软继续在其产品中注入ChatGPT,而谷歌则试图通过推出自己的人工智能产品来跟上潮流。虽然人工智能有潜力做一些真正令人印象深刻的事情——比如根据一行文本生成图像——但我们开始看到几乎不受监管的技术的更多缺点。最新的例子是人工智能语音发生器被用来骗取人们的钱财。

人工智能语音生成软件近来一直是头条新闻,主要是因为窃取了配音演员的声音。最初,软件只需要几句话就可以令人信服地再现扬声器的声音和语气。该技术已经发展到只需几秒钟的对话就足以准确模仿某人的程度。

诈骗者利用 AI 声音冒充亲人窃取数百万美元

在《华盛顿邮报》的一份新报告中,数以千计的受害者声称他们被冒充亲人的冒名顶替者所欺骗。据报道,冒名顶替诈骗已成为美国第二大最受欢迎的欺诈类型,2022 年提交的案件超过 36,000 起。根据 FTC 官员的说法,在这 36,000 起案件中,超过 5,000 名受害者通过电话骗走了他们的钱,损失总额达 1,100 万美元.

一个突出的故事涉及一对老年夫妇,他们认为他们与儿子交谈过后,通过比特币终端向诈骗者发送了超过 15,000 美元。人工智能的声音让这对夫妇相信,他们的儿子在一场车祸中杀死了一名美国外交官后陷入了法律纠纷。

与故事中的受害者一样,这些袭击似乎主要针对老年人。这并不奇怪,因为在涉及金融诈骗时,老年人是最脆弱的群体之一。不幸的是,法院尚未就公司是否应对人工智能语音发生器或其他形式的人工智能技术造成的损害承担责任做出决定。

以上是诈骗者利用 AI 声音冒充亲人窃取数百万美元的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板