詐騙者利用 AI 聲音冒充親人竊取數百萬美元

王林
發布: 2023-05-02 22:10:05
轉載
829 人瀏覽過

诈骗者利用 AI 声音冒充亲人窃取数百万美元

2022 年,超過 5,000 名受害者透過電話被騙走金錢。

  • 人工智慧語音產生軟體讓騙子可以模仿親人的聲音。
  • 這些假冒行為導致人們在 2022 年透過電話被騙走 1,100 萬美元。
  • 老年人佔目標族群的大多數。

一段時間以來,人工智慧一直是科技界的中心話題,因為微軟繼續在其產品中註入ChatGPT,而谷歌則試圖透過推出自己的人工智慧產品來跟上潮流。雖然人工智慧有潛力做一些真正令人印象深刻的事情——例如根據一行文字生成圖像——但我們開始看到幾乎不受監管的技術的更多缺點。最新的例子是人工智慧語音產生器被用來騙取人們的錢財。

人工智慧語音生成軟體近來一直是頭條新聞,主要是因為竊取了配音演員的聲音。最初,軟體只需要幾句話就可以令人信服地再現揚聲器的聲音和語氣。這項技術已經發展到只需幾秒鐘的對話就足以準確地模仿某人的程度。

诈骗者利用 AI 声音冒充亲人窃取数百万美元

在《華盛頓郵報》的一份新報告中,數以千計的受害者聲稱他們被冒充親人的冒名頂替者所欺騙。據報道,冒名頂替詐騙已成為美國第二大最受歡迎的詐欺類型,2022 年提交的案件超過 36,000 起。根據FTC 官員的說法,在這36,000 起案件中,超過5,000 名受害者通過電話騙走了他們的錢,損失總額達1,100 萬美元.

一個突出的故事涉及一對老年夫婦,他們認為他們與兒子交談過後,透過比特幣終端向詐騙者發送了超過15,000 美元。人工智慧的聲音讓這對夫婦相信,他們的兒子在一場車禍中殺死了一名美國外交官後陷入了法律糾紛。

與故事中的受害者一樣,這些攻擊似乎主要針對老年人。這並不奇怪,因為在涉及金融詐騙時,老年人是最脆弱的群體之一。不幸的是,法院尚未就公司是否應對人工智慧語音產生器或其他形式的人工智慧技術造成的損害承擔責任做出決定。

以上是詐騙者利用 AI 聲音冒充親人竊取數百萬美元的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板