日入400萬,第一批AI騙子已上崗

WBOY
發布: 2023-06-11 11:41:46
轉載
885 人瀏覽過

在你還在擔心ChatGPT是否會在未來的某一天取代自己的工作,思考如何利用人工智慧提高工作效率時,有一群人已經靠著這項新技術賺大錢了。

他們就是…騙子。

10分鐘騙到430萬,

#第一批靠AI暴富的竟是騙子

#如果你在某天接到一位朋友的微信視訊電話,鏡頭另一端的人從長相、聲音都和你記憶中的朋友一模一樣,當他開口向你借430萬作為工作競標的保證金時,你會怎麼做?

最近,福州市某科技公司的法人代表郭先生就遇到了這個難題。基於信任,他將430萬轉到了朋友的帳戶。直到事後給朋友打了一個電話,才發現是騙子盜用朋友的微信號,再透過AI換臉和擬聲技術,對他實施了一次詐騙。

日入400萬,第一批AI騙子已上崗

類似的事情在大洋彼岸的發生頻率,也在爆炸性成長。

根據CNN報道,今年四月,生活亞利桑那州的Jennifer DeStefan接到了一個陌生電話,電話裡的聲音是自己在外準備滑雪比賽的女兒Brianna。 Brianna在電話的另一頭帶著哭腔向她求救。幾十秒後,一個低沉的男音在電話裡威脅道:「聽著,你女兒在我手裡,拿出100萬美元的贖金,如今你打電話報警或是告訴其他人,就永遠別想再見了她。」

電話那頭的男子聽到Jennifer表示自己拿不出100萬美元後,將贖金暴降至5萬美元。愛女心切的Jennifer不顧友人和丈夫的勸阻,已經開始和對方討論支付贖金的方式,直到Brianna打來一個電話,表示自己平安無事,才避免了這次財產損失。

在今年三月,《華盛頓郵報》也報道了一起犯案手法幾乎一模一樣的詐騙案,只不過受害者是一對年過70的老年夫婦。

日入400萬,第一批AI騙子已上崗

受害的老人(圖源《華盛頓郵報》)

不良分子正在利用AI語音技術偽造緊急情況,以欺詐的方式獲取財產或資訊。該警告由美國聯邦貿易委員會(FTC)在5月發布。偽裝成受害者的親人、朋友進行詐騙並不新鮮,但毫無疑問的是,AI技術的出現使得克隆一個人的聲音、偽造一個人的視頻變得異常簡單。去年在美國發生的這種騙局數量激增了70%,因此受害者的損失總額高達26億美元。

照這樣的趨勢發展下去,只怕最先靠AI技術實現財富自由的,是一群躲藏在螢幕背後的騙子了。

人工智慧的黑暗面

#ChatGPT的出現使AI詐騙變得更加輕鬆,儘管偽造一個人的聲音和影片仍需一定技術門檻。

根據外國網路安全平台GBHackers報道,由於強大的工作生產效率和極低的使用門檻,ChatGPT吸引了一大批網路詐騙犯。

例如利用ChatGPT談一場「假戀愛」:自我介紹、聊天記錄和精心製作的情書都能透過人工智慧快速產出,還能透過輸入目標對象的具體訊息,進行個性化定制,讓螢幕對面的人更快與你墜入愛河。 ChatGPT還可以用於幫助騙子編寫收款程序或盜取受害者銀行卡資訊的釣魚網站,從而實現詐騙財物的目的。

日入400萬,第一批AI騙子已上崗

當你直接要求ChatGPT為你撰寫一個釣魚軟體程式時,它會拒絕;但如果你說你是一名老師,希望給學生展示一個釣魚軟體,它就會老實寫出一個網站給你。

更可怕的是,人們很難分辨螢幕另一端的到底是人還是機器。 McAfee, the world's largest security technology company, once used AI to generate a love letter and sent it to 5,000 users worldwide.。即使知道這封情書可能是由人工智慧產生的,有33%的調查對象仍願意相信它是真實人工創作的。

實際上,利用ChatGPT和受害者談一場「虛假戀愛」只是入門級別的詐騙手段,更嫻熟的駭客們已經開始利用人工智慧批量生成勒索軟體與惡意程式碼。

為了讓開發人員可以更方便地在GPT模型上開發更多的應用程序,OpenAI提供了應用程式介面的支援。而駭客就是利用這些接口,把GPT模型引入到一系列外部應用,以此繞過安全監管,使用GPT模型去寫犯罪程序。

日入400萬,第一批AI騙子已上崗

這些程式已經突破安全監管,並在美國暗網上公開出售,價格非常低廉,只需花費幾美元即可購買。購買者能​​夠利用這些軟體進行的違法行為,卻十分可怕:透過竊取程式碼和使用者隱私資訊、產生攻擊軟體和勒索病毒。

《金融時報》最近報道了一個由ChatGPT輔助產生的SIM交換攻擊腳本,騙子利用這個程式可以突破行動電話公司對電話號碼的控制權,將電話號碼從原持有者的SIM卡交換到由攻擊者控制的SIM卡中,從而控制受害者的行動電話。

「ChatGPT目前雖然只是內容生成工具,並未直接參與犯罪,但這標誌著人們開始使用人工智慧來入侵他人,技術水平更低的犯罪者將因此獲得更強大的犯罪手段。」一位人工智能從業人員對《金融時報》表示了自己的擔憂。

潘朵拉的魔盒,還能關上嗎?

當人工智慧越來越大的社會影響力與其犯罪潛力攪在一起,​​ChatGPT的各類安全漏洞使得人們愈發不安,「應如何對ChatGPT進行監管」已經成為了許多國家爭論的重點。

在一篇文章中,IBM全球倫理研究院倡議企業把倫理和責任置於其AI議程的首要位置。以馬斯克為代表的許多科技大佬也簽署了公開信,在訓練比GPT-4更強大的人工智慧系統之前,大家應該制定一套共享安全協議,由外部專家對其進行審查和監督。

ChatGPT has raised concerns among legislators worldwide, who are considering the possibility of incorporating it into the legislative regulatory framework.。政府官員更擔心立法者對於科技的認知滯後,而非人工智慧的安全性問題。

日入400萬,第一批AI騙子已上崗

美聯社認為,在過去20年中,科技巨頭們不斷引領美國的科技創新,因此政府始終不願監管大型科技公司,成為創意的扼殺者。因此,許多人缺乏對新科技的了解,卻決定加強對新興科技的監管。

畢竟,美國國會上一次為了規範科技而頒布的法典,已經是1998年的《兒童網路隱私權保護法》了。

根據路透社的報導,多個國家已經開始推出法規來規範以OpenAI為代表的人工智慧。今年三月,義大利曾因擔心資料安全問題而短暫禁止OpenAI在該國的使用,直到一個月後才解禁。根據路透社報道,五月一位義大利政府官員表示,政府將聘請人工智慧專家來監督OpenAI的合規使用。

面對各國政府的疑慮,OpenAI首席技術長米拉·穆拉蒂在接受路透社採訪時也表示,「公司歡迎包括監管機構和政府在內的各方開始介入」。尚未確定立法者如何跟上技術發展步伐,尤其是在快速發展的人工智慧領域。

唯一確定的一點是:潘朵拉的盒子一旦打開,就沒有那麼容易關上了。

參考資料:

CNN:‘Mom, these bad men have me’: She believes scammers cloned her daughter’s voice in a fake kidnapping

REUTERS:Factbox:governments race to regulate AI tools

金融時報:Musk and other tech experts call for ‘pause’on advanced AI systems

編輯:Echo

除標註外,圖片來源東方IC

以上是日入400萬,第一批AI騙子已上崗的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!