AI詐騙近在眼前,我們該怎麼防?

王林
發布: 2023-05-29 12:58:36
轉載
1038 人瀏覽過

任何技術,都是一把雙面刃。人工智慧(AI)又可能為我們帶來哪些危害呢?

當前,無論是科學家、企業家、媒體,還是我們身邊的其他人,一直在討論AI 的長期危害,例如可能讓打工人丟掉飯碗、超越或取代人類的思維,甚至讓人類失去對文明的控制等等。

然而,AI 帶給我們的危害,卻近在眼前。而且,對大多數人而言,他們只有在親身經歷後,才知道自己也是受害者。

AI詐騙近在眼前,我們該怎麼防?

近日,「一公司老闆遭遇 AI 換臉詐騙,10 分鐘被騙 430 萬元」的新聞一度登上了各大新聞網站的熱搜。據被害人透露,詐騙人透過AI 換臉和擬聲技術,成功佯裝為他的好友,然後對其進行詐騙,「當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放鬆了戒備。」

儘管這一事件讓人們對「AI 換臉」詐騙有了更多的認識,但實際上,「AI 換臉」的例子遠不止這些,直播間賣貨的當紅明星、一些不雅視頻中的臉孔等等,都可能是不法份子利用AI 技術製造的騙局。

另外,不法分子也會在盜取他人微信帳號後利用 AI 技術提取語音文件,透過轉發微信語音進行詐騙。

問題是,我們在享受 AI 技術帶來的便利時,該如何應對「AI 換臉」等新型詐騙?

去年12 月,國家互聯網資訊辦公室、工業和資訊化部、公共安全部聯合發布了《互聯網資訊服務深度合成管理規定》,其中提到:深度合成服務提供者對使用其服務生成或編輯的資訊內容,應添加不影響使用的標識。提供智慧對話、合成人聲、人臉生成、沉浸式擬真場景等生成或顯著改變資訊內容功能的服務的,應進行顯著標識,避免公眾混淆或誤認。

本月初,某短影片平台也發布了“關於人工智慧生成內容的平台規範暨產業倡議”,明確禁止利用生成式人工智慧技術創作、發布侵權內容,包括但不限於肖像權、智慧財產權等,一經發現,平台將嚴格處罰。

AI詐騙近在眼前,我們該怎麼防?

如果涉及直播帶貨等商業行為,上文所述的換臉直播有可能構成侵犯相關明星藝人的肖像權,情節會更加嚴重。需要注意的是,換臉直播即使只是用於娛樂而且沒有盈利行為,未經肖像權人同意仍然屬於侵權行為。

那麼,就個人而言,又該如何警惕「AI 換臉」等新型詐騙呢?

5 月24 日,中國網路協會發文警示,「面對利用AI 技術的新型騙局,廣大民眾需提高警惕,加強防範!」具體而言,我們應該做好個人資訊安全第一責任人,以及在遠端轉帳時務必進行多重驗證,把好「錢袋子」。

AI詐騙近在眼前,我們該怎麼防?

AI詐騙近在眼前,我們該怎麼防?

而對產業而言,澎湃特約評論員熊志認為,必須盡快立規,明確資訊保護紅線,加強對技術服務商行為的規範引導,只有AI 換臉、AI 擬聲等在每一個環節有據可依、嚴格授權,提升造假詐騙難度,才能更好保護每個人的資訊和財產安全。

最後,如果你感覺你正在遭受或已經遭受了 AI 換臉、AI 擬聲等詐騙,一定要學會用「法」打敗「AI 魔法」。當然,最好的應對方法就是,選擇不去相信。

以上是AI詐騙近在眼前,我們該怎麼防?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板