多數人自信辨真偽,然而深度偽造的興起卻令此能力或許愈發困難。
深度偽造(Deepfake)是由人工智慧(AI)創建的數位內容,可涵蓋音訊、視訊及靜態影像,看似真實無比。其常將人物描繪出不實言行。網路安全專家和技術專家越來越多地警告說,這些內容可能被用於各種惡意方式,包括詐欺計劃或傳播錯誤訊息。
確定風險
關於深度偽造的興起,專家警告的一個重點領域是名人和政界,但攻擊也可能針對個人。
IEEE會員Rebecca Herold分享了一則軼事,說明了深度偽造的風險。 Herold說:「我的一個朋友出差時接到了妻子的電話。她非常沮喪,抽泣著告訴他自己出了事故,身上沒有錢叫拖車。我朋友幾乎完全相信了這個電話,這聽起來就是他妻子的聲音。但當這個朋友告訴妻子需要給拖車公司電匯,掛了電話後,他又撥通了妻子的電話號碼—— 他說他差點就被騙了,聲音非常真實,然而,他的妻子很安全。」
儘管深度偽造技術可以令人難以置信地信服,但通常會留下一些微妙的線索,暗示它們可能不是真實的
IEEE會員Yale Fox表示:「目前,深度偽造與真實影片並非完全無法區分,但我們正在逐漸接近。大多數人仍然可以識別深度偽造影片。」
人工智能在塑造他人正面形象方面表現出色,但在細節方面仍存在問題,例如側面和背面的觀察。需要從各個角度觀察圖像。深度偽造的照片和影片往往比真實牙齒更多。如果有人微笑或露出牙齒,請仔細觀察
• 深度偽造的照片和影片也經常給人太多或太少的手指。注意計算照片或影片主題上有多少手指。
在人物的側面和角度視圖方面,深度偽造技術也存在一些問題。如果你透過直播視頻與某人交流,並且你懷疑這是一個深度偽造的視頻,你可以請他們看向側面,或者問一個會讓他們轉頭的問題,比如:“嘿,我喜歡你身後牆上的那幅畫。這是哪位藝術家的?」
• 深度偽造的照片和影片通常包含不一致的地方,如光線、反射和陰影。
• 深度偽造的影片通常包含快速但不自然的動作。例如,尋找/不尋常的急動或似乎在時間上的跳躍。
深度偽造音訊通常具有一些不自然或不一致的音訊質量,這種情況可能會偶爾出現
深度偽造技術可能會給社會帶來危害,引發了政府、大學和私人企業對檢測工具的研究熱潮
一些技術評估可疑內容本身。例如,一些工具可能會評估人臉上的血流,尋找不自然的混合或模糊狀態。或觀察一個人眼睛的反射,看看它是否與周圍環境相匹配,以此作為真實性的指標。 IEEE訊號處理協會主辦的全面討論展示了其中一些技術在實務上的應用。
其他工具可能會檢查文件的元資料是否存在操作痕跡
IEEE高級會員Kayne MGladrey表示:「同樣,參與深度偽造威脅的人可能會從偵測演算法中學習,並相應地調整他們的技術。這裡非常重要的是,視訊和音訊內容的主要分銷商需要投資大規模部署這些解決方案,以防止錯誤訊息或虛假訊息的傳播。」
以上是深入理解深偽科技:IEEE的探索與研究的詳細內容。更多資訊請關注PHP中文網其他相關文章!