AI製造的假照片,你能認出來嗎?

PHPz
發布: 2023-04-11 20:49:04
轉載
1772 人瀏覽過

眼見為憑的時代過去了,AI已經學會製造真實。

8月21日,重慶北碚纓雲山山火,大火一度蔓延至山腳下的村鎮。山路坡陡沙多,摩托車夠靈巧。一點點把物資運上山的摩托車騎士們成了這場山火救援中的主角,也成了社群媒體上人們關注的焦點。

同時,社群媒體上關於重慶山火的配圖被網友指出「10張有8張是AI作畫,下面評論卻一片感動哭了」。

AI製造的假照片,你能認出來嗎?

其實,要判斷這樣的圖片是真是假,可能真的沒那麼容易。下面,你可以試試。 AI還能畫得更多。做一把酪梨做的椅子,把集市開到空中,讓一隻貓置身於中世紀場景中尋找Wi-Fi……這些都是小意思。美國一家桌遊公司的總裁Jason Allen使用AI作畫工具Midjourney生成、並自己進行過微調的一幅《太空歌劇院》還在科羅拉多州博覽會(Colorado State Fair)的美術比賽中斬獲了頭獎。科技媒體TechCrunch評價未經審查的「AI畫師」為「Deepfakes for all(全能的深度偽造)」。

AI換臉都被拿去做什麼了?

更早為人所知的AI「造假」技術是深度偽造技術,俗稱AI換臉。 2019年,一項報告稱,當時網路上就已經有了上萬個用深偽技術製作的影片。

報告還寫道,這些視頻中,有96%都是色情視頻,而這些色情視頻的主角全部為女性,其中最受歡迎的,是以歐美女演員、韓國女偶像為主角的視頻,觀看數高達數百萬次。

參與報告的研究員亨利-阿傑德(Henry Ajder)說,有深偽論壇的用戶在要求,或討論以他們認識的女性(如前女友)為主角的換臉色情影片。他們希望看到她們被放進色情片段裡。

AI畫畫,可不只是換臉而已。

打開潘朵拉魔盒

我們輸入了5個陰暗的指令,看看AI畫是百無禁忌的嗎?

AI對暴力的理解似乎有限。但對性的詮釋卻很到位——它自己也是這麼認為的。

Stable Diffusion,這個開源的、強大的「AI畫師」為自己設定了一個「安全檢查器」(Safety Checker),相當於自動審核:一旦監測到產生的映像涉嫌違規,即它在內容政策裡寫明的不得用來產生的“引人不適的、色情、仇恨、暴力等圖像”,機器就會攔下這張圖片。

把我們產生的「邪惡照片」送去審核,機器只給六張賈斯汀·比伯的裸體照片判定了「違規」。不過,我們也成功生成了好幾張川普穿越時空親吻邱吉爾的照片,且被審核器判定為「安全」。

顯然,從我們成功產生了違背賈斯汀·比伯意願的裸照也能看出,Stable Diffusion的自動審核是可以關閉的。這樣,它就再也不能拒絕你了。

為了製約AI和人們面對潘多拉魔盒時容易起的壞念頭,名聲最大的「AI畫師」DALL·E 2的審查更為嚴格。

有網友收集了所有讓他收到內容政策違規警告的指令,其中包括“英國人猿在吃魚和薯條”“駕駛獨輪車肇事逃逸的魷魚”“耶穌接受核酸檢測的照片” 。任何可能涉及仇恨、暴力、色情的描述,所有知名人物的名字,都在DALL·E 2的違禁詞之列。所以你也不能操縱DALL·E 2,讓它為你畫一張川普和拜登接吻的照片,但Stable Diffusion可以。

AI產生的假照片,是有漏洞的

不過,目前AI生成的照片並不是完美的。

澎湃新聞事實查核計畫明查工作室的記者鄭淑婧介紹道,AI生成圖片會有一些特點,例如氣泡、超現實背景、人物牙齒尺寸、頭髮形狀不自然等。早期AI換臉在呈現連續重複的圖案時容易出問題,經常有尺寸不均這樣的情況。現在有公司用不斷升級的生成對抗網路改進後,這些問題相對變少了,但有時還是可以從一些背景形變,身體不對稱之類的細節看出端倪。

細節是AI時常力有不抓的地方,例如下面這張圖的直升機就沒有尾翼。

AI製造的假照片,你能認出來嗎?

此外,背景資訊也有助於分辨照片真假,「例如你給我一張圖,說是重慶山火的,如果發現這張圖的最後修改日期在事件發生之後,那妥妥就是假圖。我們有時還會聯繫背景信息,比如查圖片中的直升機型號,等等。」

但她接觸到的大多數工具都不會直接告訴你一張照片是真是假,需要靠人結合具體的狀況去判斷。

等AI作畫的技藝越來越純熟,分辨真假只會越來越費功夫。對真實的確定在鬆動。到時候,人們的腦海中或許會常常出現這樣的聲音:「這張照片看起來太真了,所以太假了。」

以上是AI製造的假照片,你能認出來嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板