AI繪畫侵權實錘!擴散模型可能會記住你的照片,現有隱私保護方法全部失效
本文經AI新媒體量子位元(公眾號ID:QbitAI)授權轉載,轉載請聯絡來源。
AI繪畫侵權,實錘了!
最新研究表明,擴散模型會牢牢記住訓練集中的樣本,並在生成時「依葫蘆畫瓢」。
也就是說,像Stable Diffusion生成的AI畫作裡,每一筆背後都可能隱藏著一次侵權事件。
不僅如此,經過研究對比,擴散模型從訓練樣本中「抄襲」的能力是GAN的2倍,產生效果越好的擴散模型,記住訓練樣本的能力越強。
這項研究來自Google、DeepMind和UC伯克利組成的團隊。
論文中還有另一個糟糕的消息,那就是針對這個現象,現有的隱私保護方法全部失效。
訊息一出,網友炸開了鍋,論文作者的相關推特轉發眼看就要破千。
有人感慨:原來說它們竊取他人版權成果是有道理的!
支持訴訟!告他們!
有人站在擴散模型一側說話:
#也有網友將論文結果延伸到當下最火的ChatGPT上:
現有隱私保護方法全部失效
擴散模型的原理是去噪再還原,所以研究者要研究事情其實就是:
它們到底有沒有記得用來訓練的影像,最後在生成時進行「抄襲」?
訓練集裡的圖像往往從網路大海中撈取,有版權的、有商標的,有的還有隱私性,例如私人的醫療X光片什麼的。
為了弄清楚擴散模型到底能不能記憶與再生個體訓練樣本,研究者首先提出了「記憶」的新定義。
一般來說,關於記憶的定義集中在文本語言模型上,如果可以提示模型從訓練集中恢復一個逐字序列,就表示這個序列被提取和記憶了。
與之不同,研究團隊基於影像相似度來定義「記憶」#。
不過團隊也坦白講,對於「記憶」的定義是偏向保守的。
舉個例子,左圖是用Stable Diffusion生成的一張“奧巴馬的照片”,這張照片和右圖任何一張特定訓練圖像都不神似,因此這個圖像不能算作根據記憶生成。
但這並不表示Stable Difusion產生新的可辨識圖片的能力不會侵害著作權和隱私。
接著,他們提取了包含個人照片、公司招標在內的1000多個訓練樣本,然後設計了一個兩階段的資料擷取(data extraction attack)。
具體操作是使用標準方法產生圖像,然後標記那些超過人工推理評分標準的圖像。
在Stable Diffusion和Imagen上應用此方法,團隊提取了超過100個近似或相同的訓練影像副本。
既有可識別出的個人照片,也有商標標識,經過查驗,大部分都是有版權的。
而後,為了更好地理解「記憶」是怎麼發生的,研究人員從模型中採樣100萬次,在CIFAR-10上訓練了幾百個擴散模型。
目的是分析模型準確性、超參數、增強和重複資料刪除中,哪些行為會對隱私性產生影響。
最終得出如下結論:
#首先,擴散模型比GAN記憶更多。
但擴散模型也是評估的圖像模型中隱私性最差的一群,它們洩漏的訓練資料是GANs的兩倍多。
而且,更大的模型可能會記住更多的資料。
隨著這個結論,研究人員也研究了20億參數的文字-圖像擴散模型Imagen,他們嘗試提取500張分佈外得分最高的圖像,讓它們作為訓練資料集中的樣本,發現都被記憶了。
相較之下,同樣的方法應用在Stable Difusion上,沒有辨識出任何記憶行為。
因此,在複製和非複製影像上,Imagen比Stable Difusion隱私性更差,研究人員把原因歸結於Imagen使用的模型比Stable Difusion容量大,因此記得的影像越多。
此外,更好的生成模型(FID值更低)儲存的資料更多。
換句話說,隨著時間的推移,同一個模型洩漏的隱私更多,侵犯的版權也更多。
(依FID排序的GAN模型,FID值越低,效果越好)
透過訓練模型,團隊發現增加效用會降低隱私性,簡單的防禦措施(如重複資料刪除)不足以完全解決記憶打擊。
因此,隱私增強技術並不能提供一個可接受的隱私-效用權衡。
最終,團隊對訓練擴散模型的人提出了四個建議:
- 建議將訓練資料集的重複資料刪除,並盡量減少過度訓練;
- 建議將訓練資料集的重複資料刪除,並盡量減少過度訓練;
- 建議使用資料擷取或其他稽核技術來評估訓練模型的隱私風險;
- 如果有更實用的隱私保護技術,建議盡可能使用;
希望AI產生的圖片不會免費提供用戶涉及隱私的部分。
版權方未曾停止維權研究一出,可能對正在進行的訴訟產生影響。
剛過去的1月底,圖庫老大哥蓋蒂圖片社(Getty Images)以侵犯版權的名義,在倫敦高等法院起訴了Stability AI。
Stable Difussion的部分訓練資料是開源的。經過分析和查驗浮水印發現,包括蓋蒂在內的許多圖片社都不知不覺間為Stable Difussion的訓練集提供了大量素材,佔比不小。 但從始至終,Stability AI都
沒有與圖片社對接過。許多AI公司都認為這種做法受到美國合理使用原則等法律的保護,但大部分版權所用者都不同意這種說法,認為這種行為侵犯了自己的權益。 雖然Stability AI之前發表聲明,說下個版本中,版權所有者
可以在訓練圖庫中刪除自己的版權作品,但現階段仍然有人不服。 1月中旬的時候,三位藝人已經對Stability AI以及Midjourney提起訴訟。 法律專家也各執一詞,為達成統一意見,但他們紛紛同意法院需要針對版權保護問題做出裁決。 ######蓋蒂圖片社的CEO Craig Peters表示,公司已經向Stability AI發了通知,表示「你就快在英國吃官司啦」! ###公司還放話:
我們對侵權行為帶來的損失並不計較,也無意讓AI藝術工具停止開發。
把Stability AI告上法庭並不是為了我們蓋蒂一家的利益。
選擇起訴有更深層的長期目的,希望法院設定新的法律來規範現狀。
以上是AI繪畫侵權實錘!擴散模型可能會記住你的照片,現有隱私保護方法全部失效的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

0.這篇文章乾了啥?提出了DepthFM:一個多功能且快速的最先進的生成式單目深度估計模型。除了傳統的深度估計任務外,DepthFM還展示了在深度修復等下游任務中的最先進能力。 DepthFM效率高,可以在少數推理步驟內合成深度圖。以下一起來閱讀這項工作~1.論文資訊標題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

什麼?瘋狂動物城被國產AI搬進現實了?與影片一同曝光的,是一款名為「可靈」全新國產影片生成大模型。 Sora利用了相似的技術路線,結合多項自研技術創新,生產的影片不僅運動幅度大且合理,還能模擬物理世界特性,具備強大的概念組合能力與想像。數據上看,可靈支持生成長達2分鐘的30fps的超長視頻,分辨率高達1080p,且支援多種寬高比。另外再劃個重點,可靈不是實驗室放出的Demo或影片結果演示,而是短影片領域頭部玩家快手推出的產品級應用。而且主打一個務實,不開空頭支票、發布即上線,可靈大模型已在快影
