目錄
探究實驗
首頁 科技週邊 人工智慧 檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

Apr 12, 2023 pm 09:16 PM
模型 品質

近來,Stable Diffusion 成為新興的研究方向。一位名為 Matthias Bühlmann 的部落客嘗試實驗探究這種模型的強大功能,結果發現 Stable Diffusion 是一個非常強大的有損影像壓縮編解碼器。他寫了一篇部落格描述了這個實驗分析過程,以下是部落格原文。

首先Matthias Bühlmann 給出在高壓縮因子條件下,Stable Diffusion 方法與JPG、WebP 的壓縮結果,所有結果都是512x512 像素的解析度:

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

#舊金山風景圖,由左至右:JPG (6.16kB), WebP (6.80kB), Stable Diffusion: (4.96kB)。

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

#糖果店,由左至右:JPG (5.68kB), WebP (5.71 kB), Stable Diffusion (4.98kB)。

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

#動物照片,由左至右:JPG (5.66 kB), WebP (6.74kB), Stable Diffusion (4.97kB)。

這些範例明顯表明,與 JPG 和 WebP 相比,使用 Stable Diffusion 壓縮映像可以在較小的檔案大小下保留更出色的影像品質。

探究實驗

Matthias Bühlmann 分析了一下其中的工作原理,Stable Diffusion 使用三個串聯的訓練好的人工神經網路:

  • #變分自編碼器(Variational Auto Encoder,VAE)
  • #U-Net
  • ##文字編碼器(Text Encoder)

VAE 將影像空間中的影像編碼和解碼為某種潛在的空間表徵。來源影像(512 x 512,3x8 或 4x8 bit)的潛在空間表徵會解析度更低(64 x 64)、精度更高(4x32 bit)。

VAE 在訓練過程中自行學習,隨著模型的逐步訓練,不同版本模型的潛在空間表徵看起來可能會有所不同,例如Stable Diffusion v1.4 的潛在空間表徵如下(重新映射為4-channel 彩色圖像):

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

#當重新擴展和將潛在特徵解釋為顏色值(使用alpha channel )時,影像的主要特徵仍然可見,並且VAE 還將更高解析度的特徵編碼到像素值中。

例如,透過一次VAE 編碼/ 解碼roundtrip 得到以下結果:

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

值得注意的是,這種roundtrip 並不是無損的。例如,圖中藍色帶子上白色的字在解碼後可讀性稍差了一些。 Stable Diffusion v1.4 模型的 VAE 一般較不擅長表徵小型文字和人臉。

我們知道,Stable Diffusion 的主要用途是根據文字描述產生圖像,這就要求該模型要對圖像的潛在空間表徵進行操作。該模型使用經過訓練的 U-Net 迭代地對潛在空間圖像進行去噪,輸出它在噪聲中“看到”(預測)的內容,類似於我們有時把雲看成某種形狀或面孔。在迭代去噪步驟中,第三個 ML 模型(文字編碼器)指導 U-Net 嘗試看到不同的資訊。

Matthias Bühlmann 分析了 VAE 產生的潛在表徵(latent representation)是如何進行有效壓縮的。他發現對 VAE 中的潛在表徵進行取樣或對潛在表徵應用現有的有損影像壓縮方法,都會大幅降低重構影像的質量,而 VAE 解碼過程似乎對潛在表徵的品質穩健性較高。

Matthias Bühlmann 將潛在表徵從浮點數化為 8-bit 無符號整數,結果發現只有非常小的重構誤差。如下圖所示,左:32-bit 浮點潛在表徵;中:ground truth;右:8-bit 整數潛在表徵。

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

他也發現透過 palette 和抖動演算法進一步量化,得到的結果會出乎意料的好。然而,當直接使用VAE 解碼時,palettized 表徵會導致一些可見的偽影:

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

左:32-bit 潛在表徵;中:8-bit 量化潛在表徵;右:帶有Floyd-Steinberg 抖動的palettized 8-bit 潛在表徵

帶有Floyd-Steinberg 抖動的palettized 表徵引入了噪聲,使解碼結果失真。於是 Matthias Bühlmann 使用 U-Net 來去除抖動所帶來的雜訊。經過4 次迭代,重構結果在視覺上非常接近未量化的版本:

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

重構結果(左:帶有Floyd-Steinberg 抖動的palettized 表徵;中:經過四次迭代去噪;右:Ground Truth)。

雖然結果非常好,但還是會引入一些偽影,例如上圖中心形符號上的光澤陰影。

雖然從主觀上看,Stable Diffusion 壓縮影像的結果比 JPG 和 WebP 好得多,但從 PSNR、SSIM 等指標看,Stable Diffusion 並沒有明顯的優勢。

如下圖所示,雖然作為編解碼器的Stable Diffusion 在保留影像粒度方面比其他方法好得多,但受壓縮偽影的影響,影像中物體形狀等特徵可能會改變。

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

#左:JPG 壓縮;中:Ground Truth;右:Stable Diffusion 壓縮。

值得注意的是,目前的Stable Diffusion v1.4 模型在壓縮過程中無法很好地保留字體很小的文字訊息和人臉特徵,但Stable Diffusion v1.5 模型在人臉生成方面有所改進。

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

#左:Ground Truth;中:經過VAE roundtrip (32-bit 潛在特徵) ;右:從palettized 去噪8-bit 潛在特徵解碼的結果。

部落格發布後,Matthias Bühlmann 的實驗分析引起了大家的討論。

Matthias Bühlmann 自己認為 Stable Diffusion 的影像壓縮效果比預期好,U-Net 似乎能夠有效消除抖動所引入的雜訊。不過,Stable Diffusion 模型未來的版本可能不會再有這種影像壓縮特性。

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

然而有網友質疑:「VAE 本身就被用於圖像壓縮」,例如基於Transformer 的圖像壓縮方法TIC 就用到了VAE架構,所以Matthias Bühlmann 的實驗似乎是大材小用了。

檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?

對此,你有什麼看法?

以上是檔案更小,品質更高,大火的Stable Diffusion還能壓縮影像?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
4 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! Mar 21, 2024 pm 05:21 PM

這篇論文探討了在自動駕駛中,從不同視角(如透視圖和鳥瞰圖)準確檢測物體的問題,特別是如何有效地從透視圖(PV)到鳥瞰圖(BEV)空間轉換特徵,這一轉換是透過視覺轉換(VT)模組實施的。現有的方法大致分為兩種策略:2D到3D和3D到2D轉換。 2D到3D的方法透過預測深度機率來提升密集的2D特徵,但深度預測的固有不確定性,尤其是在遠處區域,可能會引入不準確性。而3D到2D的方法通常使用3D查詢來採樣2D特徵,並透過Transformer學習3D和2D特徵之間對應關係的注意力權重,這增加了計算和部署的

See all articles