深入探討GET3D生成模型的五分鐘技術趣談
Part 01●
前言
近年來,隨著以Midjourney和Stable Diffusion為代表的人工智慧影像產生工具的興起,2D人工智慧影像產生技術已成為許多設計師在實際專案中使用的輔助工具,在各種商業場景中得到應用,創造越來越多的實際價值。同時,隨著元宇宙的興起,許多產業正朝著創建大規模3D虛擬世界的方向發展,多樣化、高品質的3D內容對於遊戲、機器人、建築和社交平台等產業變得越來越重要。然而,手動創建3D資源非常耗時且需要特定的藝術素養和建模技能。其中一個主要挑戰是規模問題——儘管可以在3D市場上找到大量的3D模型,但在遊戲或電影中填充一群看起來都不一樣的角色或建築仍然需要藝術家投入大量時間。因此,對於能夠在3D內容的數量、品質和多樣性方面進行擴展的內容製作工具的需求也變得越來越明顯
圖片
請看圖1,這是元宇宙空間的照片(來源:電影《無敵破壞王2》)
#得益於2D生成模型在高解析度影像合成中已經獲得了逼真的質量,這項進展也啟發了對3D內容生成的研究。早期的方法旨在將2D CNN生成器直接擴展到3D體素網格,但由於3D卷積的高記憶體佔用和計算複雜性,阻礙了在高解析度下的生成過程。作為一種替代方案,其他研究已經探索了點雲、隱式或八叉樹表示法。然而,這些工作主要集中在生成幾何體上,而忽略了外觀。它們的輸出表示還需要進行後處理,以使其與標準圖形引擎相容
為了能夠實際應用到內容製作中,理想的3D生成模型應滿足以下要求:
#具備產生具有幾何細節和任意拓撲的形狀的能力
重寫內容:(b)輸出的應該是紋理網格,這是Blender和Maya等標準圖形軟體所常用的表達方式
可以使用2D圖像進行監督,因為它們比明確的3D形狀更普遍
Part 02
3D生成模型簡介
為了方便內容的創作過程並且能夠實際應用,生成性3D網路已成為一個活躍的研究領域,能夠產生高品質和多樣化的3D資產。每年都有許多3D生成模型在ICCV、NeurlPS、ICML等大會上發表,其中包括以下幾種前沿模型
Textured3DGAN是一種生成模型,它是卷積生成紋理3D網格方法的延伸。它能夠在二維監督下學習使用GAN從實物圖像中生成紋理網格。與以往的方法相比,Textured3DGAN放寬了姿態估計步驟中對關鍵點的要求,並將該方法推廣到未標記的圖像集合和新的類別/資料集,例如ImageNet
DIB-R :是一種基於內插的可微分渲染器,底層使用了PyTorch機器學習框架。這個渲染器已經被加入了3D深度學習的PyTorch GitHub庫(Kaolin)。這種方法允許對影像中所有像素的梯度進行分析計算。其核心思想是將前景光柵化視為局部屬性的加權插值,將背景光柵化視為基於距離的全局幾何體的聚合。透過這種方式,它可以從單一影像預測出形狀、紋理和光線等資訊
PolyGen:PolyGen是一種基於Transformer架構的自回歸生成模型,用於直接對網格進行建模。模型依序預測網格的頂點和麵。我們使用ShapeNet Core V2資料集對模型進行訓練,所得到的結果已經非常接近人類建構的網格模型
SurfGen:具有明確表面鑑別器的對抗性3D形狀合成。透過端到端訓練的模型能夠產生具有不同拓撲的高保真3D形狀。
GET3D是一個生成模型,可以透過學習影像來產生高品質的3D紋理形狀。它的核心是可微分錶面建模、可微分渲染和2D生成對抗性網路。透過對2D影像集合進行訓練,GET3D可以直接產生具有複雜拓撲、豐富幾何細節和高保真紋理的顯式紋理3D網格
圖片
Part 03
GET3D的架構與特性
#GET3D架構來自GET3D論文官網,圖3展示了該架構
透過兩個潛在編碼生成了一個3D SDF(有向距離場)和一個紋理場,再利用DMTet(Deep Marching Tetrahedra)從SDF中提取3D表面網格,並在表面點雲查詢紋理場以取得顏色。整個過程使用在2D影像上定義的對抗性損失來進行訓練。特別是,RGB影像和輪廓是使用基於光柵化的可微分渲染器來取得的。最後使用兩個2D鑑別器,每個鑑別器分別針對RGB影像和輪廓,來分辨輸入是真的還是偽造的。整個模型可以進行端到端的訓練
GET3D在其他方面也非常靈活,除了將顯式網格作為輸出表達之外,還可以輕鬆適應其他任務,包括:
將幾何體和紋理分離實現:模型的幾何和紋理之間實現了良好的解耦,可以對幾何潛在程式碼和紋理潛在程式碼進行有意義的插值
在產生不同類別形狀之間的平滑過渡時,可以透過在潛在空間中進行隨機行走,並產生對應的3D形狀來實現
產生新的形狀:可以透過在局部的潛在程式碼中添加一些小的雜訊來擾動,從而產生看起來相似但局部略有差異的形狀
無監督材質生成:透過與DIBR 結合,以完全無監督的方式生成材質,並產生具有意義的視圖相關照明效果
以文字為導向的形狀生成:透過結合StyleGAN NADA,利用計算渲染的2D圖像和使用者提供的文字上的定向CLIP損失來微調3D生成器,使用者可以透過文字提示產生大量有意義的形狀
#圖片
請參考圖4,該圖展示了基於文字生成形狀的過程。圖的來源是GET3D論文官網,網址為https://nv-tlabs.github.io/GET3D/
Part 04
總結
#雖然GET3D已經朝著實用的3D紋理形狀的生成模型邁出了重要的一步,但是它仍然存在一些限制。特別是在訓練過程中,仍依賴2D剪影和相機分佈的知識。因此,目前GET3D只能根據合成數據進行評估。一個有前景的擴展是利用實例分割和相機姿態估計的進步來緩解這個問題,並將GET3D擴展到真實世界的數據。 GET3D目前也只按照類別進行訓練,未來將擴展到多個類別,以更好地表示類別之間的多樣性。希望這項研究能讓人們離使用人工智慧進行3D內容的自由創作更近一步
以上是深入探討GET3D生成模型的五分鐘技術趣談的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

您一定記得,尤其是如果您是Teams用戶,Microsoft在其以工作為重點的視訊會議應用程式中添加了一批新的3DFluent表情符號。在微軟去年宣佈為Teams和Windows提供3D表情符號之後,該過程實際上已經為該平台更新了1800多個現有表情符號。這個宏偉的想法和為Teams推出的3DFluent表情符號更新首先是透過官方部落格文章進行宣傳的。最新的Teams更新為應用程式帶來了FluentEmojis微軟表示,更新後的1800表情符號將為我們每天

寫在前面&筆者的個人理解目前,在整個自動駕駛系統當中,感知模組扮演了其中至關重要的角色,行駛在道路上的自動駕駛車輛只有通過感知模組獲得到準確的感知結果後,才能讓自動駕駛系統中的下游規控模組做出及時、正確的判斷和行為決策。目前,具備自動駕駛功能的汽車中通常會配備包括環視相機感測器、光達感測器以及毫米波雷達感測器在內的多種數據資訊感測器來收集不同模態的信息,用於實現準確的感知任務。基於純視覺的BEV感知演算法因其較低的硬體成本和易於部署的特點,以及其輸出結果能便捷地應用於各種下游任務,因此受到工業

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

當八卦開始傳播新的Windows11正在開發中時,每個微軟用戶都對新作業系統的外觀以及它將帶來什麼感到好奇。經過猜測,Windows11就在這裡。作業系統帶有新的設計和功能變更。除了一些添加之外,它還附帶功能棄用和刪除。 Windows11中不存在的功能之一是Paint3D。雖然它仍然提供經典的Paint,它對抽屜,塗鴉者和塗鴉者有好處,但它放棄了Paint3D,它提供了額外的功能,非常適合3D創作者。如果您正在尋找一些額外的功能,我們建議AutodeskMaya作為最好的3D設計軟體。如

ChatGPT為AI產業注入一劑雞血,一切曾經的不敢想,都成為現今的基操。正持續進擊的Text-to-3D,就被視為繼Diffusion(影像)和GPT(文字)後,AIGC領域的下一個前緣熱點,得到了前所未有的關注。這不,一款名為ChatAvatar的產品低調公測,火速收攬超70萬瀏覽與關注,並登上抱抱臉週熱門(Spacesoftheweek)。 △ChatAvatar也將支援從AI生成的單視角/多視角原畫生成3D風格化角色的Imageto3D技術,受到了廣泛關注現行beta版本生成的3D模型,

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

對於自動駕駛應用程式來說,最終還是需要對3D場景進行感知。道理很簡單,車輛不能靠著一張影像上得到感知結果來行駛,就算是人類駕駛也不能對著一張影像來開車。因為物體的距離和場景的和深度資訊在2D感知結果上是體現在現在的,而這些資訊才是自動駕駛系統對周圍環境做出正確判斷的關鍵。一般來說,自動駕駛車輛的視覺感應器(例如攝影機)安裝在車身上方或車內後視鏡上。無論哪個位置,攝影機所得到的都是真實世界在透視視圖(PerspectiveView)下的投影(世界座標係到影像座標系)。這種視圖與人類的視覺系統很類似,
