3D模型分割新方法解放雙手!不用人工標註,只需一次訓練,未標註類別也能辨識|港大&位元組
不需要人工標註,只需要一次訓練,就能讓3D模型理解語言並辨識未標註過的類別。
3D模型分割現在也解放雙手了!
香港大學和位元組夢幻聯動,搞出了個新方法:
不需要人工標註,只需要一次訓練,就能讓3D模型理解語言並識別未標註過的類別。
例如看下面這個例子,未標註的(unannotated)黑板和顯示器,3D模型經過這個方法訓練之後,就能很快「抓準」目標進行劃分。
再比如,給它分別輸入sofa、cough這類同義詞刁難一下,也是輕鬆拿下。
連浴室(bathroom)這類抽象分類也能搞定。
這個新方法名叫PLA (Point-Language Assocation),是一種結合點雲(目標表面特性的海量點集合)和⾃然語⾔的方法。
目前,該論文已經被CVPR 2023接收。
不過話說回來,不需要⼈⼯標註,只進行⼀次訓練,同義詞抽象分類也能辨識…這可是重重buff疊加。
要知道一般方法使用的3D數據和⾃然語⾔並不能夠直接從⽹上免費獲取,往往需要昂貴的⼈⼯標註,而且一般方法也⽆法根據單詞之間的語義聯繫識別新類別。
那PLA又是如何做到的呢?一起來看~
具體原理
其實說白了,要成功實現3D模型劃分,最重要的一步就是讓3D資料也能理解⾃然語⾔。
專業點來說,就是要給3D點雲引⼊⾃然語⾔的描述。
那要怎麼引入?
鑑於目前2D影像的分割已經有比較成功的方法,研究團隊決定從2D影像著手。
首先,把3D點雲轉換為對應的2D影像,然後作為2D多模態⼤模型的輸⼊,並從中提取對於影像的語⾔描述。
緊接著,利⽤圖⽚和點雲之間的投影關係,圖⽚的語言描述也就自然能夠關聯到3D點雲資料了。
並且,為了相容於不同粒度的3D物體,PLA也提出了多粒度的3D點雲-⾃然語⾔關聯方法。
對於整個3D場景⽽⾔,PLA將場景對應所有圖⽚提取的語⾔描述進⾏總結,並⽤這個總結後的語⾔關聯整個3D場景。
對於每個影像視⻆對應的部分3D場景⽽⾔,PLA直接利⽤影像作為橋樑來關聯對應的3D點雲和語⾔。
對於更細粒度的3D物體⽽⾔,PLA透過⽐較不同影像對應點雲之間的交集和並集,以及語⾔描述部分的交集和並集,提供了⼀種更加細粒度的3D-語⾔關聯⽅式。
這樣一來,研究團隊就能夠得到成對的3D點雲-⾃然語⾔,這一把直接解決了人工標註的問題。
PLA用得到的「3D點雲-⾃然語⾔」對和現有的資料集監督來讓3D模型理解偵測和分割問題定義。
具體來說,就是利⽤對⽐學習來拉近每對3D點雲-⾃然語⾔在特徵空間的距離,並推遠不匹配的3D點雲和⾃然語⾔描述。
講了這麼多原理,那PLA在具體分割任務中表現到底如何?
語意分割任務超越基準65%
研究⼈員透過測試3D開放世界模型在未標註類別的表現作為主要衡量標準。
先在ScanNet和S3DIS的語意分割任務上,PLA超過先前的基線⽅法35%~65%。
在實例分割任務中,PLA也有提升,對比之前的方法,PLA提升幅度15%~50%不等。
研究團隊
這個計畫的研究團隊來自香港大學的CVMI Lab和位元組跳動。
CVMI Lab是香港大學的人工智慧實驗室,實驗室2020年2月1日成立。
研究範圍涵蓋了電腦視覺與模式識別,機器學習/深度學習,影像/視訊內容分析以及基於機器智慧的工業大數據分析。
理論⽂地址:https://arxiv.org/pdf/2211.16312.pdf
#項目⽬主⻚:https: //github.com/CVMI-Lab/PLA
以上是3D模型分割新方法解放雙手!不用人工標註,只需一次訓練,未標註類別也能辨識|港大&位元組的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

您一定記得,尤其是如果您是Teams用戶,Microsoft在其以工作為重點的視訊會議應用程式中添加了一批新的3DFluent表情符號。在微軟去年宣佈為Teams和Windows提供3D表情符號之後,該過程實際上已經為該平台更新了1800多個現有表情符號。這個宏偉的想法和為Teams推出的3DFluent表情符號更新首先是透過官方部落格文章進行宣傳的。最新的Teams更新為應用程式帶來了FluentEmojis微軟表示,更新後的1800表情符號將為我們每天

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

ChatGPT為AI產業注入一劑雞血,一切曾經的不敢想,都成為現今的基操。正持續進擊的Text-to-3D,就被視為繼Diffusion(影像)和GPT(文字)後,AIGC領域的下一個前緣熱點,得到了前所未有的關注。這不,一款名為ChatAvatar的產品低調公測,火速收攬超70萬瀏覽與關注,並登上抱抱臉週熱門(Spacesoftheweek)。 △ChatAvatar也將支援從AI生成的單視角/多視角原畫生成3D風格化角色的Imageto3D技術,受到了廣泛關注現行beta版本生成的3D模型,

寫在前面&筆者的個人理解目前,在整個自動駕駛系統當中,感知模組扮演了其中至關重要的角色,行駛在道路上的自動駕駛車輛只有通過感知模組獲得到準確的感知結果後,才能讓自動駕駛系統中的下游規控模組做出及時、正確的判斷和行為決策。目前,具備自動駕駛功能的汽車中通常會配備包括環視相機感測器、光達感測器以及毫米波雷達感測器在內的多種數據資訊感測器來收集不同模態的信息,用於實現準確的感知任務。基於純視覺的BEV感知演算法因其較低的硬體成本和易於部署的特點,以及其輸出結果能便捷地應用於各種下游任務,因此受到工業

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

當八卦開始傳播新的Windows11正在開發中時,每個微軟用戶都對新作業系統的外觀以及它將帶來什麼感到好奇。經過猜測,Windows11就在這裡。作業系統帶有新的設計和功能變更。除了一些添加之外,它還附帶功能棄用和刪除。 Windows11中不存在的功能之一是Paint3D。雖然它仍然提供經典的Paint,它對抽屜,塗鴉者和塗鴉者有好處,但它放棄了Paint3D,它提供了額外的功能,非常適合3D創作者。如果您正在尋找一些額外的功能,我們建議AutodeskMaya作為最好的3D設計軟體。如

對於自動駕駛應用程式來說,最終還是需要對3D場景進行感知。道理很簡單,車輛不能靠著一張影像上得到感知結果來行駛,就算是人類駕駛也不能對著一張影像來開車。因為物體的距離和場景的和深度資訊在2D感知結果上是體現在現在的,而這些資訊才是自動駕駛系統對周圍環境做出正確判斷的關鍵。一般來說,自動駕駛車輛的視覺感應器(例如攝影機)安裝在車身上方或車內後視鏡上。無論哪個位置,攝影機所得到的都是真實世界在透視視圖(PerspectiveView)下的投影(世界座標係到影像座標系)。這種視圖與人類的視覺系統很類似,
