目錄
論文想法:
主要貢獻:
網路設計:
實驗結果:
#總結:
引用:
首頁 科技週邊 人工智慧 DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

Mar 28, 2024 pm 02:00 PM
模型 場景

原文標題:DifFlow3D: Toward Robust Uncertainty-Aware Scene Flow Estimation with Iterative Diffusion-Based Refinement

論文連結:https://arxiv.org/pdf/2311.17456.pdf

程式碼連結:https://github.com/IRMVLab/DifFlow3D

作者單位:上海交通大學劍橋大學浙江大學鑑智機器人

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

論文想法:

場景流估計旨在預測動態場景中每個點的3D位移變化,是電腦視覺領域的基礎任務。然而,以往的工作常常受到局部約束搜尋範圍引起的不可靠相關性的困擾,並且在從粗到細的結構中累積不準確性。為了緩解這些問題,本文提出了一種新穎的不確定性感知場景流估計網路(DifFlow3D),該網路採用了擴散機率模型。設計了迭代擴散式細化(Iterative diffusion-based refinement)來增強相關性的穩健性,並對困難情況(例如動態、雜訊輸入、重複模式等)具有較強的適應性。為了限制生成的多樣性,本文的擴散模型中利用了三個關鍵的與流相關的特徵作為條件。此外,本文還在擴散中開發了一個不確定性估計模組,以評估估計場景流的可靠性。本文的 DifFlow3D 在 FlyingThings3D 和 KITTI 2015 資料集上分別實現了6.7%和19.1%的三維端點誤差(EPE3D)降低,並在KITTI資料集上實現了前所未有的毫米級精度(EPE3D為0.0089米)。另外,本文的基於擴散的細化範式可以作為一個即插即用的模組,輕鬆整合到現有的場景流網路中,顯著提高它們的估計精度。

主要貢獻:

為了實現穩健的場景流估計,本研究提出了一個全新的即插即用型基於擴散的細化流程。據我們所知,這是首次在場景流任務中採用擴散機率模型。

作者結合了粗流嵌入、幾何編碼和跨幀成本體積等技術,設計了一種有效的條件引導方法,用於控制生成結果的多樣性。

為了評估本文中流的可靠性並識別不準確的點匹配,作者還在擴散模型中引入了每個點的不確定性估計。

研究結果表明,本文提出的方法在FlyingThings3D和KITTI資料集上表現優異,勝過其他現有方法。特別是,DifFlow3D在KITTI資料集上實現了毫米級的端點誤差(EPE3D),這是首次。相較於以往的研究,本文的方法在處理具有挑戰性的情況時表現更為穩健,如噪音輸入和動態變化。

網路設計:

場景流作為電腦視覺中的一項基礎任務,指的是從連續的圖像或點雲中估計出的三維運動場。它為動態場景的低層次感知提供了訊息,並且有著各種下游應用,例如自動駕駛[21]、姿態估計[9]和運動分割[1]。早期的工作集中在使用立體[12]或RGB-D影像[10]作為輸入。隨著3D感測器,例如光達的日益普及,近期的工作通常直接以點雲作為輸入。

作為開創性的工作,FlowNet3D[16]使用 PointNet [25] 提取層次化特徵,然後迭代回歸場景流。 PointPWC[42] 透過金字塔、變形和成本體積結構[31]進一步改進了它。 HALFlow[35] 跟隨它們,並引入了注意力機制以獲得更好的流嵌入。然而,這些基於迴歸的工作通常遭受不可靠的相關性和局部最優問題[17]。原因主要有兩個面向:(1)在他們的網路中,使用K最近鄰(KNN)來搜尋點對應關係,這並不能考慮到正確但距離較遠的點對,也存在著匹配雜訊[7] 。 (2)另一個潛在問題來自於以往工作[16, 35, 36, 42]中廣泛使用的粗到細結構。基本上,最初的流在最粗糙的層上估計,然後在更高分辨率中迭代細化。然而,流細化的性能高度依賴於初始粗流的可靠性,因為後續的細化通常受限於初始化周圍的小的空間範圍。

為了解決不可靠性的問題,3DFlow[36] 設計了一個 all-to-all 的點收集模組,並加入了反向驗證。類似地,Bi-PointFlowNet[4] 及其擴展MSBRN[5] 提出了一個雙向網絡,具有前向-後向相關性。 IHNet[38] 利用一個具有高解析度引導和重採樣方案的循環網路。然而,這些網路大多因其雙向關聯或循環迭代而在計算成本上遇到了困難。本文發現擴散模型也可以增強相關性的可靠性和對匹配雜訊的韌性,這得益於其去噪本質(如圖1所示)。受到[30]中的發現的啟發,即註入隨機噪聲有助於跳出局部最優,本文用概率擴散模型重新構建了確定性流回歸任務(deterministic flow regression task),如圖2所示。此外,本文的方法可以作為一個即插即用的模組服務於先前的場景流網絡,這種方法更為通用,並且幾乎不增加計算成本(第4.5節)。

然而,在本文的任務中利用生成模型是相當具有挑戰性的,因為擴散模型固有的生成多樣性。與需要多樣化輸出樣本的點雲產生任務不同,場景流預測是一個確定性任務,它計算精確的每點運動向量。為了解決這個問題,本文利用強條件資訊來限制多樣性,並有效控制生成的流。具體來說,先初始化一個粗糙的稀疏場景流,然後透過擴散迭代產生流殘差(flow residuals)。在每個基於擴散的細化層中,本文利用粗流嵌入、成本體積和幾何編碼作為條件。在這種情況下,擴散被應用於實際學習從條件輸入到流殘差的機率映射。

此外,先前的工作很少探索場景流估計的置信度和可靠性。然而,如圖1所示,在雜訊、動態變化、小物體和重複模式的情況下,密集流匹配容易出錯。因此,了解每個估計的點對應關係是否可靠是非常重要的。受到最近在光流任務中不確定性估計成功的啟發[33],本文在擴散模型中提出了逐點不確定性,以評估本文的場景流估計的可靠性。

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

圖3。 DifFlow3D 的整體結構。本文首先在 bottom layer 初始化一個粗糙的稀疏場景流。隨後,將迭代擴散式細化層與流相關的條件訊號結合使用,以恢復更密集的流殘差。為了評估本文估計的流的可靠性,也將與場景流一起共同預測每個點的不確定性。

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

圖2。本文用於場景流估計的擴散過程示意圖。

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

圖4。不確定性的可視化。在訓練過程中,本文設計的不確定性區間逐漸縮小,促使預測的流向真實值靠攏。

實驗結果:

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

圖1。在具有挑戰性的情況下的比較。 DifFlow3D 使用擴散模型預測具有不確定性感知的場景流,該模型對以下情況具有更強的魯棒性:(a)動態變化,(b)噪聲幹擾的輸入,(c)小物體,以及(d )重複模式。

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

圖 5. 未使用或使用基於擴散的場景流細化 (DSFR) 的視覺化結果。

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

圖6。在輸入點上加入隨機高斯雜訊。

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

圖7。不確定性在訓練過程中的作用。本文分別在不同的訓練階段(第10輪和第100輪)可視化了不確定性區間。

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

DifFlow3D:場景流估計新SOTA,擴散模型又下一城!

#總結:

本文創新地提出了一個基於擴散的場景流細化網絡,該網絡能夠感知估計的不確定性。本文採用多尺度擴散細化來產生細粒度的密集流殘差。為了提高估計的穩健性,本文也引入了與場景流一起聯合生成的逐點不確定性。廣泛的實驗顯示了本文的 DifFlow3D 的優越性和泛化能力。值得注意的是,本文的基於擴散的細化可以作為即插即用模組應用於以往的工作,並為未來的研究提供新的啟示。

引用:

Liu J, Wang G, Ye W, et al. DifFlow3D: Toward Robust Uncertainty-Aware Scene Flow Estimation with Diffusion Model[J]. arXiv preprint arXiv:2311.17456, 2023.

#

以上是DifFlow3D:場景流估計新SOTA,擴散模型又下一城!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

自動駕駛場景中的長尾問題怎麼解決? 自動駕駛場景中的長尾問題怎麼解決? Jun 02, 2024 pm 02:44 PM

昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

See all articles