目錄
寫在前面& 個人理解
#問題背景
如何實現高效率的時序融合?
方法介紹
總框架
運動引導注意力模組
解耦時序融合結構
不同時序融合範式比較
消融實驗
首頁 科技週邊 人工智慧 QTNet:全新時序融合方案解決方案,適用於點雲、影像和多模態偵測器(NeurIPS 2023)

QTNet:全新時序融合方案解決方案,適用於點雲、影像和多模態偵測器(NeurIPS 2023)

Dec 15, 2023 pm 12:21 PM
3d 偵測

寫在前面& 個人理解

時序融合是提升自動駕駛3D目標偵測感知能力的有效途徑,但目前的方法在實際自動駕駛場景中應用存在成本開銷等問題。最新研究文章《基於查詢的顯式運動時序融合用於3D目標檢測》在NeurIPS 2023中提出了一種新的時序融合方法,將稀疏查詢作為時序融合的對象,並利用顯式運動資訊來產生時序注意力矩陣,以適應大規模點雲的特性。此方法由華中科技大學和百度的研究者提出,稱為QTNet:基於查詢和顯式運動的3D目標偵測時序融合方法。實驗證明,QTNet能夠在幾乎沒有成本開銷的情況下為點雲、圖像和多模態檢測器帶來一致的性能提升

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

  • 論文鏈接:https://openreview.net/pdf?id=gySmwdmVDF
  • 程式碼連結:https://github.com/AlmoonYsl/QTNet

#問題背景

得益於現實世界的時間連續性,時間維度上的資訊可以使得感知資訊更加完備,進而提高目標偵測的精確度和穩健性,例如時序資訊可以幫助解決目標偵測中的遮蔽問題、提供目標的運動狀態和速度資訊、提供目標的持續性和一致性資訊。因此如何有效率地利用時序資訊是自動駕駛感知的重要問題。現有的時序融合方法主要分為兩類。一類是基於稠密的BEV特徵進行時序融合(點雲/影像時序融合都適用),另一類則是基於3D Proposal特徵進行時序融合 (主要針對點雲時序融合方法)。對於基於BEV特徵的時序融合,由於BEV上超過90%的點都是背景,而該類方法沒有更多地關注前景對象,這導致了大量沒有必要的計算開銷和次優的性能。對於基於3D Proposal的時序融合演算法,其透過耗時的3D RoI Pooling來產生3D Proposal特徵,尤其是在目標物較多,點雲數量較多的情況下,3D RoI Pooling所帶來的開銷在實際應用中往往是難以接受的。此外,3D Proposal 特徵嚴重依賴Proposal的質量,這在複雜場景中往往是受限的。因此,目前的方法都難以以極低開銷的方式有效率地引入時序融合來增強3D目標偵測的效能。

如何實現高效率的時序融合?

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

DETR是一種十分優秀的目標偵測範式,其提出的Query設計和Set Prediction想法有效地實現了無需任何後處理的優雅偵測範式。在DETR中,每個Query代表一個物體,並且Query相對於稠密的特徵來說十分稀疏(一般Query的數目會被設定為一個相對較少的固定數目)。如果以Quey作為時序融合的對象,那麼計算開銷的問題自然下降一個層次。因此DETR的Query範式是一種天然適合於時序融合的典範。時序融合需要建構多幀之間的物體關聯,以實現時序情境資訊的綜合。那麼主要問題在於如何建構基於Query的時序融合pipeline和兩幀間的Query建立關聯。

  • 由於在實際場景中自車往往存在的運動,因此兩幀的點雲/圖像往往是坐標係不對齊的,並且實際應用中不可能在當前幀對所有歷史幀重新forward一次網路來擷取對齊後點雲/影像的特徵。因此本文採用Memory Bank的方式來只儲存歷史幀所得到的Query特徵及其對應的檢測結果,以避免重複計算。
  • 由於點雲和影像在描述目標特徵上存在很大差異,透過特徵層面來建構統一時序融合方法是不太可行的。然而,在三維空間下,無論點雲或影像模態都能透過目標的幾何位置/運動資訊關係來刻畫相鄰影格之間的關聯關係。因此,本文採用物體的幾何位置和對應的運動資訊來引導兩個幀間物體的注意力矩陣。
方法介紹

QTNet的核心思想是利用Memory Bank儲存在歷史幀中獲得的Query特徵及其對應的檢測結果,以避免重複計算歷史幀的開銷。在兩個畫面Query之間,使用動作引導的注意力矩陣進行關係建模

總框架

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

#

如框架圖所示,QTNet包含3D DETR結構的3D目標偵測器(LiDAR、Camera和多模態皆可),Memory Bank和用於時序融合的Motion-guided Temporal Modeling Module (MTM)。 QTNet透過DETR結構的3D目標偵測器取得對應訊框的Query特徵及其偵測結果,並將所得的Query特徵及其偵測結果以先進先出佇列(FIFO)的方式送入Memory Bank。 Memory Bank的數目設定為時序融合所需的幀數。對於時序融合,QTNet從Memory Bank中從最遠時刻開始讀取數據,透過MTM模組以迭代的方式從  幀到  幀融合MemoryBank中的所有特徵以用來增強目前幀的Query特徵,並根據增強後的Query特徵來Refine對應的當前幀的檢測結果。

具體而言,QTNet在  幀融合    幀的Query特徵    ,並且得到增強後的 框架的Query特徵 。接著,QTNet再將    幀的Query特徵融合。以此透過迭代的方式不斷融合至  幀。請注意,這裡從  幀到  訊框所使用的MTM全部都是共享參數的。

運動引導注意力模組

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

#MTM使用物體的中心點位置來明確產生  幀Query和  幀Query的注意力矩陣。給定ego pose矩陣   、物體中心點、速度。首先,MTM使用ego pose和物體預測的速度資訊將上一幀的物體移動到下一幀並對齊兩幀的坐標系:

接著通過  幀物體中心點和  幀經過矯正的中心點建構歐式代價矩陣 。此外,為了避免可能發生的錯誤匹配,本文使用類別  和距離閾值  建構注意力掩碼 

將代價矩陣轉換成注意力矩陣是最終目標

將注意力矩陣  作用在  幀的增強後的Query特徵  來聚合時序特徵以增強  幀的Query特徵:

最終增強的  幀的Query特徵  經過簡單的FFN來Refine對應的檢測結果,以實現增強檢測性能的作用。

解耦時序融合結構

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

#觀察到時序融合的分類和回歸學習有不平衡問題,一種解決方法是分別為分類和迴歸設計時序融合分支。然而,這種解耦方式會增加更多的計算成本和延遲,對於大多數方法而言不可接受。相較之下,QTNet利用高效率的時序融合設計,其運算成本和延遲可忽略不計,與整個3D檢測網路相比表現更優。因此,本文採取了分類和回歸分支在時序融合上的解耦方式,以在可忽略不計的成本情況下取得更好的檢測性能,如圖所示

##實驗效果

QTNet在點雲/影像/多模態上實現一致漲點

在nuScenes資料集上進行驗證後發現,QTNet在不使用未來在資訊、TTA和模型整合的情況下,取得了68.4的mAP和72.2的NDS,達到了SOTA效能。與使用了未來資訊的MGTANet相比,在3幀時序融合的情況下,QTNet的效能優於MGTANet,分別提升了3.0的mAP和1.0的NDS

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

此外,本文也在多模態和基於環視圖的方法上進行了驗證,在nuScenes驗證集上的實驗結果證明了QTNet在不同模態上的有效性。

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)#

對於實際應用來說,時序融合的成本開銷非常重要。本文對QTNet在計算量、時延和參數量三方面進行了分析實驗。結果表明,與整個網路相比,QTNet對於不同基準線所帶來的計算開銷、時間延遲和參數量都可以忽略不計,尤其是計算量僅使用了0.1G FLOPs(LiDAR基準線)

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

不同時序融合範式比較

為了驗證基於Query的時序融合範式的優越性,我們選擇了具有代表性的不同前緣時序融合方法進行比較。透過實驗結果發現,基於Query範式的時序融合演算法相較於基於BEV和基於Proposal範式更有效率。在僅使用0.1G FLOPs和4.5ms的開銷下,QTNet表現出更優的性能,同時整體參數量僅為0.3M

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

消融實驗

本研究在nuScenes驗證集上進行了基於LiDAR baseline的消融實驗,透過3幀時序融合的方式。實驗結果表明,簡單地使用Cross Attention來建模時序關係並沒有明顯的效果。然而,當使用MTM後,偵測效能顯著提升,這說明在大規模點雲下顯式運動引導的重要性。此外,透過消融實驗也發現,QTNet的整體設計非常輕量且有效率。在使用4幀資料進行時序融合時,QTNet的計算量僅0.24G FLOPs,延遲也只有6.5毫秒

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

##MTM的可視化

為了探討MTM優於Cross Attention的原因,本文將兩幀間物體的注意力矩陣進行視覺化,其中相同的ID代表兩幀間同一個物體。可以發現由MTM產生的注意力矩陣(b)比Cross Attention產生的注意力矩陣(a)更有區分度,尤其是小物體之間的注意力矩陣。這顯示由顯式運動引導的注意力矩陣透過物理建模的方式使得模型更容易建立起兩幀間物體的關聯。本文僅僅只是初步探討了在時序融合中以物理方式建立時序關聯問題,對於如何更好地建構時序關聯仍然是值得探索的。

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

檢測結果的視覺化

#本文以場景序列為物件進行了偵測結果的視覺化分析。可以發現左下角的小物體從

  幀開始快速遠離自車,這導致baseline在  幀漏檢了該物體,然而QTNet在  幀仍然可以偵測到該物體,這證明了QTNet在時序融合上的有效性。

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

本文總結

本文針對目前3D目標偵測任務提出了更有效率的基於Query的時序融合方法QTNet。其主要核心有兩點:一是使用稀疏Query作為時序融合的對象並通過Memory Bank存儲歷史信息以避免重複的計算,二是使用顯式的運動建模來引導時序Query間的注意力矩陣的生成,以此實現時序關係建模。透過這兩個關鍵思路,QTNet能夠有效率地實現可應用於LiDAR、Camera、多模態的時序融合,並以可忽略不計的成本開銷一致性地增強3D目標偵測的效能。

QTNet:全新时序融合方案解决方案,适用于点云、图像和多模态检测器(NeurIPS 2023)

需要重新改寫的內容是:原文連結:https://mp.weixin.qq.com/s/s9tkF_rAP2yUEkn6tp9eUQ

以上是QTNet:全新時序融合方案解決方案,適用於點雲、影像和多模態偵測器(NeurIPS 2023)的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1655
14
CakePHP 教程
1413
52
Laravel 教程
1306
25
PHP教程
1252
29
C# 教程
1226
24
為何在自動駕駛方面Gaussian Splatting如此受歡迎,開始放棄NeRF? 為何在自動駕駛方面Gaussian Splatting如此受歡迎,開始放棄NeRF? Jan 17, 2024 pm 02:57 PM

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

摔倒偵測,基於骨骼點人體動作識別,部分代碼用 Chatgpt 完成 摔倒偵測,基於骨骼點人體動作識別,部分代碼用 Chatgpt 完成 Apr 12, 2023 am 08:19 AM

哈嘍,大家好。今天就跟大家分享一個摔倒偵測項目,確切地說是基於骨骼點的人體動作辨識。大概分為三個步驟辨識人體辨識人體骨骼點動作分類項目源碼已經打包好了,取得方式見文末。 0. chatgpt首先,我們需要取得監控的視訊串流。這段程式碼比較固定,我們可以直接讓chatgpt完成chatgpt寫的這段程式碼是沒有問題的,可以直接使用。但後面涉及業務型任務,例如:用mediapipe識別人體骨骼點,chatgpt給的代碼是不對的。我覺得chatgpt可以當作一個工具箱,能獨立於業務邏輯,都可以試著交給c

i7-7700無法升級至Windows 11的解決方案 i7-7700無法升級至Windows 11的解決方案 Dec 26, 2023 pm 06:52 PM

i77700的效能運行win11完全足夠,但是用戶卻發現自己的i77700不能升級win11,這主要是受到了微軟硬性條件的限制,所以只要跳過該限制就能安裝了。 i77700不能升級win11:1、因為微軟限制了cpu的版本。 2.intel只有第八代以上版本可以直升win11。3、而i77700作為7代,無法滿足win11的升級需求。 4.但是i77700在性能上是完全能流暢使用win11的。 5.所以大家可以使用本站的win11直裝系統。 6.下載完成後,右鍵「裝載」該檔案。 7.再雙擊運行其中的「一鍵

了解 Microsoft Teams 中的 3D Fluent 表情符號 了解 Microsoft Teams 中的 3D Fluent 表情符號 Apr 24, 2023 pm 10:28 PM

您一定記得,尤其是如果您是Teams用戶,Microsoft在其以工作為重點的視訊會議應用程式中添加了一批新的3DFluent表情符號。在微軟去年宣佈為Teams和Windows提供3D表情符號之後,該過程實際上已經為該平台更新了1800多個現有表情符號。這個宏偉的想法和為Teams推出的3DFluent表情符號更新首先是透過官方部落格文章進行宣傳的。最新的Teams更新為應用程式帶來了FluentEmojis微軟表示,更新後的1800表情符號將為我們每天

選擇相機還是光達?實現穩健的三維目標檢測的最新綜述 選擇相機還是光達?實現穩健的三維目標檢測的最新綜述 Jan 26, 2024 am 11:18 AM

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

單卡30秒跑出虛擬3D老婆! Text to 3D產生看清毛孔細節的高精度數字人,無縫銜接Maya、Unity等製作工具 單卡30秒跑出虛擬3D老婆! Text to 3D產生看清毛孔細節的高精度數字人,無縫銜接Maya、Unity等製作工具 May 23, 2023 pm 02:34 PM

ChatGPT為AI產業注入一劑雞血,一切曾經的不敢想,都成為現今的基操。正持續進擊的Text-to-3D,就被視為繼Diffusion(影像)和GPT(文字)後,AIGC領域的下一個前緣熱點,得到了前所未有的關注。這不,一款名為ChatAvatar的產品低調公測,火速收攬超70萬瀏覽與關注,並登上抱抱臉週熱門(Spacesoftheweek)。 △ChatAvatar也將支援從AI生成的單視角/多視角原畫生成3D風格化角色的Imageto3D技術,受到了廣泛關注現行beta版本生成的3D模型,

CLIP-BEVFormer:明確監督BEVFormer結構,提升長尾偵測性能 CLIP-BEVFormer:明確監督BEVFormer結構,提升長尾偵測性能 Mar 26, 2024 pm 12:41 PM

寫在前面&筆者的個人理解目前,在整個自動駕駛系統當中,感知模組扮演了其中至關重要的角色,行駛在道路上的自動駕駛車輛只有通過感知模組獲得到準確的感知結果後,才能讓自動駕駛系統中的下游規控模組做出及時、正確的判斷和行為決策。目前,具備自動駕駛功能的汽車中通常會配備包括環視相機感測器、光達感測器以及毫米波雷達感測器在內的多種數據資訊感測器來收集不同模態的信息,用於實現準確的感知任務。基於純視覺的BEV感知演算法因其較低的硬體成本和易於部署的特點,以及其輸出結果能便捷地應用於各種下游任務,因此受到工業

牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) 牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) Apr 23, 2024 pm 01:20 PM

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

See all articles