浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

WBOY
發布: 2024-08-20 16:35:49
原創
312 人瀏覽過
浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘
AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

該大學論文作者皆來自李江江山論文作者都來自於大學論文筆,論文第一作者為博士生蘇偉同學,通訊作者為李璽教授(IET Fellow,國家傑青)。李璽教授團隊近年來在國際權威期刊(如TPAMI、IJCV 等)和國際頂尖學術會議(ICCV、CVPR、ECCV 等)上發表180 餘篇CV/AIGC 相關的研究工作,和國內外知名大學、科研機構廣泛進行合作。

作為基礎的視覺語言任務,指代表達理解(referring expression comprehension, REC)依照自然語言描述來定位圖中被指涉的目標。 REC 模型通常由三個部分組成:視覺編碼器、文字編碼器和跨模態交互,分別用於擷取視覺特徵、文字特徵和跨模態特徵特徵交互與增強。

目前的研究大多集中在設計高效的跨模態互動模組以提升任務精度,缺少對視覺編碼器探索。常見做法是利用在分類、偵測任務上預先訓練的特徵提取器,如 ResNet、DarkNet、Swin Transformer 或 ViT 等。這些模型以滑動視窗或劃分 patch 的方式遍歷影像所有的空間位置來提取特徵,其計算複雜度會隨影像解析度快速增長,在基於 Transformer 的模型中更加明顯。

由於影像的空間冗餘特性,影像中存在大量低資訊量的背景區域以及與指代表達無關的區域,以相同的方式在這些區域提取特徵會增加計算量但對有效特徵提取沒有任何幫助。更有效率的方式是提前預測影像區域的文字相關性和內容的豐富程度,對文字相關的前景區域充分提取特徵,並對背景區域粗略提取特徵。對於區域預測,一個較為直觀的方式是透過影像金字塔來實現,在金字塔頂層的粗粒度影像中提前辨識背景區域,之後逐步加入高解析度的細粒度前景區域。

基於上述分析,我們提出了coarse-to-fine 的迭代感知框架ScanFormer,在圖像金字塔中逐層scan,從低分辨率的粗尺度影像開始,逐步過濾掉指代表達無關/ 背景區域來降低計算浪費,使模型更專注於前景/ 任務相關區域。

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

  • 論文標題:ScanFormer: Referring Expression Comprehension by Iteratively Scanning
  • 論文連結:https://arxiv.org/pdf/2406.18048

方法介紹


為簡化結構,我們採用統一文字和視覺模態的 ViLT [1] 模型,並將其沿深度維度分為Encoder1 和Encoder2 兩部分以用於不同的任務。

首先,提取文字特徵並將其存入KV Cache;然後構造圖像金字塔並從金字塔頂層依次往下迭代,在每次迭代中,輸入當前尺度被選擇的patch,Encoder1 用來預測每個patch 對應的下一個尺度的細粒度patch 的選擇情況,特別地,頂層影像的patch 全部被選上,以確保模型能獲得粗粒度的全圖資訊。 Encoder2 進一步提取特徵並基於當前尺度的 [cls] token 來預測該尺度的 bounding box。

同時,Encoder1 和 Encoder2 的中間特徵會被存入 KV Cache 以方便被後續的尺度利用。隨著尺度的增加,細粒度特徵被引入,位置預測會更加準確,同時大部分無關的 patch 被丟棄以節省大量計算。

此外,每個尺度內部的 patch 具有雙向注意力,同時會關注前序尺度所有的 patch 和文本特徵。這種尺度間的因果注意力可以進一步降低計算需求。

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

二、動態patch 選擇
每個patch 的選擇情況由前一尺度生成的選擇因子決定,對於應用的位置有兩種方案,其一是用於Encoder 每層MHSA 的所有head 中,然而,對於N 層H 頭的Encoder,很難獲得有效的的梯度信息來更新,因此學到的選擇因子不太理想;其二是直接用於Encoder 的輸入,即patch embedding 上,由於只用在這一個位置,因此更容易學習,本文最終也採用了此方案。

另外,需要注意的是,即使輸入patch embedding 被置0,由於MHSA 和FFN 的存在,該patch 在後續層的特徵仍然會變為非0並影響其餘patch 的特徵。幸運的是,當 token 序列中存在許多相同 token 時,可以簡化 MHSA 的計算,以實現實際的推理加速。此外,為了增強模型的靈活性,本文並沒有直接將 patch embedding 置 0,而是將其替換為一個可學習的常數 token。

因此,patch 的選擇問題被轉換成 patch 的替換問題。 patch 選擇的過程可以分解為常數 token 替換和 token 合併兩個步驟。未被選擇的 patch 會被替換為同一個常數 token。由於這些未被選擇的token 是相同的,根據scaled dot product attention 的計算方式,這些token 可以被合併為一個token 並乘上總數,等價於將加到維度上,因此點積注意力的計算方式不變,常見的加速方法依舊可用。

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

實驗結果

本文方法在RefCOCO、RefCO.資料集上取得了和state-of-the-art 相近的效能。透過在大規模資料集上預先訓練並在具體資料集上微調,模型的效能可以進一步大幅提升,並達到和預訓練模型如 MDETR [2] 和 OFA [3] 等相近的結果。

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

在推理速度上,提出的方法達到了實時的推理速度,同時能確保較高的任務精度。

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

此外,實驗部分也對模型的 patch 選擇情況以及每個尺度(scale1 和 scale2)定位精度的分佈做了統計。

如左圖所示,隨著尺度的增加,細粒度的影像特徵被加入,模型精度逐漸提升。因此可以嘗試加入早退機制,在定位精度滿足要求時及時退出,避免進一步在高解析度影像上計算,實現根據樣本自適應選擇合適的解析度的效果。本文也進行了一些初步的嘗試,包括加入 IoU、GIoU 和不確定性等預測分支,回歸 early exit 的指標,但發現效果不太理想,如何設計合適且準確的 early exit 指標有待繼續探索。

右圖展示了不同尺度的patch 選擇情況,在所有的尺度上,被選擇的patch 佔均比較小,大部分的patch 都可以被剔除,因此可以有效地節省計算資源。對於每個樣本(圖像 + 指代表達),實際選擇的 patch 數量相對較少,大概佔總數的 65%。

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

最後,實驗部分展示了一些視覺化結果,隨著尺度的增加(紅→綠→藍),模型的定位精度逐漸提高。另外,根據由被選擇的 patch 重建的圖像,可以看出模型對於背景區域只關注了粗尺度的信息,對於相關的前景區域,模型能夠關注細粒度的細節信息。

浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘

相關文獻:
[1].Kim W, Son B, Kim I. Vilt: Vision- and-language transformer without convolution or region supervision [C]//International conference on machine learning. PM​​LR, 2021: 5583-5594.
A, Singh.Kamath> LeCun Y, et al. Mdetr-modulated detection for end-to-end multi-modal understanding [C]//Proceedings of the IEEE/CVF international conference on computer vision. 2021: 1780-1790.
[3].Wang P, Yang A, Men R, et al. Ofa: Unifying architectures, tasks, and modalities through a simple sequence-to-sequence learning framework [C]//International conference on machine lamework [C]//International conference on machine lame . PMLR, 2022: 23318-23340.

以上是浙大李璽團隊:指代表達理解新方法,ScanFormer粗到細迭代消除視覺冗餘的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:jiqizhixin.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!