目錄
寫在前面&&筆者的個人理解
刨析Vision Transformer
#Common Attribution Methods
Attention-based Methods
Pruning-based Methods
Inherently Explainable Methods
Other Tasks
未來展望
首頁 科技週邊 人工智慧 更深層的理解視覺Transformer, 對視覺Transformer的剖析

更深層的理解視覺Transformer, 對視覺Transformer的剖析

Dec 15, 2023 am 11:17 AM
模型 視覺

本文為經過自動駕駛之心公眾號授權轉載,請在轉載時與出處聯繫

寫在前面&&筆者的個人理解

目前,基於Transformer結構的演算法模型已經在電腦視覺(CV)領域產生了極大的影響。它們在許多基本的電腦視覺任務上超越了先前的捲積神經網路(CNN)演算法模型。以下是我找到的最新的不同基礎電腦視覺任務的LeaderBoard榜單排名,透過LeaderBoard可以看出Transformer演算法模型在各類電腦視覺任務上的統治地位

  • 影像分類任務

首先是在ImageNet上的LeaderBoard,透過榜單可以看出,前五名當中,每個模型都使用了Transformer結構,而CNN結構只有部分使用,或者採用和Transformer相結合的方式。

更深层的理解视觉Transformer, 对视觉Transformer的剖析

映像分類任務的LeaderBoard

  • #目標偵測任務

接下來是在COCO test-dev上的LeaderBoard,透過榜單可以看出,前五名當中,一半以上都是基於DETR這類演算法結構進行延伸的。

更深层的理解视觉Transformer, 对视觉Transformer的剖析目標偵測任務的LeaderBoard

  • 語意分割任務

最後是ADE20K val上的LeaderBoard,透過榜單也可以看出,在榜單的前幾名中,Transformer結構依舊佔據是當前的主力軍。

更深层的理解视觉Transformer, 对视觉Transformer的剖析語意分割任務的LeaderBoard

儘管Transformer在中國目前展現出了巨大的發展潛力,但是目前的電腦視覺社群還沒有完全掌握Vision Transformer的內部工作原理,也沒有掌握其決策(輸出的預測結果)的基礎,因此對其可解釋性的需求逐漸凸顯出來。只有了解這類模型是如何做出決策的,才能提高它們的性能,並建立對人工智慧系統的信任

本文的主要目的是研究Vision Transformer的不同可解釋性方法,並根據不同演算法的研究動機、結構類型以及應用場景進行分類,從而形成一篇綜述文章

刨析Vision Transformer

因為剛才提到,Vision Transformer的結構在各類基礎的電腦視覺任務中都取得了非常不錯的成績。所以之後電腦視覺社群湧現出了很多方法來增強它的可解釋性。本文我們主要以分類任務為主線,從Common Attribution MethodsAttention-based MethodsPruning-based MethodsInherently Explainable MethodsOther Tasks這五個面向中,挑選出最新以及經典的工作進行介紹。這裡放一下論文中出現的心智圖,大家可以根據自身感興趣的內容,進行更細緻的閱讀~

更深层的理解视觉Transformer, 对视觉Transformer的剖析

本文心智圖

#Common Attribution Methods

基於屬性方法的解釋通常從模型的輸入特徵如何逐步得到最終輸出結果的過程入手來解釋。這類方法主要用於測量模型的預測結果與輸入特徵之間的相關性

在這些方法中,例如Grad-CAM以及Integrated Gradients演算法是直接應用於了基於視覺Transformer的演算法上。一些其他的方法像是SHAP和Layer-Wise Relevance Propagation(LRP)已經被用來探索基於ViT的架構上了。但是由於SHAP這類方法到的計算成本非常大,所以最近的ViT Shapely演算法被設計出來用於適應ViT的相關應用研究。

Attention-based Methods

Vision Transformer正是透過其註意力機制獲得了強大的特徵提取能力。在基於注意力的可解釋性方法中,對注意力權重結果進行視覺化是一種非常有效的方法。本文將介紹幾種視覺化技術

  • Raw Attention:此方法顧名思義,就是將網路模型中間層所得到的注意力權重圖進行視覺化,從而對模型的效果進行分析。
  • Attention Rollout:該技術透過對網路的不同層中擴展注意力權重來追蹤從輸入token到中間embedding之間的訊息傳輸。
  • Attention Flow:此方法將注意力圖視為一個流量網絡,並使用最大流量演算法計算從中間embedding到輸入token的最大流量值。
  • partialLRP:此方法是用於視覺化Vision Transformer中的多頭注意力機制提出來的,同時也考慮了每個注意力頭的重要性。
  • Grad-SAM:此方法用於緩解僅依靠原始注意力矩陣來解釋模型預測的局限性,促使研究人員將梯度以用於原始的注意力權重中。
  • Beyond Intuition:此方法也是一種用於解釋注意力的方法,包括注意力感知和推理回饋兩個階段。

最後放一張不同可解釋性方法的注意力視覺化圖,大家可以自行感受一下不同視覺化方法的差異。

更深层的理解视觉Transformer, 对视觉Transformer的剖析

不同視覺化方法的注意力圖對比

Pruning-based Methods

剪枝是一種非常有效的方法,被廣泛應用於優化transformer結構的效率和複雜性。剪枝方法透過對冗餘或沒用的資訊進行刪減,從而降低模型的參數量和計算複雜度。雖然剪枝演算法著重於提高模型的計算效率,但是該類演算法依舊可以實現對模型的可解釋性。

本文中針對基於Vision-Transformer的剪枝方法,大體可以分成三大類:explicitly explainable(顯式可解釋)、implicitly explainable(隱式可解釋)、possibly explainable(可能可解釋)。

  • Explicitly Explainable
    在基于剪枝的方法当中,有几类方法可以提供简单而且更可解释的模型。
  • IA-RED^2:该方法的目标是在算法模型的计算效率以及可解释性之间实现一个最优的平衡。并且在这个过程当中,保持原有ViT算法模型的灵活性。
  • X-Pruner:该方法是一种用于剪枝显著性单元的方法,通过创建一个可解释性的感知掩码来衡量每个可预测单元在预测特定类中的贡献。
  • Vision DiffMask:该剪枝方法包括在每个ViT层上加入门控机制,通过门控机制,可以实现在屏蔽输入的同时保持模型的输出。除此之外,该算法模型可以清晰地触发剩余图像中的子集,从而实现更好地对模型预测的理解。
  • Implicitly Explainable
    基于剪枝的方法当中,也有一些经典的方法可以被划分为隐式的可解释性模型类别中。
  • Dynamic ViT:该方法采用轻量级预测模块,根据当前的特征去估计每个token的重要性程度。然后将该轻量级的模块加入到ViT的不同层中,以分层的方式来修剪冗余的token。最重要的是,该方法通过逐步定位对分类贡献最大的关键图像部分来增强可解释性。
  • Efficient Vision Transformer(EViT):该方法的核心思想是通过重组token的方式来加速EViT。通过计算注意力得分,EViT保留最相关的token,同时将不太相关的token融合到另外的token中。同时论文的作者为了评估EViT的可解释性,对多个输入图像可视化了token的识别过程。

  • Possibly Explainable
    虽然这类方法最初并不是为了提高ViT的可解释性,但是这类方法为进一步研究模型的可解释性提供了很大的潜力。
  • Patch Slimming:通过自上而下的方法来专注图像中的冗余patch来加速ViT。该算法选择性的保留了关键补丁的能力来突出重要的视觉特征,从而增强可解释性。
  • Hierarchical Visual Transformer(HVT):该方法的引入用于去增强ViT的可扩展性和性能。随着模型深度的增加,序列长度逐渐减小。此外,通过将ViT块划分为多个阶段,并在每个阶段应用池化操作,显著提高了计算效率。考虑到对模型最重要组成部分的逐渐集中,有机会探索其对增强可解释性和可解释性的潜在影响。
Inherently Explainable Methods

在不同的可解释方法中,有一类方法主要是开发能够内在地解释算法模型,然而,这些模型通常难以达到与更复杂的黑盒模型相同的精度水平。因此,必须在可解释性和性能之间考虑谨慎的平衡。接下来对一些经典的工作进行简要的介绍。

  • ViT-CX:该方法针对ViT模型定制的基于掩码的解释方法。这种方法依赖patch embedding以及其对模型输出的影响,而不是聚焦对它们的关注。该方法包括掩码生成和掩码聚合两个阶段,从而提供更有意义的显著性图。
  • ViT-NeT:该方法是一种新的神经树解码器,通过树形结构和原型来描述决策过程。同时,该算法还可以对结果进行可视化解释。
  • R-Cut:该方法是通过Relationship Weighted Out and Cut来增强ViT的可解释性。该方法包括两个模块,分别是Relationship Weighted Out和Cut模块。前者侧重于从中间层提取特定类的信息,强调相关特征。后者执行细粒度的特征分解。通过对两个模块的集成,可以生成密集的特定于类的可解释性映射。
Other Tasks

基于ViT的架构在探索中仍然需要对其他计算机视觉任务进行解释。目前已经提出了一些专门针对其他任务的可解释性方法,下面将介绍相关领域的最新工作

  • eX-ViT:此演算法是一種基於弱監督語意分割的新型可解釋視覺轉換器。此外,為了提高可解釋性,引入了屬性導向損失模組,該模組包含全局層級屬性導向損失、局部層級屬性可判別性損失和屬性多樣性損失三種損失。前者使用注意圖來創建可解釋的特徵,後兩者則增強屬性學習。
  • DINO:此方法是一種簡單的自監督方法,並且是一種不含標籤的自蒸餾方法。最終學習到的注意圖能夠有效地保留影像的語意區域,從而實現可以解釋的目的。
  • Generic Attention-model:此方法是一種基於Transformer架構做預測的演算法模型。此方法應用於三種最常用的架構,即純自註意、自註意與共同註意相結合和編碼器-解碼器注意。為了檢驗模型的解釋性,作者使用了視覺問答任務,然而,它也適用於其他CV任務,如目標偵測和影像分割。
  • ATMAN:這是一種模態不可知的擾動方法,利用注意力機制產生輸入相對於輸出預測的相關性圖。該方法試圖透過記憶效率注意操作來理解變形預測。
  • Concept-Transformer:演算法透過突出顯示使用者定義的高階概念的注意分數來產生模型輸出的解釋,從而確保可信任性和可靠性。

未來展望

目前,基於Transformer架構的演算法模型在各類電腦視覺任務上取得了非常出色的成績。然而,就如何利用可解釋性方法促進模型調試和改進、提高模型的公平性和可靠性而言,特別是在ViT應用中,目前缺乏明顯的研究

本文旨在透過影像分類任務,將基於Vision Transformer的可解釋性演算法模型進行歸類整理,以幫助讀者更好地理解這類模型的架構,希望對大家有所幫助

更深层的理解视觉Transformer, 对视觉Transformer的剖析

要重寫的是:原文連結:https://mp.weixin.qq.com/s/URkobeRNB8dEYzrECaC7tQ

以上是更深層的理解視覺Transformer, 對視覺Transformer的剖析的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

<🎜>:泡泡膠模擬器無窮大 - 如何獲取和使用皇家鑰匙
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系統,解釋
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora:巫婆樹的耳語 - 如何解鎖抓鉤
3 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1665
14
CakePHP 教程
1424
52
Laravel 教程
1321
25
PHP教程
1269
29
C# 教程
1249
24
全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

超越ORB-SLAM3! SL-SLAM:低光、嚴重抖動和弱紋理場景全搞定 超越ORB-SLAM3! SL-SLAM:低光、嚴重抖動和弱紋理場景全搞定 May 30, 2024 am 09:35 AM

寫在前面今天我們探討下深度學習技術如何改善在複雜環境中基於視覺的SLAM(同時定位與地圖建構)表現。透過將深度特徵提取和深度匹配方法相結合,這裡介紹了一種多功能的混合視覺SLAM系統,旨在提高在諸如低光條件、動態光照、弱紋理區域和嚴重抖動等挑戰性場景中的適應性。我們的系統支援多種模式,包括拓展單目、立體、單目-慣性以及立體-慣性配置。除此之外,也分析如何將視覺SLAM與深度學習方法結合,以啟發其他研究。透過在公共資料集和自採樣資料上的廣泛實驗,展示了SL-SLAM在定位精度和追蹤魯棒性方面優

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! Mar 21, 2024 pm 05:21 PM

這篇論文探討了在自動駕駛中,從不同視角(如透視圖和鳥瞰圖)準確檢測物體的問題,特別是如何有效地從透視圖(PV)到鳥瞰圖(BEV)空間轉換特徵,這一轉換是透過視覺轉換(VT)模組實施的。現有的方法大致分為兩種策略:2D到3D和3D到2D轉換。 2D到3D的方法透過預測深度機率來提升密集的2D特徵,但深度預測的固有不確定性,尤其是在遠處區域,可能會引入不準確性。而3D到2D的方法通常使用3D查詢來採樣2D特徵,並透過Transformer學習3D和2D特徵之間對應關係的注意力權重,這增加了計算和部署的

See all articles