首頁 科技週邊 人工智慧 解析大型模型的可解釋性:綜述揭示真相,解答疑惑

解析大型模型的可解釋性:綜述揭示真相,解答疑惑

Sep 29, 2023 pm 06:53 PM
產業 可解釋性

大規模語言模型在自然語言處理方面展現出令人驚訝的推理能力,但其內在機制尚不清楚。隨著大規模語言模型的廣泛應用,闡明模型的運作機制對應用安全性、效能限制和可控的社會影響至關重要。

近期,中美多家研究機構(新澤西理工學院、約翰斯・霍普金斯大學、維克森林大學、喬治亞大學、上海交大、百度等)共同發布了大模型可解釋性技術的綜述,分別對傳統的fine-tuning 模型和基於prompting 的超大模型的可解釋性技術進行了全面的梳理,並探討了模型解釋的評估標準和未來的研究挑戰。

解析大型模型的可解釋性:綜述揭示真相,解答疑惑

  • 論文連結:https://arxiv.org/abs/2309.01029
  • Github 連結: https://github.com/hy-zhao23/Explainability-for-Large-Language-Models

解析大型模型的可解釋性:綜述揭示真相,解答疑惑

解釋大模型的難點在什麼地方?

為何要解釋大模型有點難?大語言模式在自然語言處理任務上的驚艷表現引起了社會廣泛的關注。同時,如何解釋大模型在跨任務中令人驚豔的表現是學術界面臨的迫切挑戰之一。有別於傳統的機器學習或深度學習模型,超大的模型架構和大量的學習資料使得大模型具備了強大的推理泛化能力。大語言模型 (LLMs) 提供可解釋性的幾個主要困難包括:

  • 模型複雜度高。區別於 LLM 時代之前的深度學習模型或傳統的統計機器學習模型,LLMs 模型規模巨大,包含數十億個參數,其內部表示和推理過程非常複雜,很難針對其具體的輸出給出解釋。
  • 資料依賴性強。 LLMs 在訓練過程中依賴大規模文字語料,這些訓練資料中的偏見、錯誤等都可能影響模型,但很難完整判斷訓練資料的品質對模型的影響。
  • 黑箱性質。我們通常把 LLMs 看做黑箱模型,即使是對於開源的模型來說,例如 Llama-2。我們很難明確地判斷它的內部推理鍊和決策過程,只能根據輸入輸出進行分析,這會給可解釋性帶來困難。
  • 輸出不確定性。 LLMs 的輸出常常存在不確定性,對相同輸入可能產生不同輸出,這也增加了可解釋性的難度。
  • 評估指標不足。目前對話系統的自動評估指標還不足以完整反映模型的可解釋性,需要更多考慮人類理解的評估指標。

大模型的訓練範式

##為了更好的歸納總結大模型的可解釋性,我們將BERT 及以上級別的大模型的訓練範式分為兩種:1)傳統fine-tuning 範式;2)基於prompting 的範式。

傳統fine-tuning 範式

對於傳統fine -tuning 範式,首先在一個較大的未標記的文本庫上預訓練一個基礎語言模型,再透過來自特定領域的標記資料集進行fine-tuning。常見的此類模型有 BERT, RoBERTa, ELECTRA, DeBERTa 等人。

基於prompting 的範式

基於prompting 的範式透過使用prompts 實現zero-shot 或few-shot learning。與傳統 fine-tuning 範式相同,需要預先訓練基礎模型。但是,基於 prompting 範式的微調通常由 instruction tuning 和 reinforcement learning from human feedback (RLHF) 實作。常見的此類模型包括 GPT-3.5, GPT 4, Claude, LLaMA-2-Chat, Alpaca, Vicuna 等。其訓練流程如下圖:

解析大型模型的可解釋性:綜述揭示真相,解答疑惑

基於傳統fine-tuning 範式的模型解釋

#基於傳統fine-tuning 範式的模型解釋包括對單一預測的解釋(局部解釋)和模型結構層級組分如神經元,網路層等的解釋(全局解釋)。

局部解釋

#局部解釋對單一樣本預測進行解釋。其解釋方法包括特徵歸因(feature attribution)、基於注意力機制的解釋(attention-based)、基於樣本的解釋(example-based)、基於自然語言的解釋(natural language explanation)。

解析大型模型的可解釋性:綜述揭示真相,解答疑惑

1. 特徵歸因的目的是衡量每個輸入特徵(例如單字、片語、文字範圍)與模型預測之間的相關性。特徵歸因的方法可以分為:

  • 基於擾動的解釋,透過修改特定的輸入特徵來觀察對輸出結果的影響

  • 根據梯度的解釋,將輸出對輸入的偏微分作為相應輸入的重要性指標

  • #替代模型,使用簡單的人類可理解的模型去擬合複雜模型的單個輸出,從而獲取各輸入的重要性;

  • 基於分解的技術,旨在將特徵相關性分數進行線性分解。

2. 基於注意力的解釋:注意力通常被作為一種專注於輸入中最相關部分的途徑,因此註意力可能學習到可以用於解釋預測的相關性資訊。常見的注意力相關的解釋方法包括:

  • 注意力視覺化技術,直觀地觀察注意力分數在不同尺度上的變化;
  • 基於函數的解釋,如輸出對注意力的偏微分。然而,學術界對於將注意力作為一個研究角度依然充滿爭議。

3. 基於樣本的解釋從個案的角度對模型進行探測和解釋,主要分為:對抗樣本和反事實樣本。

  • 對抗樣本是針對模型對微小變動非常敏感的特性而產生的數據,自然語言處理中通常透過修改文字得到,人類難以區別的文本變換通常會導致模型產生不同的預測。
  • 反事實樣本則是透過將文本進行如否定的變形,通常也是對模型因果推論能力的偵測。

4. 自然語言解釋使用原始文字和人工標記的解釋進行模型訓練,使得模型可以產生自然語言解釋模型的決策過程。

全域解釋

#全域解釋旨在從模型構成的層麵包括如神經元,隱藏層和更大的組塊,為大模型的工作機制提供更高階的解釋。主要探究在不同網路構成部分學習到的語意知識。

  • 基於探針的解釋探針解釋技術主要基於分類器進行探測,透過在預訓練模型或微調模型上訓練一個淺層分類器,然後在一個holdout 資料集上進行評估,使得分類器能夠識別語言特徵或推理能力。
  • 神經元活化 傳統神經元活化分析只考慮一部分重要的神經元,再學習神經元與語意特性之間的關係。近來,GPT-4 也被用來解釋神經元,不同於選取部分神經元來解釋,GPT-4 可以用來解釋所有的神經元。
  • 基於概念的解釋 先將輸入映射到一組概念中,再透過測量概念對預測的重要性來解釋模型。

基於prompting 範式的模型解釋

基於prompting 範式的模型解釋,需要對基礎模型和助手模型分別解釋以區別兩種模型的能力,並探究模型學習的路徑。其探究的問題主要包括:為模型提供解釋對 few-shot learning 的益處;理解 few-shot learning 和思維鏈能力的來源。

基礎模型解釋

  • 解釋對模型學習的好處探究在few-shot learning 的情況下解釋是否對模型學習有幫助。
  • 情境學習 探究情境學習在大模型中的作用機制,以及區分情境學習在大模型中和中等模型的差異。
  • 思考鏈 prompting 探究思維鏈 prompting 提升模型的表現的原因。

#助理模型解釋


Fine-tuning 的角色助手模型通常先經過預訓練獲得通用語意知識,在透過監督學習和強化學習來獲取領域內知識。而助手模型的知識主要來自於哪個階段依然有待研究。
幻覺與不確定性 大模型預測的準確性與可信度仍是目前研究的重要課題。儘管大模型的推理能力強大,但其結果常常出現錯誤訊息和幻覺。這種預測的不確定性為其廣泛應用帶來了巨大的挑戰。

模型解釋的評估
################ ##模型解釋的評估指標包含合理性(plausibility),忠實度(faithfulness),穩定性(stability),穩健性(robustness) 等。論文主要講述了兩個被廣泛關注的圍度:1)對人類的合理性;2)對模型內在邏輯的忠實度。 ###############對傳統 fine-tuning 模型解釋的評估主要集中在局部解釋。合理性通常需要將模型解釋與人工標註的解釋依照設計的標準進行測量評估。而忠實性則更注重量化指標的表現,由於不同的指標關注模型或數據的面向不同,對於忠實性的衡量仍缺乏統一的標準。基於 prompting 模型解釋的評估則有待進一步的研究。

未來研究挑戰

#1.缺乏有效的正確解釋。 其挑戰來自兩個方面:1)缺乏設計有效解釋的標準;2)有效解釋的缺乏導致對解釋的評估同樣缺乏支撐。

2. 湧現現象的根源未知。 對大模型湧現能力的探究可以分別從模型和資料的角度進行,從模型的角度,1)引起湧現現象的模型結構;2)具備跨語言任務超強表現的最小模型尺度和複雜度。從資料的角度,1)決定特定預測的資料子集;2)湧現能力與模型訓練和資料污染的關係;3)訓練資料的品質和數量對預訓練和微調各自的影響。

3. Fine-tuning 範式與 prompting 範式的差異。 兩者在 in-distribution 和 out-of-distribution 的不同表現意味著不同的推理方式。 1)在資料同分佈(in-distribution)之下,其推理範式的差異;2)在資料不同分佈的情況下,模型穩健性的差異根源。

4. 大模型的捷徑學習問題。 兩種範式之下,模型的捷徑學習問題存在於不同的面向。儘管大模型由於資料來源豐富,捷徑學習的問題相對緩和。闡明捷徑學習形成的機制並提出解決方法對模型的泛化依然重要。

5. 注意力冗餘。 注意力模組的冗餘問題在兩個範式之中廣泛存在,對注意力冗餘的研究可以為模型壓縮技術提供一種解決方式。

6. 安全性與道德性。 大模型的可解釋性對控制模型並限制模型的負面影響至關重要。如偏差、不公平、資訊污染、社會操控等問題。建立可解釋的 AI 模型可以有效地避免上述問題,並形成符合道德規範的人工智慧系統。

以上是解析大型模型的可解釋性:綜述揭示真相,解答疑惑的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

DeepMind機器人打乒乓球,正手、反手溜到飛起,全勝人類初學者 DeepMind機器人打乒乓球,正手、反手溜到飛起,全勝人類初學者 Aug 09, 2024 pm 04:01 PM

但可能打不過公園裡的老大爺?巴黎奧運正在如火如荼地進行中,乒乓球項目備受關注。同時,機器人打乒乓球也取得了新突破。剛剛,DeepMind提出了第一個在競技乒乓球比賽中達到人類業餘選手等級的學習型機器人智能體。論文地址:https://arxiv.org/pdf/2408.03906DeepMind這個機器人打乒乓球什麼程度呢?大概和人類業餘選手不相上下:正手反手都會:對手採用多種打法,機器人也能招架得住:接不同旋轉的發球:不過,比賽激烈程度似乎不如公園老大爺對戰。對機器人來說,乒乓球運動

首配機械爪!元蘿蔔亮相2024世界機器人大會,發布首個走進家庭的西洋棋機器人 首配機械爪!元蘿蔔亮相2024世界機器人大會,發布首個走進家庭的西洋棋機器人 Aug 21, 2024 pm 07:33 PM

8月21日,2024世界機器人大會在北京隆重召開。商湯科技旗下家用機器人品牌「元蘿蔔SenseRobot」家族全系產品集體亮相,並最新發布元蘿蔔AI下棋機器人-國際象棋專業版(以下簡稱「元蘿蔔國象機器人」),成為全球首個走進家庭的西洋棋機器人。作為元蘿蔔的第三款下棋機器人產品,全新的國象機器人在AI和工程機械方面進行了大量專項技術升級和創新,首次在家用機器人上實現了透過機械爪拾取立體棋子,並進行人機對弈、人人對弈、記譜複盤等功能,

Claude也變懶了!網友:學會給自己放假了 Claude也變懶了!網友:學會給自己放假了 Sep 02, 2024 pm 01:56 PM

開學將至,該收心的不只即將開啟新學期的同學,可能還有AI大模型。前段時間,Reddit擠滿了吐槽Claude越來越懶的網友。 「它的水平下降了很多,經常停頓,甚至輸出也變得很短。在發布的第一周,它可以一次性翻譯整整4頁文稿,現在連半頁都輸出不了!」https:// www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/在一個名為“對Claude徹底失望了的帖子裡”,滿滿地

世界機器人大會上,這家承載「未來養老希望」的國產機器人被包圍了 世界機器人大會上,這家承載「未來養老希望」的國產機器人被包圍了 Aug 22, 2024 pm 10:35 PM

在北京舉行的世界機器人大會上,人形機器人的展示成為了現場絕對的焦點,在星塵智能的展台上,由於AI機器人助理S1在一個展區上演揚琴、武術、書法三台大戲,能文能武,吸引了大量專業觀眾和媒體的駐足。在有彈性的琴弦上優雅的演奏,讓S1展現出速度、力度、精準度兼具的精細操作與絕對掌控。央視新聞對「書法」背後的模仿學習和智慧控制進行了專題報道,公司創始人來傑解釋到,絲滑動作的背後,是硬體側追求最好力控和最仿人身體指標(速度、負載等),而是在AI側則採集人的真實動作數據,讓機器人遇強則強,快速學習進化。而敏捷

ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎 ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎 Aug 15, 2024 pm 04:37 PM

本屆ACL大會,投稿者「收穫滿滿」。為期六天的ACL2024正在泰國曼谷舉辦。 ACL是計算語言學和自然語言處理領域的頂級國際會議,由國際計算語言學協會組織,每年舉辦一次。一直以來,ACL在NLP領域的學術影響力都名列第一,它也是CCF-A類推薦會議。今年的ACL大會已是第62屆,接收了400餘篇NLP領域的前沿工作。昨天下午,大會公佈了最佳論文等獎項。此次,最佳論文獎7篇(兩篇未公開)、最佳主題論文獎1篇、傑出論文獎35篇。大會也評出了資源論文獎(ResourceAward)3篇、社會影響力獎(

李飛飛團隊提出ReKep,讓機器人具備空間智能,還能整合GPT-4o 李飛飛團隊提出ReKep,讓機器人具備空間智能,還能整合GPT-4o Sep 03, 2024 pm 05:18 PM

視覺與機器人學習的深度融合。當兩隻機器手絲滑地互相合作疊衣服、倒茶、將鞋子打包時,加上最近老上頭條的1X人形機器人NEO,你可能會產生一種感覺:我們似乎開始進入機器人時代了。事實上,這些絲滑動作正是先進機器人技術+精妙框架設計+多模態大模型的產物。我們知道,有用的機器人往往需要與環境進行複雜精妙的交互,而環境則可被表示成空間域和時間域上的限制。舉個例子,如果要讓機器人倒茶,那麼機器人首先需要抓住茶壺手柄並使之保持直立,不潑灑出茶水,然後平穩移動,一直到讓壺口與杯口對齊,之後以一定角度傾斜茶壺。這

鴻蒙智行享界S9全場景新品發表會,多款重磅新品齊發 鴻蒙智行享界S9全場景新品發表會,多款重磅新品齊發 Aug 08, 2024 am 07:02 AM

今天下午,鸿蒙智行正式迎来了新品牌与新车。8月6日,华为举行鸿蒙智行享界S9及华为全场景新品发布会,带来了全景智慧旗舰轿车享界S9、问界新M7Pro和华为novaFlip、MatePadPro12.2英寸、全新MatePadAir、华为毕昇激光打印机X1系列、FreeBuds6i、WATCHFIT3和智慧屏S5Pro等多款全场景智慧新品,从智慧出行、智慧办公到智能穿戴,华为全场景智慧生态持续构建,为消费者带来万物互联的智慧体验。鸿蒙智行:深度赋能,推动智能汽车产业升级华为联合中国汽车产业伙伴,为

分散式人工智慧盛會DAI 2024徵稿:Agent Day,強化學習之父Richard Sutton將出席!顏水成、Sergey Levine以及DeepMind科學家將做主旨報告 分散式人工智慧盛會DAI 2024徵稿:Agent Day,強化學習之父Richard Sutton將出席!顏水成、Sergey Levine以及DeepMind科學家將做主旨報告 Aug 22, 2024 pm 08:02 PM

會議簡介隨著科技的快速發展,人工智慧成為了推動社會進步的重要力量。在這個時代,我們有幸見證並參與分散式人工智慧(DistributedArtificialIntelligence,DAI)的創新與應用。分散式人工智慧是人工智慧領域的重要分支,這幾年引起了越來越多的關注。基於大型語言模型(LLM)的智能體(Agent)異軍突起,透過結合大模型的強大語言理解和生成能力,展現了在自然語言互動、知識推理、任務規劃等方面的巨大潛力。 AIAgent正在接棒大語言模型,成為目前AI圈的熱門話題。 Au

See all articles