目錄
恰到好處的故事
演化觀點
一個建議
首頁 科技週邊 人工智慧 SGD 的光輝,帶來深度學習的意義

SGD 的光輝,帶來深度學習的意義

Oct 16, 2023 am 08:21 AM
機器學習 深度學習

SGD 的光辉,带来深度学习的意义

大數據摘要出品

7月份,紐約大學(NYU)博士後Naomi Saphra撰寫了一篇題為“Interpretability Creationism”,從進化論的角度解釋了隨機梯度下降(SGD)與深度學習的關係,解讀視角發人深省。

例如:「就像人類尾骨一樣,有些現像在模型訓練過程中可能已經失​​去了原來的作用,變成了類似退化器官的存在。」

「無論是在研究寄生育雛行為還是神經網路的內部表現,如果不考慮系統是如何發展的,就很難分辨哪些是有價值資訊。」

以下是原文,文摘菌做了不改變原意的編譯,請欣賞。

SGD 的光辉,带来深度学习的意义

幾個世紀前,歐洲人布穀鳥蛋出現在鳥巢中是築巢鳥的榮譽。因為,築巢鳥熱情地餵養她的“神聖客人”,甚至比餵養自己的(被驅逐的)雛鳥還要賣力,築巢鳥的這種行為符合基督教熱情好客的精神。

1859年,查爾斯·達爾文研究了另一種偶爾寄生的雀科鳥類——雀鳥,從而質疑了鳥類行為的樂觀、合作觀念。

SGD 的光辉,带来深度学习的意义

如果不從進化論角度考慮布穀鳥的角色,人們很難認識到築巢鳥不是布穀鳥幼鳥的慷慨主人,而是一個不幸的受害者。

正如演化生物學家Theodosius Dobzhansky所言:「沒有演化的光輝,生物學中的一切都無法理解。」

雖然隨機梯度下降並不是生物演化的真正形式,但機器學習中的事後分析與生物學的科學方法有許多相似之處,這通常需要理解模型行為的起源。

無論是在研究寄生育雛行為或神經網路的內在表現,如果不考慮系統是如何發展的,就很難分辨哪些是有價值資訊。

因此,在分析模型時,不僅要關注訓練結束時的狀態,還要關注訓練過程中的多個中間檢查點。這樣的實驗開銷很小,但可能帶來有意義的發現,有助於更好地理解和解釋模型的行為。

恰到好處的故事

人類是因果思考者,喜歡尋找事物之間的因果關係,即使可能缺乏科學依據。

在NLP領域,研究者也傾向於為觀察到的行為提供一種可解釋的因果解釋,但這種解釋可能並沒有真正揭示模型的內部工作原理。例如,人們可能會高度關注句法注意力分佈或選擇性神經元等可解釋性工件,但實際上我們並不能確定模型是否真的在使用這些行為模式。

為了解決這個問題,因果建模可以提供幫助。當我們嘗試透過介入(修改或操作)模型的某些特徵和模式來測試它們對模型行為的影響時,這種介入可能只針對某些明顯的、特定類型的行為。換句話說,在嘗試理解模型如何使用特定特徵和模式時,我們可能只能觀察其中一部分行為,而忽略了其他潛在的、不太明顯的行為。

因此,在實踐中,我們可能只能對錶示中的特定單元進行某些類型的輕微幹預,無法正確反映特徵之間的相互作用。

在嘗試透過介入(修改或操作)模型的某些特徵和模式來測試它們對模型行為的影響時,我們可能會引入分佈偏移。顯著的分佈偏移可能導致不穩定的行為,那麼為什麼不會導致偽造的可解釋性工件呢?

譯者註:分佈偏移指的是模型在訓練資料上建立的統計規律與介入後資料之間的差異。這種差異可能導致模型無法適應新的數據分佈,從而表現出不穩定的行為。

幸運的是,研究生物演化的方法可以幫助我們理解模型中產生的一些現象。就像人類尾骨一樣,有些現像在模型訓練過程中可能已經失​​去了原來的作用,變成了類似退化器官的存在。有些現象可能存在相互依賴的關係,例如,在訓練早期出現的某些特徵可能影響了後續其他特徵的發展,就像動物在發展複雜的眼睛之前,需要先有基本的光感應能力。

還有一些現象可能是由於特徵之間的競爭導致的,例如,具有強大嗅覺能力的動物可能不太依賴視覺,因此視覺方面的能力可能會減弱。另外,有些現象可能只是訓練過程中的副作用,類似我們基因組中的垃圾DNA,它們佔據了基因組的很大一部分,但不會直接影響我們的外觀和功能。

在訓練模型的過程中,有些未使用的現象可能會出現,我們有很多理論來解釋這種現象。例如,資訊瓶頸假說預測,在訓練早期,輸入資訊會被記憶下來,然後在模型中進行壓縮,只保留與輸出相關的資訊。這些早期記憶在處理未見過的資料時可能並不總是有用,但它們對於最終學習到特定輸出表示是非常重要的。

我們也可以考慮到退化特徵的可能性,因為訓練模型的早期和後期行為是很不一樣的。早期的模型更簡單。以語言模型為例,早期的模型類似簡單的n-gram模型,而後期模型則能表現出更複雜的語言模式。這種訓練過程中的混合可能會產生一些副作用,而這些副作用很容易被誤認為是訓練模型的關鍵部分。

演化觀點

僅根據訓練結束後的特徵來理解模型的學習傾向是非常困難的。根據Lovering等人的研究成果,觀察訓練開始時特徵提取的容易程度以及對微調資料的分析,對於理解微調表現的影響比僅僅在訓練結束時進行的分析要深入得多。

語言分層行為是一個典型的基於分析靜態模型的解釋。有人認為在句子結構中位置靠近的單字在模型中的表示會更接近,而與結構上較遠的單字表示相距較遠。那麼,我們如何知道模型是透過按照句子結構上的接近程度來分組呢?

實際上,我們可以更有把握地說,某些語言模型是分層的,因為早期模型在長短時記憶網絡(LSTM)和Transformer中編碼了更多的局部信息,並且當當這些依賴關係可以分層地堆疊在熟悉的短成分上時,它們更容易學習更遠距離的依賴關係。

處理解釋性創造主義問題時遇到了一個實際案例。使用不同的隨機種子多次訓練文字分類器時,可以觀察到模型分佈在多個不同的簇中。也發現,可以透過觀察模型在損失表面上與其他模型的連接情況來預測模型的泛化行為。換句話說,根據損失表面上的位置,模型的泛化性能可能會有所不同。這種現象可能與訓練過程中使用的隨機種子有關。

但真的可以這麼說嗎?如果一個簇實際上對應於模型的早期階段呢?如果一個簇實際上只是表示了模型的早期階段,那麼最終這些模型可能會轉向具有更好泛化性能的簇。因此,在這種情況下,觀察到的現像只表示一些微調過程比其他過程慢。

需要證明訓練軌跡可能會陷入損失表面上的一個盆地(basin),從而解釋訓練模型中泛化行為的多樣性。實際上,在檢查了訓練過程中的幾個檢查點後,發現位於簇中心的模型會在訓練過程中與其簇中的其他模型建立更強的連結。然而,有些模型還是能夠成功地轉向一個更好的簇。

SGD 的光辉,带来深度学习的意义

一個建議

對於研究問題的回答,只觀察訓練過程是不夠的。在尋求因果關係時,需要介入。以生物學中關於抗生素抗藥性的研究為例,研究人員需要故意將細菌暴露於抗生素,而不能依賴自然實驗。因此,基於訓練動態的觀察所做的聲明(statement),需要實驗證實。

並非所有宣告都需要觀察訓練過程。在古代人類看來,許多器官都有明顯的功能,如眼睛用於看東西,心臟用於泵血等。在自然語言處理(NLP)領域中,透過分析靜態模型,我們可以做出簡單的解讀,例如特定神經元在特定屬性存在時會激活,或某些類型的信息在模型中仍然可取得。

然而,訓練過程的觀察仍然可以弄清楚許多在靜態模型中進行的觀察的含義。這意味著,儘管不是所有問題都需要觀察訓練過程,但在許多情況下,了解訓練過程對於理解觀察結果是有幫助的。

建議很簡單:在研究和分析訓練模型時,不要只專注於訓練過程中的最終結果。相反,分析應該應用於訓練過程中的多個中間檢查點;在微調模型時,要檢查訓練早期和晚期的幾個點。在訓練過程中觀察模型行為的變化非常重要,這可以幫助研究人員更好地理解模型策略是否合理,並在觀察到訓練早期發生的情況後對模型策略進行評估。

參考連結:https://thegradient.pub/interpretability-creationism/

以上是SGD 的光輝,帶來深度學習的意義的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

一文帶您了解SHAP:機器學習的模型解釋 一文帶您了解SHAP:機器學習的模型解釋 Jun 01, 2024 am 10:58 AM

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

超越ORB-SLAM3! SL-SLAM:低光、嚴重抖動和弱紋理場景全搞定 超越ORB-SLAM3! SL-SLAM:低光、嚴重抖動和弱紋理場景全搞定 May 30, 2024 am 09:35 AM

寫在前面今天我們探討下深度學習技術如何改善在複雜環境中基於視覺的SLAM(同時定位與地圖建構)表現。透過將深度特徵提取和深度匹配方法相結合,這裡介紹了一種多功能的混合視覺SLAM系統,旨在提高在諸如低光條件、動態光照、弱紋理區域和嚴重抖動等挑戰性場景中的適應性。我們的系統支援多種模式,包括拓展單目、立體、單目-慣性以及立體-慣性配置。除此之外,也分析如何將視覺SLAM與深度學習方法結合,以啟發其他研究。透過在公共資料集和自採樣資料上的廣泛實驗,展示了SL-SLAM在定位精度和追蹤魯棒性方面優

透過學習曲線辨識過擬合和欠擬合 透過學習曲線辨識過擬合和欠擬合 Apr 29, 2024 pm 06:50 PM

本文將介紹如何透過學習曲線來有效辨識機器學習模型中的過度擬合和欠擬合。欠擬合和過擬合1、過擬合如果一個模型對資料進行了過度訓練,以至於它從中學習了噪聲,那麼這個模型就被稱為過擬合。過度擬合模型非常完美地學習了每一個例子,所以它會錯誤地分類一個看不見的/新的例子。對於一個過度擬合的模型,我們會得到一個完美/接近完美的訓練集分數和一個糟糕的驗證集/測試分數。略有修改:"過擬合的原因:用一個複雜的模型來解決一個簡單的問題,從資料中提取雜訊。因為小資料集作為訓練集可能無法代表所有資料的正確表示。"2、欠擬合如

人工智慧在太空探索和人居工程中的演變 人工智慧在太空探索和人居工程中的演變 Apr 29, 2024 pm 03:25 PM

1950年代,人工智慧(AI)誕生。當時研究人員發現機器可以執行類似人類的任務,例如思考。後來,在1960年代,美國國防部資助了人工智慧,並建立了實驗室進行進一步開發。研究人員發現人工智慧在許多領域都有用武之地,例如太空探索和極端環境中的生存。太空探索是對宇宙的研究,宇宙涵蓋了地球以外的整個宇宙空間。太空被歸類為極端環境,因為它的條件與地球不同。要在太空中生存,必須考慮許多因素,並採取預防措施。科學家和研究人員認為,探索太空並了解一切事物的現狀有助於理解宇宙的運作方式,並為潛在的環境危機

使用C++實現機器學習演算法:常見挑戰及解決方案 使用C++實現機器學習演算法:常見挑戰及解決方案 Jun 03, 2024 pm 01:25 PM

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

可解釋性人工智慧:解釋複雜的AI/ML模型 可解釋性人工智慧:解釋複雜的AI/ML模型 Jun 03, 2024 pm 10:08 PM

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 May 30, 2024 pm 01:24 PM

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

See all articles