目錄
導論
首頁 科技週邊 人工智慧 ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵

ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵

Apr 13, 2023 am 09:07 AM
機器學習

機器學習(ML)已經使我們實踐科學的方式發生了根本性的轉變,許多人現在把從資料中學習作為他們研究的重點。隨著我們想要研究的科學問題的複雜性的增加,以及當今科學實驗產生的數據量的增加,ML正在幫助自動化、加速和增強傳統的工作流程。站在這場革命前沿的是一個被稱為科學機器學習(SciML)的領域。 SciML的中心目標是將現有的科學理解與ML更緊密地結合起來,產生強大的ML演算法,這些演算法由我們的先驗知識提供資訊。

ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵

論文網址:https://ora.ox.ac.uk/objects/uuid:b790477c-771f- 4926-99c6-d2f9d248cb23

#目前存在大量將科學原理納入ML的方法,人們對SciML解決科學中一些最大挑戰的期望越來越高。然而,該領域正在蓬勃發展,許多問題仍在出現。一個主要的問題是SciML方法是否可以擴展到更複雜的現實問題。許多SciML研究正處於概念驗證階段,在這個階段,技術將在簡化的、簡單的問題上進行驗證。然而,了解它們在更複雜的問題上的可擴展性對於它們的廣泛應用至關重要。這個問題就是本文的中心問題。

首先,針對月球科學和地球物理領域的三個複雜的、真實的、特定領域的案例研究設計了多種不同的物理知識機器學習方法,並評估了它們的性能和可擴展性。其次,評估並改進了物理資訊神經網路(一種流行的通用SciML方法)求解具有大區域和高頻解的微分方程的可擴展性。討論了這些研究的共同觀察結果,並確定了顯著的優勢和潛在的限制,突顯了設計可擴展的SciML技術的重要性。

導論

機器學習(ML)在科學領域引起了一場革命。傳統上,科學研究圍繞著理論和實驗:一個人提出一個手工製作的和定義良好的理論,然後使用實驗數據來不斷完善它,並分析它以做出新的預測。但今天,許多人都把從數據中學習當作他們研究的重點。在這裡,世界的模型是透過ML演算法從資料中學習的,現有的理論是不需要的。這種轉變的發生有許多原因。

首先,ML領域在過去十年中經歷了指數級增長,這一激增背後的主要驅動因素通常被歸因於深度學習的突破[Goodfellow et al.,2016]。一些重要的發現,如使用更深層的網路設計和更好的訓練演算法,以及更強大的計算架構的可用性,已經導致深度學習技術在廣泛問題上的性能迅速提高[Dally et al.,2021年] 。現代ML演算法現在能夠學習並解決難以置信的複雜任務,從自動駕駛汽車[Schwarting et al.,2018年]到擊敗世界級圍棋選手[Silver et al.,2018年]。

伴隨著這些進步,今天的科學實驗產生了越來越多的數據,研究越來越複雜的現象 [Baker et al.,2019 , Hey et al., 2020]。人類和我們的傳統工作流程對所有這些數據進行分析和理論化正在迅速變得不可能,不久之後,科學實驗很可能會受到他們從已有數據中提取見解的能力的限制,而不是他們可以收集什麼數據[Baker et al.,2019]。鑑於ML可以提供強大的工具,許多研究人員正在轉向ML來幫助自動化、加速和增強傳統的工作流程。在過去十年中,新的ML演算法和數據可用性的結合導致了一些重大的科學進步。例如,ML已經被用來比以往任何時候都更準確地預測蛋白質結構[Jumper et al.,2021],從神經活動合成語音[anummanchipalli et al.,2019],以及改進量子多體系統的模擬[ Carleo和Troyer, 2017]。事實上,現代的ML演算法現在已經被應用到科學的幾乎每一個方面,這個時代的一個決定性研究問題已經變成:「解決問題X,並將ML應用到它上面」,隨之而來的是有趣且常常令人興奮的結果。

#

然而,儘管有這些進步,但ML,特別是深度學習演算法的各種缺點在ML領域已經具體化。例如,儘管它們能夠學習高度複雜的現象,但深度神經網路通常被視為“黑箱”,人們缺乏對它們如何表示和推理世界的理解。這種不可解釋性是一個關鍵問題,特別是對於需要對網路預測進行論證的安全關鍵應用[Gilpin et al.,2019,Castelvecchi, 2016]。此外,關於如何設計適合特定任務的深度學習演算法,幾乎沒有理論指導。深度神經網路架構的選擇主要是根據經驗進行的,儘管元學習和神經架構搜尋領域開始提供更多自動化的方法[Elsken et al.,2019年,Hospedales et al.,2021年]。最後,儘管深度神經網路表達能力很強,但它們受到訓練資料的限制,在訓練分佈之外通常表現不佳。學習在新任務中表現良好的世界可泛化模型是更通用人工智慧(AI)系統的關鍵特徵,也是ML領域的關鍵突出挑戰[Bengio et al.,2021]。

當在科學問題中使用ML時,研究人員開始遇到這些限制[Ourmazd, 2020, Forde和Paganini, 2019]。鑑於深度神經網路的泛化能力較差,一個關鍵問題是它們是否真正「學習」了科學原理。一個好的科學理論被期望能在實驗數據之外做出新穎且準確的預測,然而深度神經網路在訓練資料之外很難做出準確的預測。即使一個網路可以做出可靠的預測,考慮到它們的不可解釋性,從它們中提取任何有意義的科學見解可能是具有挑戰性的。

另一個主要問題是,許多目前的機器學習工作流程完全用學習的模型取代了傳統的科學模型。雖然這可能很有用,但這些純粹數據驅動的方法「拋棄」了我們大量的先驗科學知識。

重要的一點是,對於許多問題,有一個現有的理論可以建立,而不是從頭開始。在一個傳統上基於明確的理論和實驗之間緊密相互作用的領域,有些人認為上述限制使目前的ML方法不可接受。這些擔憂促使形成了一個快速發展的新領域,稱為科學機器學習(SciML) [Baker et al., 2019, Karniadakis et al., 2021, Willard et al., 2020, Cuomo et al., 2022, Arridge et al., 2019, Karpatne et al., 2017a]。 SciML的目標是將現有的科學知識和ML融合在一起,產生更細微的ML演算法,這些演算法由我們的先驗知識提供信息,如圖1.1所示。這一領域的關鍵論點是,透過這樣做,我們最終將獲得更強大的科學研究方法。傳統方法和ML方法各有優缺點,兩者的組合可能比其中一種更有效。例如,在進行資料同化時(例如在氣候模型中),可以使用傳統物理模型提供先驗知識,而ML可用於解釋資料依賴性和其他未知物理。

ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵

圖1.1:科學機器學習(SciML)概述。 SciML旨在將ML與科學知識緊密結合,以便為科學研究產生更強大、穩健和可解釋的ML方法。

人們對這一領域的期望正在迅速增長,目前正在提出和研究大量的方法和許多創新策略,以將科學知識融入ML。這些方法的範圍從預期的科學任務(例如模擬、反演和控制方程式發現),到不同的方法來合併科學原理(例如透過深度神經網路的架構、其損失函數和混合模型的使用),以及科學原理被強加的程度(例如透過硬約束或軟約束)。我們將在第2章中詳細回顧這些方法。許多方法使用來自物理學的想法來通知其在SciML的子領域稱為物理資訊機器學習(PIML)的ML演算法[Karniadakis等人,2021]。

#

到目前為止,SciML 取得了一些初步的成功。它幫助我們進行了強大的模擬[Raissi al.,2019],發現了複雜物理系統的控制方程式[Kutz和Brunton, 2022],在反演問題中精確地反演基礎參數[Arridge等人,2019] ,並在廣泛的領域中無縫地將傳統工作流程與學習過的組件[Rackauckas等人,2020,Thuerey等人,2021]。儘管有早期的希望,但SciML領域仍處於起步階段,出現了許多重要的問題,例如;我們應該如何實施科學原則?我們應該如何平衡數據驅動模型的可解釋性的缺乏和現有理論的清晰性?是否存在可以跨科學學科應用的總括的SciML技術?SciML能否為ML領域提供新的視角和思路?對於復雜的現實世界問題,SciML技術的擴展性有多好?本文主要研究最後一個問題,具體討論如下。

在本文中,我們主要採用兩種方法來研究上述子問題。首先,針對前3個子問題,使用複雜的、真實的、特定領域的案例研究來考察多種不同的PIML方法的性能和可擴展性。對於每個子問題,我們提出了一個案例研究,提出了一種PIML技術(或各種PIML技術)來解決它,並評估該技術如何擴展到這種設定。其次,針對最後一個子問題,我們專注於單一通用的PIML技術,並評估和改進其可擴充性。前三個子問題分別在本論文的單獨一章(分別為第3 ~ 5章)中進行研究,其案例研究均來自月球科學和地球物理學領域。最後一個子問題將在第6章進行研究。最後,我們在第七章中討論和總結了每一章對我們主要研究問題的影響。

SciML方法譜系。這張圖顯示了本章中介紹的不同類型的SciML方法對科學知識的「強」程度。請注意,科學約束的強度是一個相當模糊的概念;在這個圖中,我們將其定義為SciML方法與傳統工作流的接近程度。中間的方法同樣將ML與傳統工作流程的某些方面結合起來,例如在循環方法中,將傳統迭代求解器與ML模型交織在一起。此外,我們的作業有些主觀,所以這個數字只是為了表達整體趨勢。

ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵

ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵

ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵

#

以上是ML如何做科學發現?牛津大學268頁博士論文詳述科學機器學習內涵的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

15個值得推薦的開源免費圖片標註工具 15個值得推薦的開源免費圖片標註工具 Mar 28, 2024 pm 01:21 PM

圖像標註是將標籤或描述性資訊與圖像相關聯的過程,以賦予圖像內容更深層的含義和解釋。這個過程對於機器學習至關重要,它有助於訓練視覺模型以更準確地識別圖像中的各個元素。透過為圖像添加標註,使得電腦能夠理解圖像背後的語義和上下文,從而提高對圖像內容的理解和分析能力。影像標註的應用範圍廣泛,涵蓋了許多領域,如電腦視覺、自然語言處理和圖視覺模型具有廣泛的應用領域,例如,輔助車輛識別道路上的障礙物,幫助疾病的檢測和診斷透過醫學影像識別。本文主要推薦一些較好的開源免費的圖片標註工具。 1.Makesens

一文帶您了解SHAP:機器學習的模型解釋 一文帶您了解SHAP:機器學習的模型解釋 Jun 01, 2024 am 10:58 AM

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

通透!機器學習各大模型原理的深度剖析! 通透!機器學習各大模型原理的深度剖析! Apr 12, 2024 pm 05:55 PM

通俗來說,機器學習模型是一種數學函數,它能夠將輸入資料映射到預測輸出。更具體地說,機器學習模型是一種透過學習訓練數據,來調整模型參數,以最小化預測輸出與真實標籤之間的誤差的數學函數。在機器學習中存在多種模型,例如邏輯迴歸模型、決策樹模型、支援向量機模型等,每種模型都有其適用的資料類型和問題類型。同時,不同模型之間存在著許多共通性,或者說有一條隱藏的模型演化的路徑。將聯結主義的感知機為例,透過增加感知機的隱藏層數量,我們可以將其轉化為深度神經網路。而對感知機加入核函數的話就可以轉換為SVM。這一

透過學習曲線辨識過擬合和欠擬合 透過學習曲線辨識過擬合和欠擬合 Apr 29, 2024 pm 06:50 PM

本文將介紹如何透過學習曲線來有效辨識機器學習模型中的過度擬合和欠擬合。欠擬合和過擬合1、過擬合如果一個模型對資料進行了過度訓練,以至於它從中學習了噪聲,那麼這個模型就被稱為過擬合。過度擬合模型非常完美地學習了每一個例子,所以它會錯誤地分類一個看不見的/新的例子。對於一個過度擬合的模型,我們會得到一個完美/接近完美的訓練集分數和一個糟糕的驗證集/測試分數。略有修改:"過擬合的原因:用一個複雜的模型來解決一個簡單的問題,從資料中提取雜訊。因為小資料集作為訓練集可能無法代表所有資料的正確表示。"2、欠擬合如

人工智慧在太空探索和人居工程中的演變 人工智慧在太空探索和人居工程中的演變 Apr 29, 2024 pm 03:25 PM

1950年代,人工智慧(AI)誕生。當時研究人員發現機器可以執行類似人類的任務,例如思考。後來,在1960年代,美國國防部資助了人工智慧,並建立了實驗室進行進一步開發。研究人員發現人工智慧在許多領域都有用武之地,例如太空探索和極端環境中的生存。太空探索是對宇宙的研究,宇宙涵蓋了地球以外的整個宇宙空間。太空被歸類為極端環境,因為它的條件與地球不同。要在太空中生存,必須考慮許多因素,並採取預防措施。科學家和研究人員認為,探索太空並了解一切事物的現狀有助於理解宇宙的運作方式,並為潛在的環境危機

使用C++實現機器學習演算法:常見挑戰及解決方案 使用C++實現機器學習演算法:常見挑戰及解決方案 Jun 03, 2024 pm 01:25 PM

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

可解釋性人工智慧:解釋複雜的AI/ML模型 可解釋性人工智慧:解釋複雜的AI/ML模型 Jun 03, 2024 pm 10:08 PM

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 May 30, 2024 pm 01:24 PM

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,

See all articles