首頁 科技週邊 人工智慧 PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

Apr 09, 2023 pm 03:51 PM
模型 研究

近日,一項新研究發佈於PNAS,再次刷新了神經網路的能力。這次神經網路被用來解決了高等數學題,而且還是麻省理工數學課程難度的數學題!

在這項新研究中,研究團隊證明了OpenAI 的Codex 模型可以進行程式合成從而解決大規模的數學問題,並透過小樣本學習自動解決資料集中81%的數學課程問題,並且Codex 在這些任務的表現上達到了人類水平。

PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

原文連結:https://www.pnas.org/doi/10.1073/pnas.2123433119

#這項研究的出現,顛覆了人們普遍認為神經網路無法解決高等數學問題的共識。研究團隊指出,Codex 之所以能做到實現這樣的能力,正是因為團隊進行了一大創新,過去那些不成功的研究只使用了基於文本的預訓練,而此次現身的Codex 神經網路不僅要基於文字進行預訓練,並且還對程式碼進行了微調。

研究的問題資料集選用來自MIT 的六門數學課程和哥倫比亞大學的數學課程,從七門課程中隨機抽取25 個問題:MIT的單變量微積分、多變量微積分、微分方程、機率與統計概論、線性代數和計算機科學數學和哥倫比亞大學的COMS3251 計算線性代數。

同時,研究團隊使用了一個用於評估數學推理的最新高級數學問題基準MATH,用MATH 來檢測OpenAI Codex 的能力,MATH 從6大數學板塊:初級代數,代數,計數和機率,中級代數,數論,和初級微積分中各抽取15個問題。

PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

圖註:研究中使用的課程問題資料集與MATH基準測驗

研究顯示,Codex 解決了問題資料集和MATH 資料集中的265 個問題,其中有213 個是自動解決的。

創新何所在

在Transformer 發布後,基於Transformer 的語言模型在各種自然語言處理(NLP) 任務,包括在零樣本和少樣本語言任務中取得了巨大成功。但因為 Transformer 僅在文字上進行了預訓練,所以這些模型基本上無法解決數學問題,GPT-3就是一個典型例子。

後來,透過小樣本學習(few-shot learning)和思維鏈(Chain-of-thought, CoT) 提示,GPT-3 的數學推理能力得到了提升;然而,在沒有程式碼的情況下,即便有小樣本學習和CoT 提示, GPT-3 在大學層級數學問題和MATH 基準測試中仍然無能為力。

過去關於解數學題的研究,可能在相對簡單的數學層次上有一定成績。舉個例子,基於協同訓練輸出來驗證或預測表達式樹的技術,例如MAWPS 和Math23k,能夠以超過81% 的準確率解決小學級別的數學問題,但是其不能解決高中、奧林匹克數學或大學難度的課程。協同訓練與圖神經網路 (GNN) 結合以預測算術表達式樹,能夠以高達 95% 的準確率解決機器學習中的大學程度問題。但是這項工作也僅限於數字答案,並且產生了過擬合,不能推廣到其他課程。

而這項工作的最大創新點之一就是,不僅對Codex 這種Transformer 模型進行了文字上的預訓練,還在程式碼上進行了微調,使得其可以產生大規模解決數學問題的程式。

PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

#

研究團隊從資料集中隨機選擇不需要輸入影像或證明的問題樣本來進行測試。其中,僅對文本進行預訓練的語言模型 (GPT-3 text-davinci-002) 僅自動解決了課程問題中的18%和 MATH基準測試問題中的25.5%。

相比之下,使用零樣本學習和對文字進行預訓練並在程式碼上進行微調的神經網路(OpenAI Codex code-davinci-002)合成的程式可以自動解決課程問題中的71%和MATH 基準測試問題中的72.2%。

而使用相同的神經網路 Codex 再加上少樣本學習,便可自動解決課程中81%的問題和 MATH 基準測試中81.1%的問題。而其餘模型無法自動解決的19%的課程問題和18.9%的MATH基準問題,最後透過手動提示解決。

小樣本學習方式的補充,則是這項研究的第二大創新點。從上圖可以看出,當零樣本學習無法解答問題時,便會使用(問題,程式碼)對(pair)執行小樣本學習:

1) 使用OpenAI的text-similarity-babbage-001 嵌入引擎嵌入所有問題;

2) 使用嵌入的餘弦相似度從其課程中計算與未解決問題最相似的已解決問題;

3) 將最相似的問題及其對應的程式碼作為小樣本問題的範例。

PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

圖註:4種方式的自動解題率比較

#上圖分別是Codex的零樣本學習、小樣本學習和GPT-3的零樣本學習、小樣本學習4種方式的自動解題率比較。圖上可以看出,橘色條狀所代表的小樣本學習 Codex 在自動解題率上的優秀表現,基本上在每個數學領域上的表現都強於其他3種方式。

這項研究的第三大創新點,便是提供了一條解決數學問題和解釋為何如此解答的管道,下圖展示了MIT 5門數學課程中管道的執行流程。

PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

以18.01 單變數微積分問題為例,給定一個問題和自動產生的前綴“使用SymPy”,Codex 被提示並輸出一個程序。運行程式會產生正確答案的方程式。然後,程式會自動提示再次輸入 Codex,從而產生產生的程式碼解釋。

問題解決之後

除了解決數學問題和解釋答案,Codex 也被用來為每門課程產生新問題。

為了評估生成的問題水平,團隊在參加過這些課程或同水平課程的MIT學生中做了調查,主要是比較機器生成的問題和人工編寫問題的質量和難度。

在MIT的6門課程中,每門選擇5個人工編寫問題和5個模型生成問題混合起來並且隨機呈現。對於 60 個問題中的每一個問題,參與調查的學生都需要回答 3 個調查問題:

1)你認為這個問題是手動寫的還是機器產生的?

2)你認為這個問題適合還是不適合特定課程?

3 ) 在 1(最簡單)和 5(最難)之間,你認為這個問題的難度等級是多少?

PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門

#

在收回的問卷中,學生調查結果總結如下:

  • 機生成和手動編寫的問題難度相似。
  • 人工編寫的問題比機器產生的問題更適合課程。
  • 人工寫的答案很難被辨識錯,而機器產生的問題被學生認為既可能是機器產生的,也可能是人工寫的。

機器產生的問題已經能讓學生無法辨別,說明Codex 在產生新內容方面已達到了人類的表現水準。

但是,模型也有無法解決的問題,例如,如果問題以圖像或其他非文字形式出現,它就無法回答;帶有需要證明的解決方案的問題,或是計算上難以解決的問題,例如分解非常大的質數,模型也無法解決。不過,最後一種問題也不應該出現在任何數學課程作業中,因為就算是真人學生也沒辦法回答。

以上是PNAS最新研究:81%解題率,神經網路 Codex 推開高等數學世界大門的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! Mar 21, 2024 pm 05:21 PM

這篇論文探討了在自動駕駛中,從不同視角(如透視圖和鳥瞰圖)準確檢測物體的問題,特別是如何有效地從透視圖(PV)到鳥瞰圖(BEV)空間轉換特徵,這一轉換是透過視覺轉換(VT)模組實施的。現有的方法大致分為兩種策略:2D到3D和3D到2D轉換。 2D到3D的方法透過預測深度機率來提升密集的2D特徵,但深度預測的固有不確定性,尤其是在遠處區域,可能會引入不準確性。而3D到2D的方法通常使用3D查詢來採樣2D特徵,並透過Transformer學習3D和2D特徵之間對應關係的注意力權重,這增加了計算和部署的

See all articles