果然,能打敗昨天的OpenAI的,只有今天的OpenAI。
剛剛,OpenAI震撼發布了大型多模態模型GPT-4,支援圖像和文字的輸入,並產生文字結果。
號稱史上最先進的AI系統!
GPT-4不僅有了眼睛可以看懂圖片,而且在各大考試包括GRE幾乎取得了滿分成績,橫掃各種benchmark,性能指標爆棚。
OpenAI 花了6 個月的時間使用對抗性測試程序和ChatGPT 的經驗教訓對GPT-4 進行迭代調整,從而在真實性、可控性等方面取得了有史以來最好的結果。
大家都還記得,2月初時微軟和谷歌鏖戰三天,2月8日微軟發布ChatGPT必應時,說法是必應「基於類ChatGPT技術」。
今天,謎底終於解開了--它背後的大模型,就是GPT-4!
圖靈獎三巨頭之一Geoffrey Hinton對此讚歎不已,「毛蟲吸取了營養後,就會化繭為蝶。而人類提取了數十億個理解的金塊,GPT-4,就是人類的蝴蝶。」
順便提一句,ChatGPT Plus用戶現在可以先上手了。
在隨意談話中,GPT-3.5和GPT-4之間的差異是很微妙的。只有當任務的複雜性達到足夠的閾值時,差異就出現了,GPT-4比GPT-3.5 更可靠、更有創意,並且能夠處理更細微的指令。
為了了解這兩種模型之間的差異,OpenAI在各種基準測試和一些為人類設計的模擬考試上進行了測試。
GPT-4在各種考試中,有幾個測試幾乎接近了滿分:
#以美國BAR律師執照統考為例,GPT3.5可以達到10%水平,GPT4可以達到90%水平。生物奧林匹克競賽從GPT3.5的31%水平,直接飆升到 99%水平。
此外,OpenAI 也在為機器學習模型設計的傳統基準上評估了 GPT-4。從實驗結果來看,GPT-4 大大優於現有的大型語言模型,以及大多數SOTA 模型:
另外,GPT-4在不同語種上的能力表現:中文的準確度大概在80% 左右,已經要優於GPT-3.5的英文表現了。
許多現有的 ML 基準測試都是用英文寫的。為了初步了解GPT-4其他語言的能力,研究人員使用 Azure翻譯將 MMLU 基準(一套涵蓋57個主題的14,000個多項選擇題)翻譯成多種語言。
在測驗的26 種語言的24 種語言中,GPT-4 優於GPT-3.5 和其他大語言模型(Chinchilla、PaLM)的英語語言表現:
OpenAI表示在內部使用 GPT-4,因此也關注大型語言模型在內容生成、銷售和程式設計等方面的應用效果。另外,內部人員也使用它來幫助人類評估人工智慧輸出。
對此,李飛飛高徒、英偉達AI科學家Jim Fan點評:「GPT-4最強的其實就是推理能力。它在GRE、SAT、法學院考試上的得分,幾乎和人類考生沒有區別。也就是說,GPT-4可以全靠自己考進斯坦福了。」
(Jim Fan自己就是史丹佛畢業的!)
網友:完了,GPT-4一發布,就不需要我們人類了…
GPT-4此次升級的亮點,當然就是多模態。
GPT-4不僅能分析總結圖文圖標,甚至還能讀懂梗圖,解釋梗在哪裡,為什麼好笑。從這個意義上說,它甚至能秒殺許多人類。
OpenAI稱,GPT-4比以往模型都更具創意和協作性。它可以產生、編輯和迭代用戶進行創意和技術寫作任務,例如創作歌曲、編寫劇本或學習用戶的寫作風格。
GPT-4可以將圖像作為輸入,並產生標題、分類和分析。例如給它一張食材圖,問它用這些食材能做什麼。
#另外,GPT-4能夠處理超過25,000字的文本,允許以長形式的內容建立、擴展會話、文件搜尋和分析。
GPT-4在其先進的推理能力方面超過了ChatGPT。如下:
例如,給它看一張奇怪的梗圖,然後問圖中搞笑在哪裡。
GPT-4拿到之後,會先分析一波圖片的內容,然後給答案。
例如,逐圖分析下面這個。
GPT-4立刻反應過來:圖裡的這個「Lighting充電線」,看起來就是個又大又過氣的VGA接口,插在這個又小又現代的智慧型手機上,反差強烈。
再給這麼一個梗圖,問GPT-4梗在哪裡?
它流利地回答:這個梗搞笑的地方在於「圖文不符」。
文字明明說是從太空拍攝的地球照片,然而,圖裡其實只是一堆排列起來像地圖的雞塊。
GPT-4還能看懂漫畫:為什麼要給神經網路加層數?
它一針見血地點出,這副漫畫諷刺了統計學習和神經網路在提高模型性能方法上的差異。
#喬治亞和西亞的平均每日肉類消費量總和是多少?在給出答案前,請提供循序漸進的推理。
果然,GPT-4清楚地列出了自己的解題步驟—
1. 確定喬治亞的平均每日肉類消費量。
2. 決定西亞的平均每日肉類消費量。
3. 新增步驟1和2中的值。
要求GPT-4解出巴黎綜合理工科的物理題,測輻射熱計的輻射偵測原理。值得注意的是,這還是一道法語題。
GPT-4開始解題:要回答問題I.1.a,我們需要每個點的溫度T(x),以導電棒的橫座標x表示。
接著解題過程全程高能。
你以為這就是GPT-4能力的全部?
老闆Greg Brockman直接上線進行了演示,透過這個影片你可以很直觀的感受到 GPT-4的能力。
最驚人的是,GPT-4對程式碼的超強的理解能力,幫你產生程式碼。
Greg直接在紙上畫了一個潦草的示意圖,拍個照,發給 GPT說,給我按照這個佈局寫網頁代碼,就寫出來了。
另外,如果運行出錯了把錯誤訊息,甚至錯誤訊息截圖,丟給GPT-4都能幫你給出相應的提示。
網友直呼:GPT-4發表會,手把手教你怎麼取代程式設計師。
順便提一句,用GPT-4還可以進行報稅 。要知道,每年美國人要花好多時間金錢在報稅上面。
和先前的GPT模型一樣,GPT-4基礎模型的訓練使用的是公開的網路數據以及OpenAI授權的數據,目的是為了預測文檔中的下一個字。
這些資料是一個基於互聯網的語料庫,其中包括對數學問題的正確/錯誤的解決方案,薄弱/強大的推理,自相矛盾/一致的聲明,足以代表了大量的意識形態和想法。
當使用者給予提示提問時,基礎模型可以做出各種各樣的反應,然而答案可能與使用者的意圖相差甚遠。
因此,為了使其與使用者的意圖保持一致,OpenAI使用基於人類回饋的強化學習(RLHF)對模型的行為進行了微調。
不過,模型的能力似乎主要來自於預訓練過程,RLHF並不能提高考試成績(如果不主動進行強化,它實際上會降低考試成績)。
基礎模型需要提示工程,才能知道它應該回答問題,所以說,對模型的引導主要來自於訓練後的過程。
GPT-4模型的一大重點是建立了一個可預測擴展的深度學習堆疊。因為對於像GPT-4這樣的大型訓練,進行廣泛的特定模型調整是不可行的。
因此,OpenAI團隊開發了基礎設施和最佳化,在多種規模下都有可預測的行為。
為了驗證這種可擴展性,研究人員提前準確地預測了GPT-4在內部程式碼庫(不屬於訓練集)上的最終損失,方法是透過使用相同的方法訓練的模型進行推斷,但使用的計算量為1/10000。
現在,OpenAI 可以準確地預測在訓練過程中最佳化的指標損失。例如從計算量為1/1000的模型中推斷並成功地預測了HumanEval資料集的一個子集的通過率:
還有些能力仍然難以預測。例如,Inverse Scaling競賽旨在找到一個隨著模型計算量的增加而變得更糟的指標,而 hindsight neglect任務是獲勝者之一。但是GPT-4 扭轉了這一趨勢:
OpenAI認為能夠準確預測未來的機器學習能力對於技術安全來說至關重要,但它並沒有得到足夠的重視。
而現在,OpenAI正在投入更多精力開發相關方法,並呼籲業界共同努力。
貢獻名單
就在GPT-4發布的同時,Open AI也公開了GPT-4這份組織架構及人員清單。
上下滑動以查看全部
######################## ############北大陳寶權教授稱,######
再好看的電影,最後的演員名單也不會有人從頭看到尾。 Open AI的這台戲連這個也不走尋常路。毫無疑問這將是一份不僅最被人閱讀,也被人仔細研究的「演職員」(貢獻者) 名單,而最大的看頭,是詳細的貢獻分類,幾乎就是一個粗略的部門設置架構了。
這個很「大膽」的公開其實意義挺深遠的,體現了Open AI背後的核心理念,也一定程度預示了未來進步的走向。
以上是GPT-4王者加冕!讀圖做題性能炸天,憑自己就能考上史丹佛的詳細內容。更多資訊請關注PHP中文網其他相關文章!