目錄
1、GPT:不鳴則已,一鳴驚人
2、全面通過圖靈測試學習和商用門檻降低
3、殊道同歸:模擬人腦或來得更快
參考連結:
首頁 科技週邊 人工智慧 GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

Apr 14, 2023 pm 06:58 PM
參數 gpt4 人腦

作者 | 徐傑承

審校 | 雲昭

#100萬億,這個數字究竟有多大?假如你擁有每天都能中500萬彩票的超能力,那麼在不吃不喝存下所有錢的情況下,你還需要擁有約5500年的壽命,才能夠攢下100萬億的財產。然而,今天想要和大家聊的這100萬億,背後並不是「RMB」、「Dollor」這些令人垂涎的單位。這裡的100萬億,指的是由許多矽谷科技大亨共同創立的人工智慧研究公司OpenAI即將發布的第四代生成式預訓練Transformer——GPT-4所擁有的參數量。

為了方便大家更直覺的理解這個數據,我們可以用人腦與GPT-4做比較。一般情況下,一個正常人類的大腦約有800—1000億個神經元,以及約100兆個突觸。而這些神經元與突觸,幾乎直接控制一個人百年人生中的所有思想、判斷及行為,而GPT-4擁有與人腦突觸一樣多的參數。那麼,如此龐大規模的密集神經網路究竟具備著怎樣的潛力;GPT-4的出現將會為我們的帶來哪些驚喜;我們又是否已經真的具備製造人腦的能力了呢?

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

在探索這些令人興奮的問題之前,我們不妨先來了解GPT-4幾位「前輩」的發展歷史。

1、GPT:不鳴則已,一鳴驚人

#首個GPT系列模型GPT-1誕生於2018年,也就是我們常說的NLP預訓練模型元年。 GPT-1作為第一個基於Transformer的預訓練模型,採取了預訓練FineTuning兩個階段,以Transformer的decoder作為特徵抽取器,共堆疊12層,擁有1.1億參數,預訓練階段則採用「單向語言模型”作為訓練任務。

性能方面,GPT-1有著一定的泛化能力,能夠用於和監督任務無關的NLP任務中。其常用任務包括:

  • 自然語言推理:判斷兩句的關係(包含、矛盾、中立)
  • 問答與常識推理:輸入文章及若干答案,輸出答案的準確率
  • 語意相似度辨識:判斷兩個句子語意是否相關
  • 分類:判斷輸入文字是指定的哪個類別

雖然GPT-1在未經調試的任務上有一些效果,但其泛化能力遠低於經過微調的有監督任務,因此GPT-1只能算得上一個還算不錯的語言理解工具而非對話式AI。

在GPT-1問世一年後,GPT-2也於2019年如期而至。相較於老大哥GPT-1,GPT-2並沒有對原有的網路進行過多的結構創新與設計,只使用了更多的網路參數與更大的資料集:最大模型共48層,參數量達15億,學習目標則使用無監督預訓練模型做有監督任務。

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

圖源:推特

#在效能方面,OpenAI的大力似乎真的帶來了一些奇蹟。除了理解能力外,GPT-2在生成方面第一次展現了強大的天賦:閱讀摘要、聊天、續寫、編故事,甚至產生假新聞、釣魚郵件或在網路上扮演他人通通不在話下。在「變得更大」之後,GPT-2的確展現出了一些列普適而強大的能力,並在多個特定的語言建模任務上實現了彼時的最佳性能。也難怪當時OpenAI曾表示「GPT-2 was too dangerous to release」。

自GPT-2取得成功以來,OpenAI對「大力士教」的信仰愈發堅定,2020年放出的GPT-3繼續沿用微創新、猛擴大的發展思路。除了GPT-3中的Transformer應用了Sparse結構外,GPT-3與GPT-2的結構幾乎沒有差異。而在「大力」方面,GPT-3的模型上到了96層,訓練參數則是達到了1750億個(GPT-2的10倍以上)。

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

#

而GPT-3也再次證明了OpenAI的眼光,由於GPT-3更強的性能和明顯更多的參數,它包含了更多的主題文本,顯然優於前代的GPT-2。作為目前最大的密集神經網絡,GPT-3能夠將網頁描述轉換為相應代碼、模仿人類敘事、創作客製化詩歌、生成遊戲劇本,甚至模仿已故的各位哲學家——預測生命的真諦。而GPT-3不需要微調,在處理文法難題方面,它只需要一些輸出類型的樣本(少量學習)。可以說GPT-3似乎已經滿足了我們對語言專家的一切想像。

2、全面通過圖靈測試學習和商用門檻降低

說到這裡,相信大家一定會有一個相同的疑問——GPT-3已經非常強大了,那GPT-4還有哪些值得我們期待的地方呢?

眾所周知,測試一個AI系統智能性的最核心方式便是圖靈測試,在我們還無法用科學的可量化標準對人類智慧這一概念進行定義時,圖靈測試是目前少數的、可行的、能夠確定對方是否具備人類智慧的測試方法。用一句諺語來說:如果一個東西長的像鴨子,走路像鴨子,叫起來像鴨子,那它就是鴨子。因此,如果AI系統能夠順利通過圖靈測試,那麼就意味著這個系統已具備人類思維並有可能在某些方面取代人類。而根據韓國IT媒體報道,自11月開始,業界已經傳出了GPT-4全面通過了圖靈測試的說法。韓國Vodier AI公司高層南世東在日前接受韓國《經濟新聞》採訪時表示:「雖然GPT-4通過圖靈測試的消息尚未正式確認,但這個消息應該相當可信。」

技術人出身,現任OpenAI CEO的Sam Altman似乎也在其Twitter中證實了這個訊息。 Altman在11月10日模仿電影《星際大戰》中角色達斯維德的經典台詞,發出了一條推文:“不要為你製造的這種技術恐慌感到驕傲。通過圖靈測試的能力在'原力'面前也無能為力」。

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

圖源:推特

#一位AI新創公司的高階主管分析稱「如果GPT-4真的完美通過了圖靈測試,那麼它的影響足以在AI界引發'技術恐慌',因此Altman才會藉由達斯維德的角色來公佈這個信息”。

如果GPT-4在沒有任何限制的情況下通過圖靈測試,這的確將會創造歷史。雖然先前一些AI模型也曾聲稱通過圖靈測試,但都未曾得到AI業界的一致認可。這是由於圖靈測試的標準和規則並不明確,因此許多模型在測試中巧妙地利用了一些「盲點」。英國雷丁大學在2014年推出的AI模型「尤金」就是一個典型的例子,當時雷丁大學對評審聲稱,該模型是一位13歲的烏克蘭男孩,因此當演算法無法給出很好的答案時,評審會認為這是由於受測者是外國兒童的緣故。

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

圖源:網路

#雖然圖靈測試並不是AI技術的絕對參考點,但作為迄今為止最久遠、最廣為人知的AI技術測試,圖靈測試仍有很大的象徵意義。如果GPT-4真的正式且肯定的通過了圖靈測試,那麼它將極有可能創造迄今為止AI界最大的一座里程碑。

除此之外,與GPT-3不同的是,GPT-4將很有可能不隻隻是一個語言模型。 OpenAI首席科學家Ilya Sutskever曾在其撰寫的多模態相關文章中暗示過這一點——「文字本身即可表達關於這個世界的大量信息,但畢竟是不完整的,因為我們也生活在視覺世界之中。」因此,業界部分專家認為GPT-4將會是多模態的,可以接受音頻、文本、圖像甚至是視頻輸入,並預測OpenAI的Whisper的音頻數據集將用於創建GPT-4所需的文字資料。這也意味著GPT-4對於外在訊息的接收與處理將不會再有任何限制。

#

而產業界關注GPT-4的原因,則很有可能是由於GPT-4的實際商用門檻將比傳統GPT-3更低。先前因巨額費用和基礎設施原因而未能使用相關技術的企業也將有望使用GPT-4。目前GPT-4已進入上市的最後階段,將於今年12月至明年2月期間發表。劍橋AI研究公司分析師Alberto Garcia通發表了部落格並預測:「GPT-4將更專注於優化數據處理,因此GPT-4的學習成本預計將低於GPT-3。GPT-4的每集學習成本將可能由GPT-3的數百萬美元將至100萬美元左右」。

3、殊道同歸:模擬人腦或來得更快

#如果以上資訊全部屬實,那麼此刻我們可以預見,隨著GPT-4的發布,明年深度學習研究領域將迎來一輪新的熱潮;各行業中將可能出現大量更加高級、更加自然且幾乎無法辨別其身份真偽的聊天服務機器人;在此基礎上,也將會有更多高品質的個人化AI服務從不同的傳統業務中誕生;我們也將極有可能第一次實現與認知智能的無障礙交流。

再說回開篇提到的製造人腦或說模擬人腦的問題。根據MIT的研究顯示,雖然GPT-3中的神經網路並沒有試圖直接模仿人類大腦,但GPT-3所呈現的語言處理方式與人類大腦進化過程所得到的解決方案存在一定的相似性,當向模型輸入與測試人腦相同的刺激時,模型獲得了與人腦同類型的激活,且在40餘種語言模型測試中,GPT-3幾乎做出了完美的推斷,這些模型的基本功能的確類似人類大腦語言處理中心的功能。對此,史丹佛大學心理學和電腦科學助理教授Daniel Yamins也表示:「人工智慧網路並沒有直接模仿大腦,但最終看起來卻像大腦一樣,這在某種意義上表明,人工智慧和自然之間似乎發生了某種趨同演化」。

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

圖源:網路

#由此可見,雖然GPT系列模型並沒有直接採用藍腦計畫項目中的模擬大腦結構的設計思路,​​但其呈現的效果似乎比藍腦計畫項目更接近我們的期望。因此,如果這項研究方向真的切實可行,且GPT-4能夠在GPT-3的基礎上實現某些方面的跨越性突破,那麼我們距離模擬人腦的部分功能的目標將更進一大步。

最後,我想引用OpenAI CEO Sam Altman近期在Twitter上發表的一段文字作為結尾,而這段話也得到了「矽谷鋼鐵人」Elon Musk的認可—— 「通用人工智慧的建立會比大多數人想像的更快,並且它會通過很長的時間來『改變』大多數人想像中的一切」。

GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!

圖片來源:推特

參考連結:

https:/ /dzone.com/articles/what-c​​an-you-do-with-the-openai-gpt-3-language-mod

https://analyticsindiamag.com/gpt-4-is-almost- here-and-it-looks-better-than-anything-else/

https://analyticsindiamag.com/openais-whisper-might-hold-the-key-to-gpt4/

以上是GPT4發佈在即堪比人腦,多位圈內大佬坐不住了!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

<🎜>:泡泡膠模擬器無窮大 - 如何獲取和使用皇家鑰匙
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系統,解釋
3 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1664
14
CakePHP 教程
1423
52
Laravel 教程
1319
25
PHP教程
1269
29
C# 教程
1249
24
PHP 5.4版本新功能:如何使用callable類型提示參數接受可呼叫的函數或方法 PHP 5.4版本新功能:如何使用callable類型提示參數接受可呼叫的函數或方法 Jul 29, 2023 pm 09:19 PM

PHP5.4版本新功能:如何使用callable類型提示參數接受可呼叫的函數或方法引言:PHP5.4版本引入了一個非常便利的新功能-可以使用callable類型提示參數來接受可呼叫的函數或方法。這個新功能使得函數和方法可以直接指定對應的可呼叫參數,而無需進行額外的檢查和轉換。在本文中,我們將介紹callable類型提示的使用方法,並提供一些程式碼範例,

產品參數是什麼意思 產品參數是什麼意思 Jul 05, 2023 am 11:13 AM

產品參數是指產品屬性的意思。例如服裝參數有品牌、材質、型號、大小、風格、布料、適應人群和顏色等;食品參數有品牌、重量、材質、衛生許可證號碼、適應人群和顏色等;家電參數有品牌、尺寸、顏色、產地、適應電壓、訊號、介面和功率等。

C++ 函式參數型別安全檢查 C++ 函式參數型別安全檢查 Apr 19, 2024 pm 12:00 PM

C++參數類型安全檢查透過編譯時檢查、執行時間檢查和靜態斷言確保函數只接受預期類型的值,防止意外行為和程式崩潰:編譯時類型檢查:編譯器檢查類型相容性。運行時類型檢查:使用dynamic_cast檢查類型相容性,不符則拋出異常。靜態斷言:在編譯時對型別條件進行斷言。

PHP Warning: in_array() expects parameter的解決方法 PHP Warning: in_array() expects parameter的解決方法 Jun 22, 2023 pm 11:52 PM

在開發過程中,我們可能會遇到這樣一個錯誤提示:PHPWarning:in_array()expectsparameter。這個錯誤提示會在使用in_array()函數時出現,有可能是因為函數的參數傳遞不正確所導致的。以下我們來看看這個錯誤提示的解決方法。首先,需要明確in_array()函數的作用:檢查一個值是否在陣列中存在。此函數的原型為:in_a

C++程式以給定值為參數,找出雙曲正弦反函數的值 C++程式以給定值為參數,找出雙曲正弦反函數的值 Sep 17, 2023 am 10:49 AM

雙曲函數是使用雙曲線而不是圓定義的,與普通三角函數相當。它從提供的弧度角傳回雙曲正弦函數中的比率參數。但要做相反的事,或者換句話說。如果我們想要根據雙曲正弦值計算角度,我們需要像雙曲反正弦運算一樣的反雙曲三角運算。本課程將示範如何使用C++中的雙曲反正弦(asinh)函數,並使用雙曲正弦值(以弧度為單位)計算角度。雙曲反正弦運算遵循下列公式-$$\mathrm{sinh^{-1}x\:=\:In(x\:+\:\sqrt{x^2\:+\:1})},其中\:In\:是\:自然對數\:(log_e\:k)

i9-12900H參數評測大全 i9-12900H參數評測大全 Feb 23, 2024 am 09:25 AM

i9-12900H是14核心的處理器,使用的架構和工藝都是全新的,線程也很高,整體的工作都是很優秀的,一些參數都有提升特別的全面,是可以給用戶們帶來極佳體驗的。 i9-12900H參數評測大全評測:1、i9-12900H是14核心的處理器,採用了q1架構以及24576kb的製程工藝,提升到了20個執行緒。 2.最大的CPU頻率是1.80!5.00ghz,整體主要取決於工作的負載。 3.相比較價位來說還是特別合適的,性價比很不錯,對於一些需要正常使用的伙伴來說非常的合適。 i9-12900H參數評測大全性能跑分

100億參數的語言模型跑不動? MIT華人博士提出SmoothQuant量化,記憶體需求直降一半,速度提升1.56倍! 100億參數的語言模型跑不動? MIT華人博士提出SmoothQuant量化,記憶體需求直降一半,速度提升1.56倍! Apr 13, 2023 am 09:31 AM

大型語言模型(LLM)雖然性能強勁,但動輒幾百上千億的參數量,對計算設備還是內存的需求量之大,都不是一般公司能承受得住的。量化(Quantization)是常見的壓縮操作,透過降低模型權重的精度(如32bit降為8bit),犧牲一部分模型的效能來換取更快的推理速度,更少的記憶體需求。但對於超過1000億參數量的LLM來說,現有的壓縮方法都無法維持模型的準確率,也無法在硬體上有效率地運作。最近,麻省理工學院和英偉達的研究人員聯合提出了一個通用後訓練的量化(GPQ, general-purpose po

開源模型首勝GPT-4!競技場最新戰報引熱議,Karpathy:這是我唯二信任的榜單 開源模型首勝GPT-4!競技場最新戰報引熱議,Karpathy:這是我唯二信任的榜單 Apr 10, 2024 pm 03:16 PM

能打得過GPT-4的開源模型出現了!大模型競技場最新戰報:1040億參數開源模型CommandR+攀升至第6位,與GPT-4-0314打成平手,超過了GPT-4-0613。圖片這也是第一個在大模型競技場上擊敗GPT-4的開放權重模型。大模型競技場,可是大神Karpathy口中唯二信任的測試基準之一。圖片CommandR+來自AI獨角獸Cohere。這家大模型新創公司的共同創辦人兼CEO,正是Transformer最年輕作者AidanGomez(簡稱割麥子)。圖片這份戰報一出,又掀起了一波大模型社

See all articles