單機訓練200億參數大模型:Cerebras打破新紀錄
本週,晶片新創公司 Cerebras 宣布了一個里程碑式的新進展:在單一運算設備中訓練了超過百億參數的 NLP(自然語言處理)人工智慧模型。
由 Cerebras 訓練的 AI 模型體量達到了前所未有的 200 億參數,所有這些都無需橫跨多個加速器擴展工作負載。這項工作足以滿足目前網路上最火的文本到圖像 AI 生成模型——OpenAI 的 120 億參數大模型 DALL-E。
Cerebras 新工作中最重要的一點是對基礎設施和軟體複雜性的要求降低了。這家公司提供的晶片Wafer Scale Engine-2(WSE2)顧名思義,蝕刻在單台積電7 nm 製程的整塊晶圓上,該面積通常足以容納數百個主流晶片——具有驚人的2.6 兆個晶體管、85 萬個AI 計算核心和40 GB 整合緩存,封裝後功耗高達15kW。
接近晶圓大小的 Wafer Scale Engine-2,面積比 iPad 還大。
雖然Cerebras 的單機在體積上已經類似於超算了,但在單塊晶片中保留多達200 億個參數的NLP 模型仍然顯著降低了數千個GPU 的訓練成本,以及相關的硬體和擴展要求,同時消除了在它們之間分割模型的技術困難。 Cerebras 表示,後者是「NLP 工作負載中最痛苦的方面之一」,有時「需要幾個月才能完成」。
這是一個客製化的問題,不僅對每個正在處理的神經網絡,對於每個GPU 的規格以及將它們聯繫在一起的網絡都是獨一無二的——這些元素必須在第一次訓練開始之前提前設定好,而且也不能跨系統移植。
Cerebras 的CS-2 是一個獨立的超級運算集群,其中包括Wafer Scale Engine-2 晶片,所有相關的電源、記憶體和儲存子系統。
200 億的參數量大概是什麼等級?在人工智慧領域裡,大規模預訓練模型是最近各家科技公司和機構正在努力發展的方向,OpenAI 的GPT-3 是一種NLP 模型,它可以寫出足以欺騙人類讀者的整篇文章、做數學運算和翻譯,其具有驚人的1750 億個參數。 DeepMind 的 Gopher 於去年底推出,將參數量的紀錄提高到 2800 億。
最近一段時間,Google大腦甚至宣布訓練了一個超過兆參數的模型 Switch Transformer。
「在NLP 領域中,體積更大的模型被證明效果更好。但傳統上,只有極少數公司擁有足夠的資源和專業知識來完成分解這些大型模型,將其分散到數百或數千個圖形處理單元的艱苦工作,」Cerebras 執行長、聯合創始人Andrew Feldman 說。 「因此只有極少數公司可以訓練大型NLP 模型——這對於行業的其他人來說太昂貴、太耗時且無法使用。」
現在,Cerebras 的方法能夠降低GPT-3XL 1.3B、GPT-J 6B、GPT-3 13B 和GPT-NeoX 20B 模型的應用門檻,使整個AI 生態系統能夠在幾分鐘內建立大型模型,並在單一CS-2 系統上訓練它們。
然而,就像旗艦級CPU 的時脈速度一樣,參數量只是大模型效能的其中一項指標。最近,一些研究在減少參數的前提下已經取得了更好的結果,例如 DeepMind 今年 4 月提出的 Chinchilla,只用 700 億個參數就在常規情況下超過了 GPT-3 和 Gopher。
這類研究的目標當然是更聰明的工作,而不是更努力地工作。因此Cerebras 的成就比人們第一眼看到的更為重要——該研究讓我們相信現有的晶片製程水平能夠適應日益複雜的模型,該公司表示,以特殊晶片為核心的系統具備了支撐「數千億甚至數萬億參數”模型的能力。
在單晶片上可訓練參數量的爆炸性成長需要依賴 Cerebras 的 Weight Streaming 技術。該技術可以將計算和記憶體佔用分離,根據 AI 工作負載中快速增長的參數量,允許記憶體進行任意量級的擴展。這使得設定時間從幾個月減少到幾分鐘,並且可以在 GPT-J 和 GPT-Neo 等型號之間切換。正如研究者所說:「只需要敲幾次鍵盤。」
「Cerebras 以低成本、便捷的方式向人們提供了運行大型語言模型的能力,開啟了人工智慧令人興奮的新時代。它為那些無法花費數千萬美元的組織提供了一個簡單而廉價的,參與到大模型競爭之中的方式,」Intersect360 研究公司的首席研究官Dan Olds 說道。 「當 CS-2 客戶在大量資料集上訓練 GPT-3 和 GPT-J 級模型時,我們非常期待 CS-2 客戶的新應用和新發現。」
#以上是單機訓練200億參數大模型:Cerebras打破新紀錄的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

什麼?瘋狂動物城被國產AI搬進現實了?與影片一同曝光的,是一款名為「可靈」全新國產影片生成大模型。 Sora利用了相似的技術路線,結合多項自研技術創新,生產的影片不僅運動幅度大且合理,還能模擬物理世界特性,具備強大的概念組合能力與想像。數據上看,可靈支持生成長達2分鐘的30fps的超長視頻,分辨率高達1080p,且支援多種寬高比。另外再劃個重點,可靈不是實驗室放出的Demo或影片結果演示,而是短影片領域頭部玩家快手推出的產品級應用。而且主打一個務實,不開空頭支票、發布即上線,可靈大模型已在快影

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

上週,在內部的離職潮和外部的口誅筆伐之下,OpenAI可謂是內憂外患:-侵權寡姐引發全球熱議-員工簽署“霸王條款”被接連曝出-網友細數奧特曼“七宗罪」闢謠:根據Vox獲取的洩漏資訊和文件,OpenAI的高級領導層,包括Altman在內,非常了解這些股權回收條款,並且簽署了它們。除此之外,還有一個嚴峻而迫切的問題擺在OpenAI面前——AI安全。最近,五名與安全相關的員工離職,其中包括兩名最著名的員工,「超級對齊」團隊的解散讓OpenAI的安全問題再次被置於聚光燈下。 《財星》雜誌報道稱,OpenA
