幹掉「標題黨」,清華團隊又一開源力作!
身為一個起名困難戶,高中寫作文最困擾我的就是寫好文章卻不知道起什麼題目,開始做公眾號以後,每次想標題也都要掉一大把頭髮.. ....
最近,終於讓我在GitHub 發現了「取名廢」之光,由清華大學與OpenBMB 開源社群推出的大模型趣味應用:「智取標題」,輸入內文內容就能一鍵產生勁爆標題!
開箱即用,試過後只能說:真香!
#線上體驗:https://live.openbmb.org/ant
GitHub:https://github.com/OpenBMB/CPM-Live
#提到這個標題黨神器,就得先好好聊一聊它的「本體」——大模型CPM-Ant。
CPM-Ant 作為國內首個直播訓練百億大模型, 訓練耗時 68 天,於 2022 年 8 月 5 日完成,並由 OpenBMB 正式發布!
- 五大卓越特性
- #四大創新突破
- 訓練過程低成本且環境友善!
- 最重要的是-完全開源!
作為首個直播訓練中文大模型,CPM-Ant 在大模型訓練、微調、壓縮、推理、應用等環節均提供了一份可行的實踐方案,希望能為不同的關注者提供不同的幫助與參考。
下面,讓我們一起來看看 CPM-Ant 發布成果內容報告吧!
模型概覽
CPM-Ant 是一個開源的中文預訓練語言模型,擁有 10B 參數,也是 CPM-Live 直播訓練過程中的第一個里程碑。
整個訓練過程低成本且環境友好,不需要高昂的硬體需求和運行成本,基於 增量微調(delta tuning)方法,在 CUGE 基準測試中取得了優異的結果。
CPM-Ant 相關程式碼、日誌檔案和模型參數在一個開放的授權協議下完全開源。除了完整的模型,OpenBMB 還提供了各種壓縮版本以適應不同的硬體配置。
CPM-Ant 的五大卓越特性:
(1)計算高效率
##透過BMTrain[1] 工具包,能夠充分利用分散式運算資源的能力來有效率地訓練大模型。
CPM-Ant 的訓練持續了 68 天,花費了 43 萬人民幣,是Google訓練 T5-11B 模型約 130 萬美元費用的 1/20。訓練 CPM-Ant 的溫室氣體排放量約為 4872kg CO₂e,而訓練 T5-11B 的排放量為 46.7t CO₂e[9] ,CPM-Ant 的方案約為其排放量的 1/10。
(2)表現優異
#借助OpenDelta[3] 工具,能夠非常方便地透過增量微調將CPM-Ant 適配到下游任務。
######實驗表明,CPM-Ant 僅微調了 6.3M 參數就在 3/6 個 CUGE 任務上取得了最好的結果。這結果超越了其他全參數微調的模型,舉例來說:CPM-Ant 的微調參數量僅為 CPM2(微調了 11B 參數) 的 0.06%。 ###############(3)部署經濟體################借助BMCook[7] 和BMInf[4] 工具包,能夠在有限的計算資源下驅動CPM-Ant。 ######基於 BMInf ,能夠取代計算群集 在單塊 GPU 上進行大模型推理(即使是一塊 GTX 1060 這樣的消費級顯示卡)。為了讓 CPM-Ant 的部署更加經濟, OpenBMB 使用 BMCook 進一步將原始的 10B 模型壓縮到不同的版本。壓縮後的模型(7B,3B,1B,300M)能夠適應不同低資源情境下的需求。
(4)使用便利
#不管是原始10B 模型還是相關的壓縮版本,經過幾行程式碼就能夠輕鬆地加載與運行。
OpenBMB 也會將 CPM-Ant 加入 ModelCenter[8] 中,模型的進一步發展會變得更加容易。
(5)開放民主
CPM-Ant 的訓練過程完全開放。
OpenBMB 發布了所有的程式碼、日誌檔案和模型存檔並提供開放取用。 CPM-Ant 也採用了允許商業化的開放授權協議。
一份完整的大模型訓練實踐
對於有能力進行大模型訓練的廠商與研究機構,CPM-Ant 訓練過程提供了一份完整的中文大模型訓練實戰紀錄。
OpenBMB 發布了 CPM-Live 系列模型的 模型設計、訓練方案、資料需求和實作程式碼。基於 CPM-Live 的模型架構,能夠方便快速地設計實現大模型訓練方案並整理相關的業務數據,完成模型預研和數據準備工作。
官方網站中記錄了訓練過程中的全部訓練動態,包括損失函數、學習率、已學習資料、吞吐量、梯度大小、花費成本曲線,以及模型內部參數平均值和標準差即時展示,透過這些訓練動態,使用者能夠快速診斷模型訓練過程是否出現問題。
模型訓練內部參數即時展示
此外,OpenBMB 的研發同學每天即時更新訓練記錄總結,總結內容包括損失值、梯度值、整體進展,也記錄了遇到的一些問題和訓練過程中的bug,方便使用者提前了解模型訓練過程中的可能會遇到的各種「坑」。
在模型訓練「風平浪靜」的日子,研發小哥也會拋出一些名言名句、介紹一些最新論文、甚至發起猜謎活動。
#日誌中的一次猜謎活動
##除此之外, OpenBMB 也提供了成本經濟的訓練方案,對於實際有大模型訓練需求的企業,透過相關訓練加速技術,訓練成本已經降低到可以接受的程度。
使用BMTrain[1] 工具包,百億大模型CPM-Ant 訓練的算力花費僅43 萬元(目前花費依照公有雲價格計算,實際成本會更低),是11B 大模型T5 外界估算成本130 萬美元的約1/20!
一份屢創 SOTA 的高效微調方案
#CPM-Ant 如何幫助我們進行下游任務適配?
對於大模型研究者,OpenBMB 提供了一個基於參數高效微調的大模型效能評測方案,方便快速進行下游任務適配並評測模型效能。 #######
使用參數高效能微調,即增量微調(delta tuning)來評估 CPM-Ant 在六個下游任務上的表現。實驗中採用了 LoRA[2] ,它在每個注意層中插入了兩個可調整的低秩矩陣,並凍結了原始模型的所有參數。使用這種方法,每個任務只微調了 6.3M 的參數,僅佔總參數的 0.067%。
在 OpenDelta[3] 的幫助下,OpenBMB 進行了所有的實驗,而沒有修改原始模型的程式碼。需要指出的是,在下游任務上評測 CPM-Ant 模型時,並沒有使用任何資料增強的方法。實驗結果如下表所示:
可以看到,在僅微調極少參數的情況下,OpenBMB 的模型在三個資料集上的性能已經超過了CPM-2 和來源1.0。
有些任務(例如LCSTS)在微調參數極少時可能會比較難以學習, CPM-Live 的訓練過程將會持續進行,在各個任務上的表現也會被進一步打磨。
有興趣的同學,可訪問下方 GitHub 鏈接,搶先體驗下 CPM-Ant 和 OpenDelta,進一步探索 CPM-Ant 在其他任務上的能力!
https://github.com/OpenBMB/CPM-Live
一系列硬體友善的推理方式
大模型效能固然驚艷,但高昂的硬體需求和運作成本一直困擾著許多使用者。對於大模型使用者,OpenBMB提供了一系列硬體友善的使用方式,能夠較為方便地在不同硬體環境下運行不同的模型版本。
使用 BMInf[4] 工具包, CPM-Ant 可以在單卡 1060 這樣的 低資源環境 中運作!
除此之外,OpenBMB 也將 CPM-Ant 進行了壓縮。這些壓縮的模型包括 CPM-Ant-7B/3B/1B/0.3B。而所有這些模型壓縮尺寸都可以對應到現有的開源預訓練語言模型的經典尺寸。
考慮到使用者可能會在發佈的檢查點上進行進一步的開發,OpenBMB 主要使用 任務無關的結構化剪枝 來壓縮 CPM-Ant。剪枝過程也是漸進的,即從 10B 到 7B,從 7B 到 3B,從 3B 到 1B,最後從 1B 到 0.3B。
在特定的剪枝過程中,OpenBMB 會訓練一個 動態的可學習的遮罩矩陣,然後用這個遮罩矩陣來 裁切對應的參數。最後,根據掩碼矩陣的閾值修剪參數,該閾值是根據目標稀疏度確定的。更多壓縮的細節可以參考技術部落格[5] 。
下表展示了模型壓縮的結果:
#硬核心的內容完成了,那麼大模型到底要怎麼幫我們「取標題」呢?
一款出乎意料的大模型趣味應用
基於CPM-Ant,所有大模型開發者與愛好者都可以開發感興趣的文本趣味應用。
為了進一步驗證模型的有效性並提供範例,OpenBMB 在 CPM-Ant 基礎上微調了一個 勁爆標題產生器 以展示模型能力。
只需要把正文內容貼到下方文字框,一鍵點擊生成,就可以得到大模型提供的勁爆標題!
CPM-Ant 成果報告首發文章標題即由生成器產生
#這款demo將不斷被打磨,並在未來添加更多的特殊效果,增強用戶體驗
感興趣的用戶也可以使用CPM-Ant 構建自己的展示應用。如果有任何應用想法、需要技術支援或在使用 demo 流程中遇到任何問題,可以隨時在 CPM-Live 論壇[6] 發起討論!
CPM-Ant 的發布是 CPM-Live 的第一個里程碑,但也只是訓練的第一期,未來OpenBMB還會繼續進行一系列訓練。
簡單劇透一下,下一期的訓練中將新增多語言支援、結構化輸入輸出等新特性,歡迎大家繼續關注!
傳送門|專案連結
專案GitHub 位址:
https://github.com/OpenBMB/CPM -Live
Demo 體驗網址(僅限PC 造訪):
https://live.openbmb.org/ant
以上是幹掉「標題黨」,清華團隊又一開源力作!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

人臉偵測辨識技術已經是一個比較成熟且應用廣泛的技術。而目前最廣泛的網路應用語言非JS莫屬,在Web前端實現人臉偵測辨識相比後端的人臉辨識有優勢也有弱勢。優點包括減少網路互動、即時識別,大大縮短了使用者等待時間,提高了使用者體驗;弱勢是:受到模型大小限制,其中準確率也有限。如何在web端使用js實現人臉偵測呢?為了實現Web端人臉識別,需要熟悉相關的程式語言和技術,如JavaScript、HTML、CSS、WebRTC等。同時也需要掌握相關的電腦視覺和人工智慧技術。值得注意的是,由於Web端的計

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP
