清華系千億基座對話模型ChatGLM啟動內測,開源單卡版模型
ChatGPT 的發布,攪動了整個 AI 領域,各大科技公司、新創公司以及大學團隊都在跟進。近段時間,機器之心通報了多家新創公司、大學團隊的研究成果。
昨日,又一國產AI 對話大模型重磅登場:由清華技術成果轉化的公司智譜AI 基於GLM-130B 千億基座模型的ChatGLM 現已開啟邀請制內測。
值得一提的是,此次智譜 AI 也開源了中英雙語對話模型 ChatGLM-6B,支援在單張消費級顯示卡上進行推理使用。
#內測申請網址:chatglm.cn
據了解,ChatGLM 目前版本模型的能力提升主要來自獨特的千億基座模型GLM-130B。它是不同於 BERT、GPT-3 以及 T5 的架構,是一個包含多目標函數的自回歸預訓練模型。
2022 年8 月,清華大學聯合智譜AI 向研究界和工業界開放了擁有1300 億參數的中英雙語稠密模型GLM-130B,該模型有一些獨特的優點:
- 雙語:同時支援中文和英文;
- 高精度(英文):在公開的英文自然語言榜單LAMBADA、MMLU 和Big-bench-lite 上優於GPT-3 175B(API: davinci,基座模型)、OPT-175B 和BLOOM-176B;
- 高精度(中文):在7 個零樣本CLUE 資料集和5 個零樣本FewCLUE 資料集上明顯優於ERNIE TITAN 3.0 260B 和YUAN 1.0-245B;
- 快速推理:首個實現INT4 量化的千億模型,支援用一台4 卡3090 或8 卡2080Ti 伺服器進行快速且基本無損推理;
- 可複現性:所有結果(超過30個任務)皆可透過我們的開源程式碼和模型參數復現;
- 跨平台:支援在國產的海光DCU、華為昇騰910 和申威處理器及美國的英偉達晶片上進行訓練與推理。
如今, 參考ChatGPT 的設計思路,ChatGLM 在千億基座模型GLM-130B 中註入了代碼預訓練,透過有監督微調(Supervised Fine-Tuning)等技術實現人類意圖對齊。
機器之心獲得了內測邀請碼,這裡簡單和ChatGLM 進行了對話,效果如下:
它能夠理解「站CP」的實際涵義:
#給ChatGLM 一個數學問題試試:
自從學會了二元一次方程,像這種基礎的「雞兔同籠」問題就再也難不倒它了:
開源 ChatGLM-6B
ChatGLM-6B 是一個開源的、支援中英雙語問答的對話語言模型,並針對中文進行了最佳化。該模型基於 General Language Model (GLM) 架構,具有 62 億參數。結合模型量化技術,使用者可以在消費級的顯示卡上進行本地部署(INT4 量化等級下最低只需 6GB 記憶體)。 ChatGLM-6B 使用了和 ChatGLM 相同的技術,針對中文問答和對話進行了最佳化。經過約1T 標識符的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的ChatGLM-6B 雖然規模不及千億模型,但大大降低了推理成本,提升了效率,並且已經能產生相當符合人類偏好的回答。
模型開源位址:https://github.com/THUDM/ChatGLM-6B
具體來說,ChatGLM-6B 具備以下特點:
- 充分的中英雙語預訓練:ChatGLM-6B 在1:1 比例的中英語料上訓練了1T 的token 量,兼具雙語能力。
- 優化的模型架構和大小:吸收 GLM-130B 訓練經驗,修正了二維 RoPE 位置編碼實現,使用傳統 FFN 結構。 6B(62 億)的參數大小,也使得研究者和個人開發者自己微調和部署 ChatGLM-6B 成為可能。
- 較低的部署門檻:FP16 半精度下,ChatGLM-6B 需要至少13 GB 的顯存進行推理,結合模型量化技術,這一需求可以進一步降低到10GB(INT8 ) 和6GB(INT4),使得ChatGLM-6B 可以部署在消費級顯示卡上。
- 更長的序列長度:相較於 GLM-10B(序列長度 1024),ChatGLM-6B 序列長度達 2048,支援更長對話和應用。
- 人類意圖對齊訓練:使用了監督微調(Supervised Fine-Tuning)、反饋自助(Feedback Bootstrap)、人類反饋強化學習(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人類指令意圖的能力。輸出格式為 markdown,方便展示。
不過由於ChatGLM-6B 模型的容量較小,不可避免的存在一些限制和不足,包括:
- 相對較弱的模型記憶和語言能力。在面對許多事實性知識任務時,ChatGLM-6B 可能會產生不正確的訊息,也不太擅長邏輯類問題(如數學、程式設計)的解答。
- 可能會產生有害說明或偏見的內容:ChatGLM-6B 只是一個初步與人類意圖對齊的語言模型,可能會產生有害、有偏見的內容。
- 較弱的多輪對話能力:ChatGLM-6B 的上下文理解能力還不夠充分,在面對長答案生成和多輪對話的場景時,可能會出現上下文丟失和理解錯誤的情況。
GLM 團隊表示,ChatGLM 距離國際頂尖大模型研究和產品仍有一定差距,未來將持續研發並開源更新版本的 ChatGLM 和相關模型。 GLM 團隊也歡迎大家下載 ChatGLM-6B,基於它進行研究和(非商用)應用程式開發。
以上是清華系千億基座對話模型ChatGLM啟動內測,開源單卡版模型的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

今天我想分享一個最新的研究工作,這項研究來自康乃狄克大學,提出了一種將時間序列資料與自然語言處理(NLP)大模型在隱空間上對齊的方法,以提高時間序列預測的效果。此方法的關鍵在於利用隱空間提示(prompt)來增強時間序列預測的準確性。論文標題:S2IP-LLM:SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting下載網址:https://arxiv.org/pdf/2403.05798v1.pdf1、問題背景大模型

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP
