想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!

WBOY
發布: 2023-04-13 13:10:03
轉載
2213 人瀏覽過

哈嘍,大家好。

今天跟大家分享一個開源的大語言模型ChatGLM-6B。

想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!

十幾天的時間,就收穫了近 1w 個 star。

ChatGLM-6B 是一個開源的、支援中英雙語的對話語言模型,基於 General Language Model (GLM) 架構,具有 62 億參數。結合模型量化技術,使用者可以在消費級的顯示卡上進行本地部署(INT4 量化等級下最低只需 6GB 記憶體)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行了最佳化。經過約 1T 標識符的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的 ChatGLM-6B 已經能產生相當符合人類偏好的答案。

大家都可以裝在自己的電腦上運行下試試。獨顯最小顯存6G,CPU電腦也可以跑,但很慢。

專案目前只開源了模型和推理程式碼,並沒有開源模型的訓練。

運行項目,只需兩個

第一步,下載原始碼

git clone https://github.com/THUDM/ChatGLM-6B.git
登入後複製

執行pip install -r requirements.txt 安裝依賴

第二步,運行專案

python web_demo.py
登入後複製

執行後,會自動下載模型文件,大概4G 左右。

如果是GPU運行,預設情況下,模型運行顯存至少13G,如果顯存不夠,可以修改下 web_demo.py

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
登入後複製

將上述程式碼的THUDM/chatglm-6b改為THUDM/chatglm-6b-int4,即:改用int4 量化後的模型,只要是顯存大於6g就可以順利運作。

如果報 CPU 記憶體不足,把其他軟體關一關,尤其是瀏覽器。

運行成功後, 會自動跳轉瀏覽器頁面,這時候就可以像ChatGPT一樣使用了。

下面是我本地運行的結果,大家可以看看與ChatGPT的差異

想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!

自我認知

想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!

寫提綱

想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!

寫郵件

想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!

#寫程式碼

想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!

############ ######角色扮演######專案運作還是很簡單的,大家可以跑跑試試。 ######如果大家覺得本文對你有用就點個 在看 鼓勵一下吧,我會持續分享優秀的 Python AI 專案。 ###

以上是想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板