昨晚Meta發布了Llama 3 8B 和70B 模型,Llama 3 指令調整模型針對對話/聊天用例進行了微調和優化,在常見基準測試中優於許多現有的開源聊天模型。例如,Gemma 7B 和 Mistral 7B。
Llama 3模型對資料和規模進行了提升,達到了新的高度。它是在Meta最近發布的兩個客製化的24K GPU叢集上,對超過15T token的資料進行訓練的。這個訓練資料集比Llama 2大7倍,包含多4倍的程式碼。這使得Llama模型的能力達到了目前的最高水平,它支援8K以上的文字長度,是Llama 2的兩倍。
下面我將介紹 6 種方式,讓你快速體驗最新發布的 Llama 3!
https://www.llama2.ai/
https://lmstudio.ai/
##https://marketplace.visualstudio.com/items?itemName=DanielSanMedium.dscodegpt&ssr=false
使用CodeGPT 前,記得先使用Ollama 拉取對應的模型。例如,拉取 llama3:8b 模型:ollama pull llama3:8b。如果你本地尚未安裝 ollama,可以閱讀 「部署本地的大語言模型,只需幾分鐘!」 這篇文章。
運行Llama 3 8B 模型:
ollama run llama3
運行Llama 3 70B 模型:
ollama run llama3:70b
#https://pinokio.computer/item?uri=https:/ /github.com/cocktailpeanutlabs/open-webui。
以上是六年種方式快速體驗最新發布的 Llama 3!的詳細內容。更多資訊請關注PHP中文網其他相關文章!