Google Deepmind的Gemma:深入研究開源LLMS
> AI景觀正在嗡嗡作響,尤其是關於開源大語模型(LLM)的活動。 諸如Google,Meta和Twitter之類的科技巨頭越來越擁抱開源開發。 Google DeepMind最近揭露了Gemma,這是一個使用與Google的Gemini Models相同的基礎研究和技術建造的輕巧的開源LLM家族。本文探討了Gemma模型,通過Cloud GPU和TPU的可訪問性,並提供了一個逐步指南,以在角色扮演數據集上微調Gemma 7b-it模型。
>了解Google的Gemma
gemma(拉丁語中的“珍貴石頭”)是一個主要由Google DeepMind開發的僅是解碼的,文本到文本開放的模型。 受雙子座模型的啟發,Gemma設計用於輕巧的操作和廣泛的框架兼容性。 Google已發布了兩個Gemma尺寸的模型權重:2B和7B,每個型號都有預訓練和指導調節的變體(例如Gemma 2b-it和Gemma 7b-it)。 Gemma的性能與其他開放模型相媲美,特別是在各種LLM基準測試中勝過Meta的Llama-2。
圖像源
>訪問Google的Gemma模型
訪問Gemma很簡單。 可以通過Huggingchat和Poe獲得免費訪問。 通過從擁抱面孔下載模型權重並利用GPT4ALL或LMSTUDIO來下載模型權重,也可以使用本地用法。 本指南重點是使用Kaggle的Free GPU和TPU進行推理。
>在TPU上運行Gemma推斷>使用keras在TPU上運行gemma推斷,請按照以下步驟:
!pip install -q tensorflow-cpu !pip install -q -U keras-nlp tensorflow-hub !pip install -q -U keras>=3 !pip install -q -U tensorflow-text
jax.devices()
驗證tpu可用性
jax
os.environ["KERAS_BACKEND"] = "jax"
>
keras_nlp
>函數生成文本。 generate
>
圖像源
用於使用變壓器的GPU推斷,請按照以下步驟:
>導航到Google/gemma,選擇“變形金剛”,選擇“ 7b-it”變體,然後創建一個新筆記本。
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U accelerate
>微調Google的Gemma:逐步指南>
>設置
hieunguyenminh/roleplay
安裝必要的軟件包:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl %pip install -U datasets
添加適配器層
>添加一個Lora適配器層以有效微調模型。
訓練模型
定義培訓參數(超參數)並創建一個sfttrainer。 使用
。訓練模型
保存模型>在本地保存微調模型,然後將其推到擁抱的臉上輪轂。
模型推理
使用微調模型生成響應。 .train()
本節演示瞭如何加載基本模型和訓練有素的適配器,將其合併並生成響應。
最終想法
Google發布的Gemma的發布表示向AI開源協作的轉變。 本教程提供了使用和微調Gemma模型的綜合指南,突出了開源開發和雲計算資源的力量。 下一步是使用Langchain等框架構建您自己的基於LLM的應用程序。>
以上是微調Google Gemma:使用自定義說明增強LLM的詳細內容。更多資訊請關注PHP中文網其他相關文章!