首頁 > 科技週邊 > 人工智慧 > 微調Google Gemma:使用自定義說明增強LLM

微調Google Gemma:使用自定義說明增強LLM

Lisa Kudrow
發布: 2025-03-07 10:01:10
原創
227 人瀏覽過

Google Deepmind的Gemma:深入研究開源LLMS

> AI景觀正在嗡嗡作響,尤其是關於開源大語模型(LLM)的活動。 諸如Google,Meta和Twitter之類的科技巨頭越來越擁抱開源開發。 Google DeepMind最近揭露了Gemma,這是一個使用與Google的Gemini Models相同的基礎研究和技術建造的輕巧的開源LLM家族。本文探討了Gemma模型,通過Cloud GPU和TPU的可訪問性,並提供了一個逐步指南,以在角色扮演數據集上微調Gemma 7b-it模型。

>

了解Google的Gemma

gemma(拉丁語中的“珍貴石頭”)是一個主要由Google DeepMind開發的僅是解碼的,文本到文本開放的模型。 受雙子座模型的啟發,Gemma設計用於輕巧的操作和廣泛的框架兼容性。 Google已發布了兩個Gemma尺寸的模型權重:2B和7B,每個型號都有預訓練和指導調節的變體(例如Gemma 2b-it和Gemma 7b-it)。 Gemma的性能與其他開放模型相媲美,特別是在各種LLM基準測試中勝過Meta的Llama-2。

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions 圖像源

Gemma的多功能性擴展到對多個框架(Keras 3.0,Pytorch,Jax,Hugging Face Transformers)和多樣的硬件(筆記本電腦,台式機,物聯網設備,移動和雲)的支持。 使用流行的機器學習框架可以在自由雲TPU上進行推理和監督微調(SFT)。 此外,Google與Gemma一起提供了一個負責任的生成AI工具包,為開發人員提供了創建更安全的AI應用程序的指導和工具。 鼓勵AI和LLM的初學者探索基礎知識的AI基礎知識技能。

>訪問Google的Gemma模型

訪問Gemma很簡單。 可以通過Huggingchat和Poe獲得免費訪問。 通過從擁抱面孔下載模型權重並利用GPT4ALL或LMSTUDIO來下載模型權重,也可以使用本地用法。 本指南重點是使用Kaggle的Free GPU和TPU進行推理。

>在TPU上運行Gemma推斷

>使用keras在TPU上運行gemma推斷,請按照以下步驟:
  1. >導航到keras/gemma,選擇“ gemma_instruct_2b_en”模型變體,然後單擊“新筆記本”。
  2. 在右面板中,選擇“ TPU VM VM V3-8”作為加速器。
  3. >
  4. 安裝必要的python庫:
!pip install -q tensorflow-cpu
!pip install -q -U keras-nlp tensorflow-hub
!pip install -q -U keras>=3
!pip install -q -U tensorflow-text
登入後複製
    使用
  1. > jax.devices()驗證tpu可用性
  2. set
  3. 作為keras後端:jaxos.environ["KERAS_BACKEND"] = "jax">
  4. >使用
  5. 加載模型,並使用keras_nlp>函數生成文本。 generate>

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions 圖像源

在GPU上運行Gemma推斷

用於使用變壓器的GPU推斷,請按照以下步驟:

>導航到Google/gemma,選擇“變形金剛”,選擇“ 7b-it”變體,然後創建一個新筆記本。
  1. 選擇GPT T4 X2作為加速器。
  2. >
  3. >安裝所需軟件包:
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U accelerate
登入後複製
>使用用於VRAM管理的bitsandbytes使用4位量化的模型。 >
    加載令牌。
  1. >創建一個提示,將其傳遞給模型,解碼輸出並顯示結果。
圖像源

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions >微調Google的Gemma:逐步指南>

本節使用Kaggle P100 GPU。

>設置

hieunguyenminh/roleplay安裝必要的軟件包:

  1. 導入所需的庫。
>定義基本模型,數據集和微調模型名稱的變量。
%%capture 
%pip install -U bitsandbytes 
%pip install -U transformers 
%pip install -U peft 
%pip install -U accelerate 
%pip install -U trl
%pip install -U datasets
登入後複製
    >使用您的API鍵登錄以擁抱Face CLI。
  1. >
  2. 初始化重量和偏見(W&B)工作區。 >
  3. 加載數據集
  4. >加載角色扮演數據集的前1000行。
  5. 加載模型和令牌
>使用帶有bitsandbytes的4位精度加載Gemma 7b-It模型。加載令牌儀並配置墊子令牌。

添加適配器層

>添加一個Lora適配器層以有效微調模型。

訓練模型

定義培訓參數(超參數)並創建一個sfttrainer。 使用

訓練模型

保存模型

>在本地保存微調模型,然後將其推到擁抱的臉上輪轂。

模型推理

使用微調模型生成響應。 .train()

gemma 7b與角色扮演適配器的推斷

本節演示瞭如何加載基本模型和訓練有素的適配器,將其合併並生成響應。

最終想法

Google發布的Gemma的發布表示向AI開源協作的轉變。 本教程提供了使用和微調Gemma模型的綜合指南,突出了開源開發和雲計算資源的力量。 下一步是使用Langchain等框架構建您自己的基於LLM的應用程序。

>

以上是微調Google Gemma:使用自定義說明增強LLM的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板