Google Deepmind的Gemma:深入研究开源LLMS
> AI景观正在嗡嗡作响,尤其是关于开源大语模型(LLM)的活动。 诸如Google,Meta和Twitter之类的科技巨头越来越拥抱开源开发。 Google DeepMind最近揭露了Gemma,这是一个使用与Google的Gemini Models相同的基础研究和技术建造的轻巧的开源LLM家族。本文探讨了Gemma模型,通过Cloud GPU和TPU的可访问性,并提供了一个逐步指南,以在角色扮演数据集上微调Gemma 7b-it模型。
>了解Google的Gemma
gemma(拉丁语中的“珍贵石头”)是一个主要由Google DeepMind开发的仅是解码的,文本到文本开放的模型。 受双子座模型的启发,Gemma设计用于轻巧的操作和广泛的框架兼容性。 Google已发布了两个Gemma尺寸的模型权重:2B和7B,每个型号都有预训练和指导调节的变体(例如Gemma 2b-it和Gemma 7b-it)。 Gemma的性能与其他开放模型相媲美,特别是在各种LLM基准测试中胜过Meta的Llama-2。
图像源
>访问Google的Gemma模型
访问Gemma很简单。 可以通过Huggingchat和Poe获得免费访问。 通过从拥抱面孔下载模型权重并利用GPT4ALL或LMSTUDIO来下载模型权重,也可以使用本地用法。 本指南重点是使用Kaggle的Free GPU和TPU进行推理。
>在TPU上运行Gemma推断>使用keras在TPU上运行gemma推断,请按照以下步骤:
!pip install -q tensorflow-cpu !pip install -q -U keras-nlp tensorflow-hub !pip install -q -U keras>=3 !pip install -q -U tensorflow-text
jax.devices()
验证tpu可用性
jax
os.environ["KERAS_BACKEND"] = "jax"
>
keras_nlp
>函数生成文本。generate
>
图像源
用于使用变压器的GPU推断,请按照以下步骤:
>导航到Google/gemma,选择“变形金刚”,选择“ 7b-it”变体,然后创建一个新笔记本。
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U accelerate
>微调Google的Gemma:逐步指南>
>设置
hieunguyenminh/roleplay
安装必要的软件包:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl %pip install -U datasets
添加适配器层
>添加一个Lora适配器层以有效微调模型。
训练模型
定义培训参数(超参数)并创建一个sfttrainer。 使用
。训练模型
保存模型>在本地保存微调模型,然后将其推到拥抱的脸上轮毂。
模型推理
使用微调模型生成响应。.train()
本节演示了如何加载基本模型和训练有素的适配器,将其合并并生成响应。
最终想法
Google发布的Gemma的发布表示向AI开源协作的转变。 本教程提供了使用和微调Gemma模型的综合指南,突出了开源开发和云计算资源的力量。 下一步是使用Langchain等框架构建您自己的基于LLM的应用程序。>
以上是微调Google Gemma:使用自定义说明增强LLM的详细内容。更多信息请关注PHP中文网其他相关文章!