首页 科技周边 人工智能 微调美洲驼2:定制大语模型的分步指南

微调美洲驼2:定制大语模型的分步指南

Mar 09, 2025 am 11:09 AM

Meta的Llama引发了大型语言模型(LLM)开发的激增,旨在与GPT-3.5这样的模型竞争。 开源社区迅速产生了越来越强大的模型,但是这些进步并非没有挑战。 许多开源LLM具有限制性许可(仅研究),需要大量预算进行微调,并且部署昂贵。 Llama的新迭代通过商业许可证和新方法解决了这些问题,从而可以对消费级GPU进行微调,并且内存有限。这使AI民主化,甚至允许较小的组织创建量身定制的模型。

本指南在Google Colab上展示了微调Llama-2,利用有效的技术来克服资源限制。我们将探索最大程度地减少内存使用量并加速培训的方法。

>

作者使用dall-e 3 Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model 生成的图像

> >微调乳拉拉玛-2:逐步指南

> 此教程微调T4 GPU上的70亿参数Llama-2模型(可在Google Colab或Kaggle上找到)。 T4的16GB VRAM需要使用Qlora(4位精度)进行参数有效的微调。我们将利用拥抱的面部生态系统(变形金刚,加速,PEFT,TRL,BITSANDBYTES)。

1。设置:

安装必要的库:

>导入模块:

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>
登录后复制
登录后复制

2。模型和数据集选择:
<code>import os
import torch
from datasets import load_dataset
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import LoraConfig
from trl import SFTTrainer</code>
登录后复制

我们将使用(等效于官方Llama-2的易于访问)作为基本模型,将其作为我们较小的培训数据集。

>NousResearch/Llama-2-7b-chat-hf>说明了拥抱面模型和数据集的图像,与原始图像相同。 mlabonne/guanaco-llama2-1k

3。加载数据和型号:
<code>base_model = "NousResearch/Llama-2-7b-chat-hf"
guanaco_dataset = "mlabonne/guanaco-llama2-1k"
new_model = "llama-2-7b-chat-guanaco"</code>
登录后复制

> 加载数据集:

>使用Qlora配置4位量化:

>使用4位量化加载Llama-2模型:

<code>dataset = load_dataset(guanaco_dataset, split="train")</code>
登录后复制
加载令牌:

<code>compute_dtype = getattr(torch, "float16")
quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=compute_dtype,
    bnb_4bit_use_double_quant=False,
)</code>
登录后复制
>

图像说明Qlora的图像与原始。
<code>model = AutoModelForCausalLM.from_pretrained(
    base_model,
    quantization_config=quant_config,
    device_map={"": 0}
)
model.config.use_cache = False
model.config.pretraining_tp = 1</code>
登录后复制

4。 PEFT配置:

<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"</code>
登录后复制

定义PEFT参数以进行有效的微调:>

5。训练参数:

设置训练超标仪(输出目录,时期,批量大小,学习率等)。 详细信息与原始。

6。用SFT进行微调:

<code>peft_params = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
)</code>
登录后复制

>使用TRL库中的进行监督的微调:>

>

>显示训练进度和模型节省的屏幕截图与原始相同。

7。评估:

>使用管道测试微调模型。提供了示例,与原始相同。transformers>

8。张板可视化:

启动张板以监视培训指标。

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>
登录后复制
登录后复制

张量板的屏幕截图与原始板相同。 结论:

本指南在有限的硬件上展示了有效的Llama-2微调。 Qlora和其他技术的使用使更广泛的受众可以访问高级LLM。 最后提到了进一步的资源和学习路径,类似于原始的原始资源和学习路径,但没有营销呼吁采取行动。

以上是微调美洲驼2:定制大语模型的分步指南的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
威尔R.E.P.O.有交叉游戏吗?
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

我尝试了使用光标AI编码的Vibe编码,这太神奇了! 我尝试了使用光标AI编码的Vibe编码,这太神奇了! Mar 20, 2025 pm 03:34 PM

Vibe编码通过让我们使用自然语言而不是无尽的代码行创建应用程序来重塑软件开发的世界。受Andrej Karpathy等有远见的人的启发,这种创新的方法使Dev

2025年2月的Genai推出前5名:GPT-4.5,Grok-3等! 2025年2月的Genai推出前5名:GPT-4.5,Grok-3等! Mar 22, 2025 am 10:58 AM

2025年2月,Generative AI又是一个改变游戏规则的月份,为我们带来了一些最令人期待的模型升级和开创性的新功能。从Xai的Grok 3和Anthropic的Claude 3.7十四行诗到Openai的G

如何使用Yolo V12进行对象检测? 如何使用Yolo V12进行对象检测? Mar 22, 2025 am 11:07 AM

Yolo(您只看一次)一直是领先的实时对象检测框架,每次迭代都在以前的版本上改善。最新版本Yolo V12引入了进步,可显着提高准确性

最佳AI艺术生成器(免费付款)创意项目 最佳AI艺术生成器(免费付款)创意项目 Apr 02, 2025 pm 06:10 PM

本文回顾了AI最高的艺术生成器,讨论了他们的功能,对创意项目的适用性和价值。它重点介绍了Midjourney是专业人士的最佳价值,并建议使用Dall-E 2进行高质量的可定制艺术。

Chatgpt 4 o可用吗? Chatgpt 4 o可用吗? Mar 28, 2025 pm 05:29 PM

Chatgpt 4当前可用并广泛使用,与诸如ChatGpt 3.5(例如ChatGpt 3.5)相比,在理解上下文和产生连贯的响应方面取得了重大改进。未来的发展可能包括更多个性化的间

哪个AI比Chatgpt更好? 哪个AI比Chatgpt更好? Mar 18, 2025 pm 06:05 PM

本文讨论了AI模型超过Chatgpt,例如Lamda,Llama和Grok,突出了它们在准确性,理解和行业影响方面的优势。(159个字符)

顶级AI写作助理来增强您的内容创建 顶级AI写作助理来增强您的内容创建 Apr 02, 2025 pm 06:11 PM

文章讨论了Grammarly,Jasper,Copy.ai,Writesonic和Rytr等AI最高的写作助手,重点介绍了其独特的内容创建功能。它认为Jasper在SEO优化方面表现出色,而AI工具有助于保持音调的组成

如何将Mistral OCR用于下一个抹布模型 如何将Mistral OCR用于下一个抹布模型 Mar 21, 2025 am 11:11 AM

MISTRAL OCR:通过多模式文档理解彻底改变检索效果 检索增强的生成(RAG)系统具有明显高级的AI功能,从而可以访问大量的数据存储,以获得更明智的响应

See all articles