解锁骆驼的力量3.2:综合指南和本地部署
大语模型(LLM)的景观正在迅速发展,重点是较小,更有效的模型。 Llama 3.2凭借其轻巧和视力模型的变化体现了这一趋势。本教程详细介绍了如何利用Llama 3.2的功能,特别是3B轻型模型,用于在客户支持数据集上进行微调以及使用JAN应用程序进行的本地部署。 在潜水之前,强烈鼓励初学者完成AI基础知识课程,以掌握LLM和生成AI的基础。>作者的图像
探索骆驼3.2型号
轻量级模型
视觉模型
视觉模型(11b和90b参数)是为图像推理而设计的,能够解释文档和图表。 它们的多模式能力源于将预训练的图像编码与语言模型集成在一起。 在视觉理解任务中,他们的表现优于克劳德3 haiku和gpt-4o mini。
以深入了解Llama 3.2的架构,基准和安全功能(Llama Guard 3),请参阅《官方Llama 3.2指南》。
>在Kaggle上访问Llama 3.2虽然Llama 3.2是开源的,但访问需要接受条款和条件。 这是通过kaggle访问它的方法:
transformers
随后的步骤涉及使用accelerate
库库加载令牌和模型,指定本地模型目录,设置%pip install -U transformers accelerate
,创建文本生成管道以及使用自定义提示的运行推断。 随附的Kaggle笔记本中提供了详细的代码示例。 类似的步骤适用于访问Llama 3.2视觉模型,尽管GPU要求明显更高。
>本节通过微调Llama 3.2 3B指示模型在客户支持数据集上使用transformers
library和Qlora进行有效培训。
transformers
,datasets
,accelerate
,peft
,trl
,bitsandbytes
,wandb
和torch_dtype
>使用attn_implementation
进行4位量化的模型以最大程度地减少内存使用情况。BitsAndBytesConfig
bitext/Bitext-customer-support-llm-chatbot-training-dataset
apply_chat_template
LoraConfig
TrainingArguments
>
SFTTrainer
trainer.train()
>测试使用数据集中的示例提示的微调模型。
>在本地保存微调模型,然后将其推到拥抱的脸上轮毂。
合并和导出微调模型>和
合并它们,然后保存并将合并模型推到集线器。以上是微调美洲驼3.2并在本地使用:逐步指南的详细内容。更多信息请关注PHP中文网其他相关文章!