首页 > 科技周边 > 人工智能 > Apple的DCLM-7B:设置,示例用法,微调

Apple的DCLM-7B:设置,示例用法,微调

Jennifer Aniston
发布: 2025-03-04 09:30:12
原创
894 人浏览过
苹果对大语模型(LLM)领域DCLM-7B的开源贡献标志着使AI民主化的重要一步。 根据Apple样本代码许可发布的70亿个参数模型,为研究人员和开发人员提供了一种功能强大的,可访问的各种自然语言处理(NLP)任务的工具。> DCLM-7B的关键功能包括其仅解码器的变压器体系结构(类似于Chatgpt和GPT-4),以生成相干文本的优化。 经过2.5万亿代币的大规模数据集的培训,对英语具有强有力的了解,使其适合对特定任务进行微调。尽管基本模型具有2048 token上下文窗口,但具有8K令牌窗口的变体提供了增强的处理更长文本的功能。

入门和用法:Apple's DCLM-7B: Setup, Example Usage, Fine-Tuning

> DCLM-7B与拥抱Face的Transformers库无缝集成。 安装需要

。 由于它的尺寸(约27.5GB),建议使用高RAM/VRAM系统或云环境。 >使用拥抱face网页的代码的一个基本示例,演示了其功能:>

pip install transformers微调(概述):pip install git https://github.com/mlfoundations/open_lm.git

>微调DCLM-7B需要大量资源,但该过程涉及使用

>库和数据集(例如,从拥抱Face的
from open_lm.hf import *
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("apple/DCLM-Baseline-7B")
model = AutoModelForCausalLM.from_pretrained("apple/DCLM-Baseline-7B")

inputs = tokenizer(["Machine learning is"], return_tensors="pt")
gen_kwargs = {"max_new_tokens": 50, "top_p": 0.8, "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1}
output = model.generate(inputs['input_ids'], **gen_kwargs)
output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True)
print(output)
登录后复制
库中,例如

>)。 这些步骤包括数据集准备(象征化),并利用对象进行微调过程本身。 这需要大量的计算能力,并且由于其复杂性而在此处不详细介绍。

结论: transformers datasets苹果的DCLM-7B代表了对开源LLM社区的宝贵贡献。它的可访问性,再加上其性能和体系结构,将其定位为在各种NLP应用程序中进行研究和开发的强大工具。 开源自然促进了协作并加速了AI领域的创新。wikitext

以上是Apple的DCLM-7B:设置,示例用法,微调的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
作者最新文章
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板