首頁 > 科技週邊 > 人工智慧 > Apple的DCLM-7B:設置,示例用法,微調

Apple的DCLM-7B:設置,示例用法,微調

Jennifer Aniston
發布: 2025-03-04 09:30:12
原創
893 人瀏覽過
蘋果對大語模型(LLM)領域DCLM-7B的開源貢獻標誌著使AI民主化的重要一步。 根據Apple樣本代碼許可發布的70億個參數模型,為研究人員和開發人員提供了一種功能強大的,可訪問的各種自然語言處理(NLP)任務的工具。 > DCLM-7B的關鍵功能包括其僅解碼器的變壓器體系結構(類似於Chatgpt和GPT-4),以生成相干文本的優化。 經過2.5萬億代幣的大規模數據集的培訓,對英語具有強有力的了解,使其適合對特定任務進行微調。儘管基本模型具有2048 token上下文窗口,但具有8K令牌窗口的變體提供了增強的處理更長文本的功能。

入門和用法:Apple's DCLM-7B: Setup, Example Usage, Fine-Tuning

> DCLM-7B與擁抱Face的Transformers庫無縫集成。 安裝需要

。 由於它的尺寸(約27.5GB),建議使用高RAM/VRAM系統或云環境。 >使用擁抱face網頁的代碼的一個基本示例,演示了其功能:>

pip install transformers微調(概述):pip install git https://github.com/mlfoundations/open_lm.git

>微調DCLM-7B需要大量資源,但該過程涉及使用

>庫和數據集(例如,從擁抱Face的
from open_lm.hf import *
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("apple/DCLM-Baseline-7B")
model = AutoModelForCausalLM.from_pretrained("apple/DCLM-Baseline-7B")

inputs = tokenizer(["Machine learning is"], return_tensors="pt")
gen_kwargs = {"max_new_tokens": 50, "top_p": 0.8, "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1}
output = model.generate(inputs['input_ids'], **gen_kwargs)
output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True)
print(output)
登入後複製
庫中,例如

>)。 這些步驟包括數據集準備(象徵化),並利用對象進行微調過程本身。 這需要大量的計算能力,並且由於其複雜性而在此處不詳細介紹。

結論: transformers datasets蘋果的DCLM-7B代表了對開源LLM社區的寶貴貢獻。它的可訪問性,再加上其性能和體系結構,將其定位為在各種NLP應用程序中進行研究和開發的強大工具。 開源自然促進了協作並加速了AI領域的創新。 wikitext

以上是Apple的DCLM-7B:設置,示例用法,微調的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板