Erforschen Zephyr-7b: Eine mächtige Open-Source-LLM
Die OpenAI LLM-Rangliste summt mit neuen Open-Source-Modellen, die mit der Konkurrenz von GPT-4 abzielen, und Zephyr-7b ist ein herausragender Anwärter. In diesem Tutorial wird dieses modernste Sprachmodell von webpilot.ai untersucht und seine Verwendung mit der Transformers-Pipeline und der Feinabstimmung auf einem Datensatz für Agent-Instentien demonstriert. Neu in AI? Die KI -Fundamentals -Skill -Track ist ein guter Ausgangspunkt.
Zephyr-7b, Teil der Zephyr-Serie, ist geschult, um als hilfreicher Assistent zu fungieren. Seine Stärken liegen bei der Erzeugung von kohärenten Text, Übersetzungssprachen, Zusammenfassung von Informationen, Stimmungsanalyse und Kontext-Wahrnehmungs-Frage.
Zephyr-7b-β, das zweite Modell der Reihe, ist ein fein abgestimmter Mistral-7b-Modell. Ausgebildet mit Direktpräferenzoptimierung (DPO) in einer Mischung aus öffentlichen und synthetischen Datensätzen zeichnet sie sich aus, um komplexe Abfragen zu interpretieren und langwierige Texte zusammenzufassen. Bei seiner Veröffentlichung hatte es den Spitzenplatz unter 7B-Chat-Modellen auf MT-Bench und AlpaCaeval Benchmarks. Testen Sie seine Funktionen mit der kostenlosen Demo auf Zephyr -Chat.
Bild aus Zephyr -Chat
Dieses Tutorial verwendet umarme Gesichtstransformatoren, um einen einfachen Zugang zu erhalten. (Wenn Sie auf Ladeproblemen stoßen, wenden Sie sich an das Inferenz -Kaggle -Notizbuch.)
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
import torch from transformers import pipeline
device_map="auto"
verwendet mehrere GPUs für eine schnellere Erzeugung. torch.bfloat16
bietet eine schnellere Berechnung und reduzierte Speicherverwendung (jedoch mit etwas geringerer Genauigkeit). model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Dieser Abschnitt führt Sie durch den feinen Zephyr-7b-Beta auf einem benutzerdefinierten Datensatz mit Kaggle's Free GPUs (ca. 2 Stunden). (Siehe das feine Kaggle-Notizbuch zur Fehlerbehebung.)
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
import torch from transformers import pipeline
Kaggle Secrets (für Kaggle -Notizbücher): Abrufen von Gesicht und Gewichten & Vorurteilen API -Tasten abrufen.
Umarmung von Gesicht und Gewichten und Vorspannungen Login:
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
Die format_prompt
-Funktion passt den Datensatz an Zephyr-7bs promptem Stil an.
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl
# ... (Import statements as in original tutorial) ...
!huggingface-cli login --token $secret_hf # ... (wandb login as in original tutorial) ...
base_model = "HuggingFaceH4/zephyr-7b-beta" dataset_name = "THUDM/AgentInstruct" new_model = "zephyr-7b-beta-Agent-Instruct"
# ... (format_prompt function and dataset loading as in original tutorial) ...
# ... (bnb_config and model loading as in original tutorial) ...
# ... (tokenizer loading and configuration as in original tutorial) ...
# ... (peft_config and model preparation as in original tutorial) ...
Testen Sie die Leistung des Modells mit verschiedenen Eingabeaufforderungen. Beispiele finden Sie im ursprünglichen Tutorial.
Zephyr-7b-beta zeigt beeindruckende Fähigkeiten. Dieses Tutorial bietet einen umfassenden Leitfaden zur Nutzung und Feinabstimmung dieses leistungsstarken LLM, selbst bei ressourcenbezogenen GPUs. Betrachten Sie den Konzepte Kurs "Master Language Language Models) für tieferes LLM -Wissen.
Das obige ist der detaillierte Inhalt vonUmfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!