Heim > Technologie-Peripheriegeräte > KI > Umfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung

Umfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung

Jennifer Aniston
Freigeben: 2025-03-08 09:55:11
Original
671 Leute haben es durchsucht

Erforschen Zephyr-7b: Eine mächtige Open-Source-LLM

Die OpenAI LLM-Rangliste summt mit neuen Open-Source-Modellen, die mit der Konkurrenz von GPT-4 abzielen, und Zephyr-7b ist ein herausragender Anwärter. In diesem Tutorial wird dieses modernste Sprachmodell von webpilot.ai untersucht und seine Verwendung mit der Transformers-Pipeline und der Feinabstimmung auf einem Datensatz für Agent-Instentien demonstriert. Neu in AI? Die KI -Fundamentals -Skill -Track ist ein guter Ausgangspunkt.

Zephyr-7b

verstehen

Zephyr-7b, Teil der Zephyr-Serie, ist geschult, um als hilfreicher Assistent zu fungieren. Seine Stärken liegen bei der Erzeugung von kohärenten Text, Übersetzungssprachen, Zusammenfassung von Informationen, Stimmungsanalyse und Kontext-Wahrnehmungs-Frage.

Zephyr-7b-β: Ein fein abgestimmter Marvel

Zephyr-7b-β, das zweite Modell der Reihe, ist ein fein abgestimmter Mistral-7b-Modell. Ausgebildet mit Direktpräferenzoptimierung (DPO) in einer Mischung aus öffentlichen und synthetischen Datensätzen zeichnet sie sich aus, um komplexe Abfragen zu interpretieren und langwierige Texte zusammenzufassen. Bei seiner Veröffentlichung hatte es den Spitzenplatz unter 7B-Chat-Modellen auf MT-Bench und AlpaCaeval Benchmarks. Testen Sie seine Funktionen mit der kostenlosen Demo auf Zephyr -Chat.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Bild aus Zephyr -Chat

Zugriff auf Zephyr-7b mit umarmenden Gesichtstransformatoren

Dieses Tutorial verwendet umarme Gesichtstransformatoren, um einen einfachen Zugang zu erhalten. (Wenn Sie auf Ladeproblemen stoßen, wenden Sie sich an das Inferenz -Kaggle -Notizbuch.)

  1. Bibliotheken installieren: Stellen Sie sicher, dass Sie die neuesten Versionen haben:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
Nach dem Login kopieren
Nach dem Login kopieren
  1. Bibliotheken importieren:
import torch
from transformers import pipeline
Nach dem Login kopieren
Nach dem Login kopieren
  1. Pipeline erstellen: Der device_map="auto" verwendet mehrere GPUs für eine schnellere Erzeugung. torch.bfloat16 bietet eine schnellere Berechnung und reduzierte Speicherverwendung (jedoch mit etwas geringerer Genauigkeit).
model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
Nach dem Login kopieren
Nach dem Login kopieren
  1. Text generieren: Das folgende Beispiel zeigt das Generieren von Python -Code.
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])
Nach dem Login kopieren
Nach dem Login kopieren

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. Systemaufforderungen: Anpassen der Antworten mit Systemaufforderungen in Zephyr-7b-Stil:
messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])
Nach dem Login kopieren
Nach dem Login kopieren

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Feinabstimmung Zephyr-7b auf einem benutzerdefinierten Datensatz

Dieser Abschnitt führt Sie durch den feinen Zephyr-7b-Beta auf einem benutzerdefinierten Datensatz mit Kaggle's Free GPUs (ca. 2 Stunden). (Siehe das feine Kaggle-Notizbuch zur Fehlerbehebung.)

Einrichten und Vorbereiten der Umgebung

  1. Bibliotheken installieren:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
Nach dem Login kopieren
Nach dem Login kopieren
  1. Importmodule:
import torch
from transformers import pipeline
Nach dem Login kopieren
Nach dem Login kopieren
  1. Kaggle Secrets (für Kaggle -Notizbücher): Abrufen von Gesicht und Gewichten & Vorurteilen API -Tasten abrufen.

  2. Umarmung von Gesicht und Gewichten und Vorspannungen Login:

model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
Nach dem Login kopieren
Nach dem Login kopieren

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. Modell- und Datensatznamen definieren:
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])
Nach dem Login kopieren
Nach dem Login kopieren

AgentInstruct Dataset Processing

Die format_prompt -Funktion passt den Datensatz an Zephyr-7bs promptem Stil an.

messages = [
    {
        "role": "system",
        "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
    },
    {
        "role": "user",
        "content": "Write a Python code to display text in a star pattern.",
    },
]

prompt = pipe.tokenizer.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])
Nach dem Login kopieren
Nach dem Login kopieren

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Laden und Vorbereiten des Modells

  1. Lastmodell mit 4-Bit-Genauigkeit: Dies ist entscheidend für ein effizientes Training auf GPUs mit begrenztem VRAM.
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U peft
%pip install -U accelerate
%pip install -U trl
Nach dem Login kopieren
  1. Tokenizer laden:
# ... (Import statements as in original tutorial) ...
Nach dem Login kopieren
  1. Adapterschicht hinzufügen (PEFT): Dies ermöglicht eine effiziente Feinabstimmung, indem nur Parameter in der Adapterschicht aktualisiert werden.
!huggingface-cli login --token $secret_hf
# ... (wandb login as in original tutorial) ...
Nach dem Login kopieren

Training des Modells

  1. Trainingsargumente: Hyperparameter konfigurieren (Einzelheiten finden Sie im Tutorial für Feinabstimmungslama 2).
base_model = "HuggingFaceH4/zephyr-7b-beta"
dataset_name = "THUDM/AgentInstruct"
new_model = "zephyr-7b-beta-Agent-Instruct"
Nach dem Login kopieren
  1. SFT -Trainer: Verwenden Sie die TRL -Bibliothek von Sugging Face, um den Trainer zu erstellen.
# ... (format_prompt function and dataset loading as in original tutorial) ...
Nach dem Login kopieren
  1. Starten Sie das Training:
# ... (bnb_config and model loading as in original tutorial) ...
Nach dem Login kopieren

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Speichern und Bereitstellen des fein abgestimmten Modells

  1. Speichern Sie das Modell:
# ... (tokenizer loading and configuration as in original tutorial) ...
Nach dem Login kopieren
  1. Auf die Umarmung des Gesichtszentrums drücken:
# ... (peft_config and model preparation as in original tutorial) ...
Nach dem Login kopieren

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Testen Sie das fein abgestimmte Modell

Testen Sie die Leistung des Modells mit verschiedenen Eingabeaufforderungen. Beispiele finden Sie im ursprünglichen Tutorial.

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

Schlussfolgerung

Zephyr-7b-beta zeigt beeindruckende Fähigkeiten. Dieses Tutorial bietet einen umfassenden Leitfaden zur Nutzung und Feinabstimmung dieses leistungsstarken LLM, selbst bei ressourcenbezogenen GPUs. Betrachten Sie den Konzepte Kurs "Master Language Language Models) für tieferes LLM -Wissen.

Das obige ist der detaillierte Inhalt vonUmfassender Leitfaden zu Zephyr-7b: Funktionen, Verwendung und Feinabstimmung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage