Heim Technologie-Peripheriegeräte KI Feinabstimmungslama 2: Eine Schritt-für-Schritt-Anleitung zum Anpassen des großen Sprachmodells

Feinabstimmungslama 2: Eine Schritt-für-Schritt-Anleitung zum Anpassen des großen Sprachmodells

Mar 09, 2025 am 11:09 AM

Das Lama von

Meta löste einen Anstieg der LLM-Entwicklung (Langual Language Model) aus und zielte darauf ab, Modelle wie GPT-3.5 zu konkurrieren. Die Open-Source-Community produzierte schnell zunehmend leistungsstarke Modelle, aber diese Fortschritte waren nicht ohne Herausforderungen. Viele Open-Source-LLMs hatten restriktive Lizenzen (nur Forschungsnutzung), erforderte erhebliche Budgets für die Feinabstimmung und waren teuer für den Einsatz.

Die neue Iteration von

llama befasst sich mit diesen Problemen mit einer kommerziellen Lizenz und neuen Methoden, die eine Feinabstimmung von GPUs der Verbraucherqualität mit begrenztem Speicher ermöglichen. Diese demokratisierte KI und ermöglicht es auch kleinere Organisationen, maßgeschneiderte Modelle zu erstellen.

Dieser Leitfaden demonstriert in Google Colab Fine-Tuning LLAMA-2, wobei effiziente Techniken zur Überwindung von Ressourcenbeschränkungen verwendet werden. Wir werden Methoden untersuchen, die den Speicherverbrauch minimieren und das Training beschleunigen.

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model

Bild erzeugt vom Autor mit Dall-e 3

Feinabstimmungslama-2: Eine Schritt-für-Schritt-Anleitung

Dieses Tutorial-Finanzunternehmen Das 7-Milliarden-Parameter-LLAMA-2-Modell auf einer T4-GPU (verfügbar auf Google Colab oder Kaggle). Das 16-GB-VRAM des T4 erfordert eine parametereffiziente Feinabstimmung, insbesondere unter Verwendung von Qlora (4-Bit-Genauigkeit). Wir werden das umarmende Gesichtsökosystem verwenden (Transformers, Accelerate, PEFT, TRL, BitsandBytes).

1. Setup:

Installieren Sie die erforderlichen Bibliotheken:

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>
Nach dem Login kopieren
Nach dem Login kopieren

Module importieren:

<code>import os
import torch
from datasets import load_dataset
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import LoraConfig
from trl import SFTTrainer</code>
Nach dem Login kopieren

2. Modell- und Datensatzauswahl:

Wir werden NousResearch/Llama-2-7b-chat-hf (ein leicht zugängliches Äquivalent zum offiziellen LAMA-2) als Basismodell und mlabonne/guanaco-llama2-1k als unser kleineres Trainingsdatensatz verwenden.

<code>base_model = "NousResearch/Llama-2-7b-chat-hf"
guanaco_dataset = "mlabonne/guanaco-llama2-1k"
new_model = "llama-2-7b-chat-guanaco"</code>
Nach dem Login kopieren

Bilder, die das Umarmungsgesichtsmodell und den Datensatz veranschaulichen, sind hier enthalten, wie original.

3. Datenladen & Modell:

Laden Sie den Datensatz:

<code>dataset = load_dataset(guanaco_dataset, split="train")</code>
Nach dem Login kopieren

4-Bit-Quantisierung mit Qlora konfigurieren:

<code>compute_dtype = getattr(torch, "float16")
quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=compute_dtype,
    bnb_4bit_use_double_quant=False,
)</code>
Nach dem Login kopieren

Laden Sie das LLAMA-2-Modell mit 4-Bit-Quantisierung:

<code>model = AutoModelForCausalLM.from_pretrained(
    base_model,
    quantization_config=quant_config,
    device_map={"": 0}
)
model.config.use_cache = False
model.config.pretraining_tp = 1</code>
Nach dem Login kopieren

Laden Sie den Tokenizer:

<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"</code>
Nach dem Login kopieren

Bild veranschaulichen Qlora hier, genau wie Original.

4. PEFT -Konfiguration:

PEFT-Parameter für eine effiziente Feinabstimmung definieren:

<code>peft_params = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
)</code>
Nach dem Login kopieren

5. Trainingsparameter:

Trainingshyperparameter (Ausgabeverzeichnis, Epochen, Chargengrößen, Lernrate usw.) festlegen. Details entsprechen dem Original.

6. Feinabstimmung mit SFT:

Verwenden Sie die SFTTrainer aus der TRL-Bibliothek für überwachte Feinabstimmungen:

<code>trainer = SFTTrainer(
    model=model,
    train_dataset=dataset,
    peft_config=peft_params,
    dataset_text_field="text",
    max_seq_length=None,
    tokenizer=tokenizer,
    args=training_params,
    packing=False,
)

trainer.train()
trainer.model.save_pretrained(new_model)
trainer.tokenizer.save_pretrained(new_model)</code>
Nach dem Login kopieren

Screenshots, die den Trainingsfortschritt und die Modelleinsparung zeigen, sind hier enthalten, wie Original.

7. Bewertung:

Verwenden Sie die transformers -Pipeline, um das fein abgestimmte Modell zu testen. Beispiele werden vorgesehen, wie original.

8. Tensorboard -Visualisierung:

Tensorboard für die Überwachung von Trainingsmetriken starten.

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>
Nach dem Login kopieren
Nach dem Login kopieren

Screenshot von Tensorboard ist hier enthalten, wie original.

Schlussfolgerung:

Diese Anleitung zeigt eine effiziente Lama-2-Feinabstimmung mit begrenzter Hardware. Die Verwendung von Qlora und anderen Techniken macht erweiterte LLMs für ein breiteres Publikum zugänglich. Weitere Ressourcen und Lernwege werden am Ende erwähnt, ähnlich wie das Original, jedoch ohne die Handlungsaufrufe.

Das obige ist der detaillierte Inhalt vonFeinabstimmungslama 2: Eine Schritt-für-Schritt-Anleitung zum Anpassen des großen Sprachmodells. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Chat -Befehle und wie man sie benutzt
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Ich habe versucht, die Vibe -Codierung mit Cursor AI und es ist erstaunlich! Ich habe versucht, die Vibe -Codierung mit Cursor AI und es ist erstaunlich! Mar 20, 2025 pm 03:34 PM

Die Vibe -Codierung verändert die Welt der Softwareentwicklung, indem wir Anwendungen mit natürlicher Sprache anstelle von endlosen Codezeilen erstellen können. Inspiriert von Visionären wie Andrej Karpathy, lässt dieser innovative Ansatz Dev

Top 5 Genai Starts vom Februar 2025: GPT-4,5, GROK-3 & MEHR! Top 5 Genai Starts vom Februar 2025: GPT-4,5, GROK-3 & MEHR! Mar 22, 2025 am 10:58 AM

Februar 2025 war ein weiterer bahnbrechender Monat für die Generative KI, die uns einige der am meisten erwarteten Modell-Upgrades und bahnbrechenden neuen Funktionen gebracht hat. Von Xais Grok 3 und Anthropics Claude 3.7 -Sonett, um g zu eröffnen

Wie benutze ich Yolo V12 zur Objekterkennung? Wie benutze ich Yolo V12 zur Objekterkennung? Mar 22, 2025 am 11:07 AM

Yolo (Sie schauen nur einmal) war ein führender Echtzeit-Objekterkennungsrahmen, wobei jede Iteration die vorherigen Versionen verbessert. Die neueste Version Yolo V12 führt Fortschritte vor, die die Genauigkeit erheblich verbessern

Beste KI -Kunstgeneratoren (kostenlos & amp; bezahlt) für kreative Projekte Beste KI -Kunstgeneratoren (kostenlos & amp; bezahlt) für kreative Projekte Apr 02, 2025 pm 06:10 PM

Der Artikel überprüft Top -KI -Kunstgeneratoren, diskutiert ihre Funktionen, Eignung für kreative Projekte und Wert. Es zeigt MidJourney als den besten Wert für Fachkräfte und empfiehlt Dall-E 2 für hochwertige, anpassbare Kunst.

Ist Chatgpt 4 o verfügbar? Ist Chatgpt 4 o verfügbar? Mar 28, 2025 pm 05:29 PM

Chatgpt 4 ist derzeit verfügbar und weit verbreitet, wodurch im Vergleich zu seinen Vorgängern wie ChatGPT 3.5 signifikante Verbesserungen beim Verständnis des Kontextes und des Generierens kohärenter Antworten zeigt. Zukünftige Entwicklungen können mehr personalisierte Inters umfassen

Welche KI ist besser als Chatgpt? Welche KI ist besser als Chatgpt? Mar 18, 2025 pm 06:05 PM

Der Artikel erörtert KI -Modelle, die Chatgpt wie Lamda, Lama und Grok übertreffen und ihre Vorteile in Bezug auf Genauigkeit, Verständnis und Branchenauswirkungen hervorheben. (159 Charaktere)

So verwenden Sie Mistral OCR für Ihr nächstes Lappenmodell So verwenden Sie Mistral OCR für Ihr nächstes Lappenmodell Mar 21, 2025 am 11:11 AM

Mistral OCR: revolutionäre retrieval-ausgereifte Generation mit multimodalem Dokumentverständnis RAG-Systeme (Abrufen-Augment-Augmented Generation) haben erheblich fortschrittliche KI

Top -KI -Schreibassistenten, um Ihre Inhaltserstellung zu steigern Top -KI -Schreibassistenten, um Ihre Inhaltserstellung zu steigern Apr 02, 2025 pm 06:11 PM

In dem Artikel werden Top -KI -Schreibassistenten wie Grammarly, Jasper, Copy.ai, Writesonic und RYTR erläutert und sich auf ihre einzigartigen Funktionen für die Erstellung von Inhalten konzentrieren. Es wird argumentiert, dass Jasper in der SEO -Optimierung auszeichnet, während KI -Tools dazu beitragen, den Ton zu erhalten

See all articles