Entsperren Sie die Kraft von Lama 3.2: Ein umfassender Leitfaden für Feinabstimmungen und lokale Bereitstellung
Die Landschaft großer Sprachmodelle (LLMs) entwickelt sich schnell weiter und konzentriert sich auf kleinere, effizientere Modelle. Lama 3.2 mit seinen Leicht- und Sehmodellschwankungen veranschaulicht diesen Trend. In diesem Tutorial wird beschrieben, wie die Funktionen von LLAMA 3.2, insbesondere das 3B-Leichtgewichtsmodell, für die Feinabstimmung in einem Datensatz für Kundensupport und anschließende lokale Bereitstellung mithilfe der Jan-Anwendung.
Bevor Sie eintauchen, werden Anfänger dringend ermutigt, einen KI -Grundlagenkurs abzuschließen, um die Grundlagen von LLMs und generativen AI zu erfassen.
Bild von Autor
llama 3.2 bietet zwei Modellfamilien: Leicht und Vision. Leichte Modelle exponieren bei mehrsprachigen Textgenerierung und -werkzeuggebrauch, ideal für ressourcenbezogene Umgebungen. Vision -Modelle hingegen spezialisiert sich auf Bildminenation und multimodale Aufgaben.
Die leichte Familie umfasst 1B- und 3B -Parametervarianten. Ihre kompakte Größe ermöglicht die Verarbeitung von On-Geräten, um Datenschutz und schnelle, kostengünstige Textgenerierung zu gewährleisten. Diese Modelle nutzen die Beschneidung und Wissensdestillation für Effizienz und Leistung. Das 3B-Modell übertrifft Wettbewerber wie Gemma 2 und PHI 3,5-mini bei Aufgaben wie Anweisungen und Zusammenfassung.
Quelle: Lama 3.2: Revolutionierung von Edge AI und Vision mit offenen, anpassbaren Modellen
Die Visionsmodelle (11B- und 90B -Parameter) sind für das Bildminimieren ausgelegt, die Dokumente und Diagramme interpretieren können. Ihre multimodalen Funktionen beruhen aus der Integration von vorgebildeten Bildcodierern in Sprachmodelle. Sie übertreffen Claude 3 Haiku und GPT-4O Mini in visuellen Verständnisaufgaben.
Quelle: Lama 3.2: Revolutionierung von Edge AI und Vision mit offenen, anpassbaren Modellen
Für tiefere Einblicke in die Architektur, Benchmarks und Sicherheitsmerkmale von Lama 3.2 (Lama Guard 3) finden Sie den offiziellen Lama 3.2 -Leitfaden.
Während Lama 3.2 Open-Source ist, erfordert der Zugriff die Akzeptanz von Geschäftsbedingungen. Hier erfahren Sie, wie Sie über Kaggle darauf zugreifen:
transformers
und accelerate
mit %pip install -U transformers accelerate
. Die nachfolgenden Schritte umfassen das Laden des Tokenizers und des Modells mithilfe der transformers
-Bibliothek, der Angabe des lokalen Modellverzeichnisses, der Einstellung pad_token_id
, des Erstellens einer Pipeline für Textgenerierung und Ausführen von Inferenz mit benutzerdefinierten Eingabeaufforderungen. Beispiele für detaillierte Code finden Sie im dazugehörigen Kaggle -Notebook. Ähnliche Schritte gelten für den Zugriff auf die Lama 3.2 Vision -Modelle, obwohl die GPU -Anforderungen erheblich höher sind.
Dieser Abschnitt führt Sie durch die Feinabstimmung des LLAMA 3.2 3B-Modells auf einem Kundenunterstützungsdatensatz mithilfe der transformers
Bibliothek und Qlora für effizientes Training.
transformers
, datasets
, accelerate
, peft
, trl
, bitsandbytes
und wandb
. torch_dtype
und attn_implementation
basierend auf Ihren GPU -Funktionen. BitsAndBytesConfig
für die 4-Bit-Quantisierung, um die Speicherverwendung zu minimieren. bitext/Bitext-customer-support-llm-chatbot-training-dataset
. apply_chat_template
LoraConfig
TrainingArguments
SFTTrainer
. Überwachen Sie den Schulungs- und Validierungsverlust mit Wandb. trainer.train()
Speichern des Modells
Zusammenführen und Exportieren des fein abgestimmten Modells
und PeftModel.from_pretrained
und dann das Speichern und Schieben des zusammengeführten Modells in den Hub. model.merge_and_unload()
Feinabstimmung kleinere LLMs bietet einen kostengünstigen und effizienten Ansatz zum Anpassen von Modellen für bestimmte Aufgaben. Dieses Tutorial bietet einen praktischen Leitfaden zur Nutzung der Funktionen von LLAMA 3.2, vom Zugriff und der Feinabstimmung bis hin zur lokalen Bereitstellung, und befähigt die Benutzer, benutzerdefinierte AI-Lösungen zu erstellen und bereitzustellen. Denken Sie daran, die begleitenden Kaggle -Notizbücher für detaillierte Code -Beispiele zu konsultieren.
Das obige ist der detaillierte Inhalt vonFeinabstimmungslama 3.2 und lokal verwenden: eine Schritt-für-Schritt-Anleitung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!