Heim > Technologie-Peripheriegeräte > KI > Wie LLMs funktionieren: Vorausbildung zu Nachtraining, neuronalen Netzwerken, Halluzinationen und Inferenz

Wie LLMs funktionieren: Vorausbildung zu Nachtraining, neuronalen Netzwerken, Halluzinationen und Inferenz

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
Freigeben: 2025-02-26 03:58:14
Original
511 Leute haben es durchsucht

Enthüllen Sie die Magie hinter Großsprachemodellen (LLMs): eine zweiteilige Erkundung

große Sprachmodelle (LLMs) erscheinen oft magisch, aber ihre inneren Arbeiten sind überraschend systematisch. Diese zweiteilige Serie Demystifies LLMs erklärt ihre Konstruktion, Ausbildung und Verfeinerung in die KI-Systeme, die wir heute verwenden. Inspiriert von Andrej Karpathys aufschlussreichem (und langwierigem!) YouTube -Video bietet diese kondensierte Version die Kernkonzepte in einem zugänglicheren Format. Während das Video von Karpathy dringend empfohlen wird (800.000 Aufrufe in nur 10 Tagen!) Destilliert diese 10-minütige Lektüre die wichtigsten Imbissbuden aus den ersten 1,5 Stunden.

Teil 1: Von Rohdaten zum Basismodell

LLM-Entwicklung beinhaltet zwei wichtige Phasen: Vorausbildung und Nachtraining.

1. Vorabbildung: Die Sprache unterrichten

Vor dem Erstellen von Text muss ein LLM die Sprachstruktur lernen. Dieser rechnerisch intensive Vorbildungsprozess umfasst mehrere Schritte:

  • Datenerfassung und -vorverarbeitung: massive, verschiedene Datensätze werden gesammelt, häufig einschließlich Quellen wie gemeinsames Crawl (250 Milliarden Webseiten). Rohdaten müssen jedoch gereinigt werden, um Spam, Duplikate und Inhalte von geringer Qualität zu entfernen. Dienstleistungen wie Fineweb bieten vorverarbeitete Versionen für das Umarmungsgesicht erhältlich.

How LLMs Work: Pre-Training to Post-Training, Neural Networks, Hallucinations, and Inference

  • Tokenisierung: Text wird für die Verarbeitung neuronaler Netzwerks in numerische Token (Wörter, Unterwörter oder Zeichen) konvertiert. GPT-4 zum Beispiel verwendet 100.277 einzigartige Token. Tools wie Tiktokenizer visualisieren Sie diesen Prozess.

How LLMs Work: Pre-Training to Post-Training, Neural Networks, Hallucinations, and Inference

  • neuronales Netzwerk Training: Das neuronale Netzwerk lernt, das nächste Token in einer auf Kontext basierenden Sequenz vorherzusagen. Dies beinhaltet Milliarden von Iterationen, die die Anpassung von Parametern (Gewichten) über die Backpropagation zur Verbesserung der Vorhersagegenauigkeit. Die Architektur des Netzwerks bestimmt, wie Eingabe -Token verarbeitet werden, um Ausgänge zu generieren.

How LLMs Work: Pre-Training to Post-Training, Neural Networks, Hallucinations, and Inference

Das resultierende Basismodell versteht Wortbeziehungen und statistische Muster, fehlt jedoch die optimale reale Aufgabenoptimierung. Es funktioniert wie eine fortgeschrittene Autocomplete, die aufgrund der Wahrscheinlichkeit, jedoch mit begrenzten Funktionen für Anweisungen, vorhersagt. In-Kontext-Lernen, bei denen Beispiele innerhalb der Eingabeaufforderungen verwendet werden, können verwendet werden, aber weitere Schulungen sind erforderlich.

2. Nach der Schulung: Verfeinerung der praktischen Verwendung

Basismodelle werden durch Nachtraining mit kleineren, spezialisierten Datensätzen verfeinert. Dies ist keine explizite Programmierung, sondern implizite Anweisungen durch strukturierte Beispiele.

nach dem Training gehören:

  • Unterricht/Gespräch Feinabstimmung: Lehrt das Modell, Anweisungen zu befolgen, Gespräche zu führen, sich an Sicherheitsrichtlinien zu befolgen und schädliche Anfragen zu verweigern (z. B. InstructGPT).
  • Domänenspezifische Feinabstimmung: passt das Modell für bestimmte Felder an (Medizin, Recht, Programmierung).

spezielle Token werden eingeführt, um Benutzereingaben und AI -Antworten abzugrenzen.

Inferenz: Erzeugen von Text

Inferenz, die in jeder Phase durchgeführt wird, bewertet das Modelllernen. Das Modell weist potenziellen Next -Token und Proben aus dieser Verteilung Wahrscheinlichkeiten zu und erstellt Text nicht explizit in den Trainingsdaten, sondern statistisch mit ihm überein. Dieser stochastische Prozess ermöglicht unterschiedliche Ausgänge aus demselben Eingang.

Halluzinationen: falsche Informationen adressieren

Halluzinationen, in denen LLMs falsche Informationen erzeugen, entstehen aus ihrer probabilistischen Natur. Sie "kennen" Fakten nicht, prognostizieren wahrscheinlich wahrscheinlich Wortsequenzen. Minderungsstrategien umfassen:

  • "Ich kenne nicht" Training: Schulung des Modells, um Wissenslücken durch Selbstintergröße und automatisierte Frage zu erkennen.
  • Integration der Websuche: Wissen erweitern, indem Sie auf externe Suchwerkzeuge zugreifen und Ergebnisse in das Kontextfenster des Modells einbeziehen.

llms greifen auf Wissen über vage Erinnerungen (Muster aus der Voraussetzung) und den Arbeitsspeicher (Informationen im Kontextfenster) zu. Systemaufforderungen können eine konsistente Modellidentität festlegen.

Schlussfolgerung (Teil 1)

In diesem Teil wurde die grundlegenden Aspekte der LLM -Entwicklung untersucht. Teil 2 wird sich mit Verstärkungslernen befassen und modernste Modelle untersuchen. Ihre Fragen und Vorschläge sind willkommen!

Das obige ist der detaillierte Inhalt vonWie LLMs funktionieren: Vorausbildung zu Nachtraining, neuronalen Netzwerken, Halluzinationen und Inferenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage