Heim Technologie-Peripheriegeräte KI So brechen LLMs die Sprache auf

So brechen LLMs die Sprache auf

Mar 11, 2025 am 10:40 AM

Enthüllung der Geheimnisse großer Sprachmodelle: Ein tiefes Eintauchen in die Tokenisierung

Erinnern Sie sich an die Summen, die OpenAIs GPT-3 im Jahr 2020 umgibt? Obwohl nicht die erste in seiner Linie, katapultierten die bemerkenswerten Funktionen von GPT-3 von GPT-3. Seitdem sind unzählige große Sprachmodelle (LLMs) entstanden. Aber wie entschlüsseln LLMs die Sprache für Chatgpt? Die Antwort liegt in einem Prozess, der als Tokenisierung bezeichnet wird.

Dieser Artikel lässt sich von Andrej Karpathys aufschlussreicher YouTube-Serie "Deep Dive Into LLMs Like Chatgpt" inspirieren, ein Muss für alle, die ein tieferes Verständnis von LLMs suchen. (Sehr empfohlen!)

Lassen Sie uns vor der Erforschung der Tokenisierung kurz die inneren Funktionsweise eines LLM untersuchen. Überspringen Sie weiter, wenn Sie bereits mit neuronalen Netzwerken und LLMs vertraut sind.

Innerhalb großer Sprachmodelle

LLMs verwenden Transformator Neuronale Netze - komplexe mathematische Formeln. Die Eingabe ist eine Abfolge von Token (Wörter, Phrasen oder Zeichen), die durch Einbettung von Schichten verarbeitet werden und sie in numerische Darstellungen umwandeln. Diese Eingaben werden zusammen mit den Parametern des Netzwerks (Gewichte) in eine massive mathematische Gleichung eingespeist.

Moderne neuronale Netze haben Milliarden von Parametern, die zunächst zufällig eingestellt sind. Das Netzwerk macht zunächst zufällige Vorhersagen. Das Training passt iterativ diese Gewichte an, um die Ausgabe des Netzwerks an Muster in den Trainingsdaten auszurichten. Das Training beinhaltet daher die Suche nach dem optimalen Gewichtssatz, das die statistischen Eigenschaften der Trainingsdaten am besten widerspiegelt.

Die in der Arbeit von Vaswani et al. Aufmerksamkeit im Jahr 2017 eingeführte Transformatorarchitektur ist ein neuronales Netzwerk, das speziell für die Sequenzverarbeitung entwickelt wurde. Ursprünglich für die Übersetzung von neuronaler Maschine verwendet, ist es jetzt der Eckpfeiler von LLMs.

Für ein visuelles Verständnis der Transformator-Netzwerke von Produktionsebene finden Sie unter https://www.php.cn/link/f4a75336b061f291b6c11f5e4d6ebf7d . Diese Website bietet interaktive 3D -Visualisierungen von GPT -Architekturen und deren Inferenzprozess.

So brechen LLMs die Sprache auf Diese Nano-GPT-Architektur (ca. 85.584 Parameter) zeigt Eingangs-Token-Sequenzen, die durch Ebenen verarbeitet werden, und unterzieht Transformationen (Aufmerksamkeitsmechanismen und Feed-Forward-Netzwerke), um das nächste Token vorherzusagen.

Tokenisierung: Text aufbrechen

Das Training eines hochmodernen LLM wie Chatgpt oder Claude beinhaltet mehrere sequenzielle Stufen. (Weitere Informationen zur Trainingspipeline finden Sie in meinem vorherigen Artikel über Halluzinationen.)

Die Vorabbildung, die Anfangsphase, erfordert einen massiven, hochwertigen Datensatz (Terabyte). Diese Datensätze sind in der Regel proprietär. Wir werden den Open-Source-Datensatz für Fineweb als Beispiel aus der Umarmung von Face (verfügbar unter der Open Data Commons Attribution Lizenz) verwenden. ( Weitere Details zu Fywebs Erstellung hier ).

So brechen LLMs die Sprache auf Eine Probe aus Fineweb (100 Beispiele verkettet).

So brechen LLMs die Sprache auf Unser Ziel ist es, ein neuronales Netzwerk zu schulen, um diesen Text zu replizieren. Neuronale Netze erfordern eine eindimensionale Abfolge von Symbolen aus einem endlichen Satz. Dies erfordert die Umwandlung des Textes in eine solche Sequenz.

Wir beginnen mit einer eindimensionalen Textsequenz. Die UTF-8-Codierung wandelt dies in eine Rohbitsequenz um.

So brechen LLMs die Sprache auf Die ersten 8 Bit repräsentieren den Buchstaben 'a'.

Diese binäre Sequenz ist zwar technisch eine Sequenz von Symbolen (0 und 1), ist jedoch zu lang. Wir brauchen kürzere Sequenzen mit mehr Symbolen. Die Gruppierung von 8 Bit in ein Byte gibt uns eine Sequenz von 256 möglichen Symbolen (0-255).

So brechen LLMs die Sprache auf Byte -Darstellung.

So brechen LLMs die Sprache auf Diese Zahlen sind willkürliche Kennungen.

So brechen LLMs die Sprache auf Diese Konvertierung ist Tokenisierung. Mode-der-Art-Modelle gehen weiter unter Verwendung der Byte-Pair-Codierung (BPE).

BPE identifiziert häufig aufeinanderfolgende Bytepaare und ersetzt sie durch neue Symbole. Wenn beispielsweise "101 114" häufig erscheint, wird es durch ein neues Symbol ersetzt. Dieser Vorgang wiederholt sich, verkürzt die Sequenz und erweitert das Wortschatz. GPT-4 verwendet BPE, was zu einem Vokabular von rund 100.000 Token führt.

Erforschen Sie die Tokenisierung interaktiv mit Tiktokenizer , das die Tokenisierung für verschiedene Modelle visualisiert. Verwenden Sie den CL100K_BASE- Encoder von GPT-4 in den ersten vier Sätzen Ausbeuten:

 <code>11787, 499, 21815, 369, 90250, 763, 14689, 30, 7694, 1555, 279, 21542, 3770, 323, 499, 1253, 1120, 1518, 701, 4832, 2457, 13, 9359, 1124, 323, 6642, 264, 3449, 709, 3010, 18396, 13, 1226, 617, 9214, 315, 1023, 3697, 430, 1120, 649, 10379, 83, 3868, 311, 3449, 18570, 1120, 1093, 499, 0</code>
Nach dem Login kopieren

So brechen LLMs die Sprache auf

Unser gesamtes Beispieldatensatz kann mit CL100K_Base ähnlich tokenisiert werden.

So brechen LLMs die Sprache auf

Abschluss

Die Tokenisierung ist für LLMs von entscheidender Bedeutung und verwandelt Rohtext in ein strukturiertes Format für neuronale Netzwerke. Die Ausgleichssequenzlänge und der Vokabulargröße sind der Schlüssel für die Recheneffizienz. Moderne LLMs wie GPT verwenden BPE für eine optimale Leistung. Das Verständnis der Tokenisierung bietet wertvolle Einblicke in die Innenarbeit von LLMs.

Folgen Sie mir auf X (ehemals Twitter) für weitere KI -Erkenntnisse!

Referenzen

  • Tauchgang in LLMs wie Chatgpt
  • Andrej Karpathy
  • Aufmerksamkeit ist alles was Sie brauchen
  • LLM Visualisierung ( https://www.php.cn/link/f4a75336b061f291b6c11f5e4d6ebf7d )
  • LLM Halluzinationen (link_to_hallucination_article)
  • Huggingfacefw/Fineweb · Datensätze bei Hugging Face (link_to_huggingface_fineweb)
  • Feinweb: Dekantieren des Webs für die besten Textdaten im Maßstab - ein umarmender Gesichtsraum von… (https://www.php.cn/link/271df68653f0b3c70d446bdcbc6a2715)
  • Offene Datenkommons-Attributionslizenz (ODC-by) v1.0-Öffnen Sie Data Commons: Rechtsinstrumente für offene Daten (link_to_odc_by)
  • Byte-Pair-Codierungs-Tokenisierung-Umarmung des Gesichts NLP-Kurs (link_to_huggingface_bpe)
  • Tiktokenizer (https://www.php.cn/link/3b8d83483189887a2f1a39d690463a8f)

Bitte ersetzen Sie die klammernden Links durch die tatsächlichen Links. Ich habe versucht, die ursprünglichen Formatierung und Bildplatzierungen wie angefordert zu pflegen.

Das obige ist der detaillierte Inhalt vonSo brechen LLMs die Sprache auf. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Beste KI -Kunstgeneratoren (kostenlos & amp; bezahlt) für kreative Projekte Beste KI -Kunstgeneratoren (kostenlos & amp; bezahlt) für kreative Projekte Apr 02, 2025 pm 06:10 PM

Der Artikel überprüft Top -KI -Kunstgeneratoren, diskutiert ihre Funktionen, Eignung für kreative Projekte und Wert. Es zeigt MidJourney als den besten Wert für Fachkräfte und empfiehlt Dall-E 2 für hochwertige, anpassbare Kunst.

Erste Schritte mit Meta Lama 3.2 - Analytics Vidhya Erste Schritte mit Meta Lama 3.2 - Analytics Vidhya Apr 11, 2025 pm 12:04 PM

Metas Lama 3.2: Ein Sprung nach vorne in der multimodalen und mobilen KI Meta hat kürzlich Lama 3.2 vorgestellt, ein bedeutender Fortschritt in der KI mit leistungsstarken Sichtfunktionen und leichten Textmodellen, die für mobile Geräte optimiert sind. Aufbau auf dem Erfolg o

Beste AI -Chatbots verglichen (Chatgpt, Gemini, Claude & amp; mehr) Beste AI -Chatbots verglichen (Chatgpt, Gemini, Claude & amp; mehr) Apr 02, 2025 pm 06:09 PM

Der Artikel vergleicht Top -KI -Chatbots wie Chatgpt, Gemini und Claude und konzentriert sich auf ihre einzigartigen Funktionen, Anpassungsoptionen und Leistung in der Verarbeitung und Zuverlässigkeit natürlicher Sprache.

Top -KI -Schreibassistenten, um Ihre Inhaltserstellung zu steigern Top -KI -Schreibassistenten, um Ihre Inhaltserstellung zu steigern Apr 02, 2025 pm 06:11 PM

In dem Artikel werden Top -KI -Schreibassistenten wie Grammarly, Jasper, Copy.ai, Writesonic und RYTR erläutert und sich auf ihre einzigartigen Funktionen für die Erstellung von Inhalten konzentrieren. Es wird argumentiert, dass Jasper in der SEO -Optimierung auszeichnet, während KI -Tools dazu beitragen, den Ton zu erhalten

AV -Bytes: META ' S Lama 3.2, Googles Gemini 1.5 und mehr AV -Bytes: META ' S Lama 3.2, Googles Gemini 1.5 und mehr Apr 11, 2025 pm 12:01 PM

Die KI -Landschaft dieser Woche: Ein Wirbelsturm von Fortschritten, ethischen Überlegungen und regulatorischen Debatten. Hauptakteure wie OpenAI, Google, Meta und Microsoft haben einen Strom von Updates veröffentlicht, von bahnbrechenden neuen Modellen bis hin zu entscheidenden Verschiebungen in LE

Top 7 Agentenlagersystem zum Aufbau von KI -Agenten Top 7 Agentenlagersystem zum Aufbau von KI -Agenten Mar 31, 2025 pm 04:25 PM

2024 veränderte sich von einfacher Verwendung von LLMs für die Erzeugung von Inhalten zum Verständnis ihrer inneren Funktionsweise. Diese Erkundung führte zur Entdeckung von AI -Agenten - autonome Systeme zur Handhabung von Aufgaben und Entscheidungen mit minimalem menschlichen Eingreifen. Bauen

Verkauf von KI -Strategie an Mitarbeiter: Shopify -CEO Manifesto Verkauf von KI -Strategie an Mitarbeiter: Shopify -CEO Manifesto Apr 10, 2025 am 11:19 AM

Das jüngste Memo von Shopify -CEO Tobi Lütke erklärt kühn für jeden Mitarbeiter eine grundlegende Erwartung und kennzeichnet eine bedeutende kulturelle Veränderung innerhalb des Unternehmens. Dies ist kein flüchtiger Trend; Es ist ein neues operatives Paradigma, das in P integriert ist

Auswahl des besten KI -Sprachgenerators: Top -Optionen überprüft Auswahl des besten KI -Sprachgenerators: Top -Optionen überprüft Apr 02, 2025 pm 06:12 PM

Der Artikel überprüft Top -KI -Sprachgeneratoren wie Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson und Descript, wobei sie sich auf ihre Funktionen, die Sprachqualität und die Eignung für verschiedene Anforderungen konzentrieren.

See all articles