


Jenseits von LLMs: Hier erfahren Sie, warum kleine Sprachmodelle die Zukunft der KI sind
Quick Links
Zusammenfassung
- Große Unternehmen wie Open AI, Google, Microsoft und Meta investieren in SLMs.
- SLMs erfreuen sich branchenweit zunehmender Beliebtheit und sind als zukünftige KI besser positioniert.
- Beispiele für SLMs sind Google Nano, Microsofts Phi-3 und Open AIs GPT-4o mini.
Mit der Veröffentlichung von ChatGPT von Open AI kommen große Sprachmodelle (LLMs) auf den Markt. Seitdem haben mehrere Unternehmen auch ihre LLMs eingeführt, aber immer mehr Unternehmen tendieren zu kleinen Sprachmodellen (SLMs).
SLMs gewinnen an Bedeutung, aber was sind sie und wie unterscheiden sie sich von LLMs?
Was ist ein kleines Sprachmodell?
Ein kleines Sprachmodell (SLM) ist eine Art Modell der künstlichen Intelligenz mit weniger Parametern (stellen Sie sich dies als einen Wert im Modell vor, der während des Trainings gelernt wurde). Wie ihre größeren Gegenstücke können SLMs Text generieren und andere Aufgaben ausführen. Allerdings verwenden SLMs weniger Datensätze für das Training, haben weniger Parameter und erfordern weniger Rechenleistung zum Trainieren und Ausführen.
SLMs konzentrieren sich auf Schlüsselfunktionen und ihr geringer Platzbedarf bedeutet, dass sie auf verschiedenen Geräten, einschließlich diesen, bereitgestellt werden können die nicht über High-End-Hardware wie Mobilgeräte verfügen. Googles Nano beispielsweise ist ein von Grund auf neu entwickeltes On-Device-SLM, das auf Mobilgeräten läuft. Aufgrund seiner geringen Größe kann Nano nach Angaben des Unternehmens lokal mit oder ohne Netzwerkverbindung ausgeführt werden.
Neben Nano gibt es noch viele andere SLMs von führenden und aufstrebenden Unternehmen im KI-Bereich. Zu den beliebten SLMs gehören Phi-3 von Microsoft, GPT-4o mini von OpenAI, Claude 3 Haiku von Anthropic, Llama 3 von Meta und Mixtral 8x7B von Mistral AI.
Andere Optionen sind ebenfalls verfügbar, die Sie vielleicht für LLMs halten, es aber sind SLMs. Dies gilt insbesondere, wenn man bedenkt, dass die meisten Unternehmen den Multi-Modell-Ansatz verfolgen und mehr als ein Sprachmodell in ihrem Portfolio veröffentlichen und sowohl LLMs als auch SLMs anbieten. Ein Beispiel ist GPT-4, das verschiedene Modelle hat, darunter GPT-4, GPT-4o (Omni) und GPT-4o mini.
Kleine Sprachmodelle vs. große Sprachmodelle
Bei der Diskussion von SLMs können wir ihre großen Gegenstücke nicht ignorieren: LLMs. Der wesentliche Unterschied zwischen einem SLM und einem LLM ist die Modellgröße, die anhand von Parametern gemessen wird.
Zum jetzigen Zeitpunkt besteht in der KI-Branche kein Konsens über die maximale Anzahl Anzahl der Parameter, die ein Modell nicht überschreiten sollte, um als SLM zu gelten, bzw. die Mindestanzahl, die erforderlich ist, um als LLM zu gelten. Allerdings verfügen SLMs typischerweise über Millionen bis einige Milliarden Parameter, während LLMs mehr haben, bis zu Billionen.
Zum Beispiel hat GPT-3, das im Jahr 2020 veröffentlicht wurde, 175 Milliarden Parameter (und die Es wird gemunkelt, dass das GPT-4-Modell rund 1,76 Billionen hat), während Microsofts 2024 Phi-3-mini, Phi-3-small und Phi-3-Medium-SLMs messen jeweils 3,8, 7 und 14 Milliarden Parameter.
Ein weiterer Unterscheidungsfaktor zwischen SLMs und LLMs ist die Menge der für das Training verwendeten Daten. SLMs werden auf kleineren Datenmengen trainiert, während LLMs große Datensätze verwenden. Dieser Unterschied wirkt sich auch auf die Fähigkeit des Modells aus, komplexe Aufgaben zu lösen.
Aufgrund der großen Datenmenge, die im Training verwendet wird, eignen sich LLMs besser für die Lösung verschiedener Arten komplexer Aufgaben, die fortgeschrittenes Denken erfordern, während SLMs besser für einfachere Aufgaben geeignet sind Aufgaben. Im Gegensatz zu LLMs verwenden SLMs weniger Trainingsdaten, aber die verwendeten Daten müssen von höherer Qualität sein, um viele der in LLMs enthaltenen Funktionen in einem winzigen Paket zu erreichen.
Warum kleine Sprachmodelle die Zukunft sind
Für die meisten Anwendungsfälle sind SLMs besser positioniert, um zu den Mainstream-Modellen zu werden, die von Unternehmen und Verbrauchern zur Ausführung einer Vielzahl von Aufgaben verwendet werden. Klar, LLMs haben ihre Vorteile und sind für bestimmte Anwendungsfälle, etwa die Lösung komplexer Aufgaben, besser geeignet. Aus folgenden Gründen sind SLMs jedoch für die meisten Anwendungsfälle die Zukunft.
1. Geringere Schulungs- und Wartungskosten

SLMs benötigen für die Schulung weniger Daten als LLMs, was sie zur praktikabelsten Option für Einzelpersonen und kleine bis mittlere Unternehmen mit begrenzten Schulungsdaten, begrenzten Finanzen oder beidem macht. LLMs erfordern große Mengen an Trainingsdaten und damit auch enorme Rechenressourcen für das Training und den Betrieb.
Um dies ins rechte Licht zu rücken: Sam Altman, CEO von OpenAI, bestätigte, dass das Training mehr als 100 Millionen US-Dollar gekostet hat GPT-4 während einer Rede auf einer Veranstaltung am MIT (gemäß Wired). Ein weiteres Beispiel ist Metas OPT-175B LLM. Meta sagt es wurde mit 992 NVIDIA A100 80GB GPUs trainiert, die laut CNBC etwa 10.000 US-Dollar pro Einheit kosten. Damit belaufen sich die Kosten auf etwa 9 Millionen US-Dollar, ohne andere Ausgaben wie Energie, Gehälter und mehr.
Bei solchen Zahlen ist es für kleine und mittlere Unternehmen nicht rentabel, einen LLM auszubilden. Im Gegensatz dazu weisen SLMs hinsichtlich der Ressourcen eine geringere Eintrittsbarriere auf und sind kostengünstiger im Betrieb, sodass mehr Unternehmen sie annehmen werden.
2. Bessere Leistung

Leistung ist ein weiterer Bereich, in dem SLMs LLMs aufgrund ihrer kompakten Größe schlagen. SLMs haben eine geringere Latenz und eignen sich besser für Szenarien, in denen schnellere Reaktionen erforderlich sind, beispielsweise in Echtzeitanwendungen. Beispielsweise wird in Sprachantwortsystemen wie digitalen Assistenten eine schnellere Antwort bevorzugt.
Die Ausführung auf dem Gerät (mehr dazu später) bedeutet auch, dass Ihre Anfrage nicht den Weg zu Online-Servern und zurück zurücklegen muss Reagieren Sie auf Ihre Anfrage, was zu schnelleren Antworten führt.
3. Genauer

Wenn es um generative KI geht, bleibt eines konstant: Müll rein, Müll raus. Aktuelle LLMs wurden mithilfe großer Datensätze roher Internetdaten trainiert. Daher sind sie möglicherweise nicht in allen Situationen genau. Dies ist eines der Probleme mit ChatGPT und ähnlichen Modellen und der Grund, warum Sie nicht allem vertrauen sollten, was ein KI-Chatbot sagt. Andererseits werden SLMs mit qualitativ hochwertigeren Daten trainiert als LLMs und weisen daher eine höhere Genauigkeit auf.
SLMs können auch durch gezieltes Training auf bestimmte Aufgaben oder Domänen weiter verfeinert werden, was zu einer besseren Genauigkeit bei diesen führt Bereiche im Vergleich zu größeren, allgemeineren Modellen.
4. Kann auf dem Gerät ausgeführt werden

SLMs benötigen weniger Rechenleistung als LLMs und eignen sich daher ideal für Edge-Computing-Fälle. Sie können auf Edge-Geräten wie Smartphones und autonomen Fahrzeugen eingesetzt werden, die nicht über große Rechenleistung oder Ressourcen verfügen. Das Nano-Modell von Google kann auf dem Gerät ausgeführt werden, sodass es auch dann funktioniert, wenn Sie keine aktive Internetverbindung haben.
Diese Fähigkeit stellt eine Win-Win-Situation sowohl für Unternehmen als auch für Verbraucher dar. Erstens ist es ein Gewinn für den Datenschutz, da Benutzerdaten lokal verarbeitet und nicht an die Cloud gesendet werden, was wichtig ist, da in unseren Smartphones mehr KI integriert ist, die nahezu jedes Detail über uns enthält. Es ist auch ein Gewinn für Unternehmen, da sie keine großen Server bereitstellen und betreiben müssen, um KI-Aufgaben zu bewältigen.
SLMs gewinnen an Dynamik, wobei die größten Branchenakteure wie Open AI, Google, Microsoft, Anthropic und Meta veröffentlichen solche Modelle. Diese Modelle eignen sich eher für einfachere Aufgaben, wofür die meisten von uns LLMs verwenden; Daher sind sie die Zukunft.
Aber LLMs führen nirgendwo hin. Stattdessen werden sie für fortgeschrittene Anwendungen verwendet, die Informationen aus verschiedenen Bereichen kombinieren, um etwas Neues zu schaffen, wie etwa in der medizinischen Forschung.
Das obige ist der detaillierte Inhalt vonJenseits von LLMs: Hier erfahren Sie, warum kleine Sprachmodelle die Zukunft der KI sind. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Der Artikel überprüft Top -KI -Kunstgeneratoren, diskutiert ihre Funktionen, Eignung für kreative Projekte und Wert. Es zeigt MidJourney als den besten Wert für Fachkräfte und empfiehlt Dall-E 2 für hochwertige, anpassbare Kunst.

Metas Lama 3.2: Ein Sprung nach vorne in der multimodalen und mobilen KI Meta hat kürzlich Lama 3.2 vorgestellt, ein bedeutender Fortschritt in der KI mit leistungsstarken Sichtfunktionen und leichten Textmodellen, die für mobile Geräte optimiert sind. Aufbau auf dem Erfolg o

Der Artikel vergleicht Top -KI -Chatbots wie Chatgpt, Gemini und Claude und konzentriert sich auf ihre einzigartigen Funktionen, Anpassungsoptionen und Leistung in der Verarbeitung und Zuverlässigkeit natürlicher Sprache.

Hey da, codieren Ninja! Welche Codierungsaufgaben haben Sie für den Tag geplant? Bevor Sie weiter in diesen Blog eintauchen, möchte ich, dass Sie über all Ihre Coding-Leiden nachdenken-die Auflistung auflisten diese auf. Erledigt? - Lassen Sie ’

In dem Artikel werden Top -KI -Schreibassistenten wie Grammarly, Jasper, Copy.ai, Writesonic und RYTR erläutert und sich auf ihre einzigartigen Funktionen für die Erstellung von Inhalten konzentrieren. Es wird argumentiert, dass Jasper in der SEO -Optimierung auszeichnet, während KI -Tools dazu beitragen, den Ton zu erhalten

Die KI -Landschaft dieser Woche: Ein Wirbelsturm von Fortschritten, ethischen Überlegungen und regulatorischen Debatten. Hauptakteure wie OpenAI, Google, Meta und Microsoft haben einen Strom von Updates veröffentlicht, von bahnbrechenden neuen Modellen bis hin zu entscheidenden Verschiebungen in LE

Das jüngste Memo von Shopify -CEO Tobi Lütke erklärt kühn für jeden Mitarbeiter eine grundlegende Erwartung und kennzeichnet eine bedeutende kulturelle Veränderung innerhalb des Unternehmens. Dies ist kein flüchtiger Trend; Es ist ein neues operatives Paradigma, das in P integriert ist

Einführung Stellen Sie sich vor, Sie gehen durch eine Kunstgalerie, umgeben von lebhaften Gemälden und Skulpturen. Was wäre, wenn Sie jedem Stück eine Frage stellen und eine sinnvolle Antwort erhalten könnten? Sie könnten fragen: „Welche Geschichte erzählst du?
