


Das erste LLM, das die 4-Bit-Gleitkomma-Quantisierung unterstützt, ist da und löst die Bereitstellungsprobleme von LLaMA, BERT usw.
Die Komprimierung großer Sprachmodelle (LLM) hat schon immer große Aufmerksamkeit auf sich gezogen, und die Quantisierung nach dem Training ist einer der am häufigsten verwendeten Algorithmen. Die meisten vorhandenen PTQ-Methoden sind jedoch Ganzzahlquantisierung und wenn die Zahl Wenn die Anzahl der Bits weniger als 8 beträgt, nimmt die Genauigkeit des Modells nach der Quantisierung stark ab. Im Vergleich zur Integer-Quantisierung (INT) kann die Floating-Point-Quantisierung (FP) Long-Tail-Verteilungen besser darstellen, sodass immer mehr Hardwareplattformen beginnen, die FP-Quantisierung zu unterstützen. Dieser Artikel bietet eine Lösung für die FP-Quantifizierung großer Modelle. Artikel veröffentlicht bei EMNLP 2023.
- Papieradresse: https://arxiv.org/abs/2310.16836
- Codeadresse: https://github.com/nbasyl/LLM-FP4
Um diesen Artikel zu verstehen, müssen Sie zunächst über Grundkenntnisse über das Gleitkommaformat und die Gleitkommaquantisierung verfügen. Erstens kann die Gleitkommazahl durch die folgende Formel ausgedrückt werden:
s stellt das Vorzeichenbit dar. m repräsentiert die Mantissenbits und e repräsentiert die Exponentenbits. p ist ein Wert zwischen 0 und 2^e - 1 und gibt an, in welches Exponentialintervall die aktuelle Zahl geteilt werden soll. d nimmt einen Wert von 0 oder 1 an und gibt das i-te Mantissenbit an. b ist Bias, ein ganzzahliger Wert, der zum Anpassen des Exponentenintervalls verwendet wird.
Im nächsten Abschnitt erklären wir, wie die Gleitkomma-Quantisierung funktioniert. Zunächst müssen die Eingabewerte einen Schritt namens „Skalieren und Zuschneiden“ durchlaufen. Dieser Schritt schneidet zunächst den Eingabewert auf den maximalen Bereich ab, den Gleitkommazahlen darstellen können (±Qmax). Die spezifische Berechnungsformel lautet wie folgt:
Sie können sehen, dass dies der Ganzzahlquantisierung FP ähnelt Durch die Quantisierung wird außerdem ein Skalierungsfaktor mit voller Präzision hinzugefügt, um die Eingabe auf das entsprechende Intervall zu skalieren. Bei der Berechnung der Matrixmultiplikation wird der Skalierungsfaktor getrennt von der Low-Bit-Matrixmultiplikation berechnet, sodass kein großer Overhead entsteht. Nach Einbeziehung dieses Skalierungsfaktors mit voller Präzision können verschiedene quantisierte Tensoren entsprechend auf unterschiedliche Maximal- und Minimalwertintervalle begrenzt werden. Bei der tatsächlichen Verwendung wird das erforderliche Quantisierungsintervall basierend auf dem Wertebereich des Eingabetensors bestimmt und dann die entsprechende Vorspannung mithilfe der Formel (4) abgeleitet. Beachten Sie, dass der Bias in Gleichung (4) als Skalierungsfaktor für reale Werte verwendet werden kann, siehe Gleichung (2)(3).
Der nächste Schritt bei der Gleitkomma-Quantisierung besteht darin, die Werte im ermittelten Quantisierungsintervall dem entsprechenden Quantisierungsintervall zuzuordnen:
Die obige Abbildung veranschaulicht dies intuitiv Beim Quantisierungsprozess wird der aktuelle Eingabewert nach dem Vergleich mit Formel 5 in verschiedene Quantisierungsintervalle quantisiert.
Nachdem die quantisierte Aktivierung und das Gewicht erhalten wurden, wird hier zunächst der Skalierungsfaktor wie oben erwähnt berechnet und die folgende effiziente Matrixmultiplikation erreicht, um die Beschleunigung der Matrixmultiplikation abzuschließen:
Dann Der Artikel weist darauf hin, dass die Genauigkeit der FP-Quantisierung eng mit der Einstellung der Exponentenbits und dem Quantisierungsintervall zusammenhängt.
In früheren Arbeiten wurde bestätigt, dass es große Unterschiede bei den Quantisierungsfehlern zwischen verschiedenen FP-Formaten gibt (d. h. den Exponentenbit/Mantissenbit-Einstellungen von Gleitkommazahlen). Nur wenn ein geeignetes FP-Format gewählt wird, kann die FP-Quantisierung Long-Tail-Verteilungen besser darstellen als die INT-Quantisierung
Dieser Artikel schlägt eine Lösung vor, die darin besteht, einen suchbasierten Gleitkomma-Quantisierungsalgorithmus zu verwenden, um die am besten geeigneten Exponenten- und Mantisseneinstellungen von Gleitkommazahlen und das entsprechende Quantisierungsintervall
in einer umfassenden Suchmethode zu ermitteln. Darüber hinaus gibt es in verschiedenen Arten von Transformer-Modellen (Bert, LLaMA, ViT) ein weiteres Phänomen, das die Schwierigkeit der Quantifizierung erheblich beeinträchtigt: Das heißt, der Größenordnungsunterschied zwischen verschiedenen Kanälen bei der Aktivierung des Modells ist sehr groß. und derselbe Kanal Die Größenordnung ist sehr konsistent. Frühere Studien LLM.int8 und SmoothQuant fanden ebenfalls ähnliche Phänomene, aber dieser Artikel weist darauf hin, dass dieses Phänomen nicht nur in LLM existiert, sondern auch ähnliche Aktivierungsverteilungen in anderen Transformer-Modellen gefunden hat (siehe unten, LLaMA, BERT und DeIT-S). Phänomen:
Wie Sie auf dem Bild sehen können, sind diese ungewöhnlich großen Kanäle viel größer als die übrigen Kanäle, sodass die Quantisierungsgenauigkeit bei der Quantifizierung des Aktivierungstensors weitgehend von diesen Ausreißern bestimmt wird Unterdrückung des Quantisierungsintervalls anderer Kanalwerte, wodurch letztendlich die Gesamtauswirkung auf die Quantisierungsgenauigkeit verringert wird. Dies führt dazu, dass das Endergebnis der Quantisierung zusammenbricht, insbesondere wenn die Anzahl der Bits auf ein bestimmtes Niveau absinkt. Es ist erwähnenswert, dass nur die tensorweise und tokenweise Quantisierung den Skalierungsfaktor während der effizienten Matrixmultipilierung extrahieren kann, während die kanalweise Quantisierung keine effiziente Matrixmultipilierung unterstützt, wie in der folgenden Abbildung dargestellt.
Um das Problem zu lösen und gleichzeitig eine effiziente Matrixmultiplikation aufrechtzuerhalten, verwendet dieser Artikel eine kleine Menge Korrekturdatensatz, um den Maximalwert jedes aktivierten Kanals vorab zu berechnen und die Skalierung zu berechnen Faktor. Der Skalierungsfaktor wird dann für jeden Tensor in eine reelle Zahl multipliziert mit einer Zweierpotenz für jeden Kanal aufgeteilt. Diese Potenz von 2 kann durch die exponentielle Abweichung in FP dargestellt werden. Der gesamte Prozess kann durch die folgende Formel ausgedrückt werden:
Darüber hinaus ändert sich nach Abschluss der Kalibrierung der Exponentenbias pro Kanal nicht mehr, sodass er zusammen mit der Gewichtsquantisierung vorberechnet werden kann Integrieren Sie diese Exponentenverzerrung pro Kanal in die quantisierten Gewichte, um die Quantisierungsgenauigkeit zu verbessern. Der vollständige Prozess ist wie folgt:
Nach dem Vorversatz kann beobachtet werden, dass die Position des Versatzes mit voller Genauigkeit jedes Kanals in der ursprünglichen Aktivierungsfunktion zu einem tensorbasierten realen Skalierungsfaktor wird. Gleichzeitig wird der zerlegte Ganzzahl-Bias an die Position des ursprünglichen Ganzzahl-Bias im Gewicht verschoben. Einzelheiten finden Sie in Formel 4. Daher kann diese Methode (vorverschobener Exponenten-Bias) bessere Ergebnisse erzielen Um das Prinzip der effizienten Matrixmultiplikation zu verbessern, ist die intuitive Darstellung der Methode in der folgenden Abbildung dargestellt:
Abschließend zeigt dieser Artikel die Methode der Gleitkommaquantisierung (FPQ) auf LLaMA In den Modellen BERT und ViTs hat die 4-Bit-Quantisierung weitaus mehr Ergebnisse erzielt als SOTA. Insbesondere zeigt dieser Artikel, dass das 4-Bit-quantisierte LLaMA-13B-Modell bei der Inferenzaufgabe ohne Stichprobe eine durchschnittliche Punktzahl von 63,1 erreicht, was nur 5,8 Punkte niedriger ist als das Modell mit voller Präzision und einen höheren Glättungsgrad als das vorherige aufweist SOTA-Methode 12.7, die derzeit eines der wenigen bekannten realisierbaren 4-Bit-Quantisierungsschemata ist.
Das obige ist der detaillierte Inhalt vonDas erste LLM, das die 4-Bit-Gleitkomma-Quantisierung unterstützt, ist da und löst die Bereitstellungsprobleme von LLaMA, BERT usw.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, die traditionelle Datenverarbeitung zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Dies ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell, ist da. DeepSeek-V2 ist ein leistungsstarkes MoE-Sprachmodell (Mix of Experts) mit den Merkmalen eines wirtschaftlichen Trainings und einer effizienten Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Markers verwendet werden. Im Vergleich zu DeepSeek67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache. DeepSeek ist ein Unternehmen, das sich mit allgemeiner künstlicher Intelligenz beschäftigt

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN

KI verändert tatsächlich die Mathematik. Vor kurzem hat Tao Zhexuan, der diesem Thema große Aufmerksamkeit gewidmet hat, die neueste Ausgabe des „Bulletin of the American Mathematical Society“ (Bulletin der American Mathematical Society) weitergeleitet. Zum Thema „Werden Maschinen die Mathematik verändern?“ äußerten viele Mathematiker ihre Meinung. Der gesamte Prozess war voller Funken, knallhart und aufregend. Der Autor verfügt über eine starke Besetzung, darunter der Fields-Medaillengewinner Akshay Venkatesh, der chinesische Mathematiker Zheng Lejun, der NYU-Informatiker Ernest Davis und viele andere bekannte Wissenschaftler der Branche. Die Welt der KI hat sich dramatisch verändert. Viele dieser Artikel wurden vor einem Jahr eingereicht.

Die von Google geförderte Leistung von JAX hat in jüngsten Benchmark-Tests die von Pytorch und TensorFlow übertroffen und belegt bei 7 Indikatoren den ersten Platz. Und der Test wurde nicht auf der TPU mit der besten JAX-Leistung durchgeführt. Obwohl unter Entwicklern Pytorch immer noch beliebter ist als Tensorflow. Aber in Zukunft werden möglicherweise mehr große Modelle auf Basis der JAX-Plattform trainiert und ausgeführt. Modelle Kürzlich hat das Keras-Team drei Backends (TensorFlow, JAX, PyTorch) mit der nativen PyTorch-Implementierung und Keras2 mit TensorFlow verglichen. Zunächst wählen sie eine Reihe von Mainstream-Inhalten aus

Das neueste Video von Teslas Roboter Optimus ist veröffentlicht und er kann bereits in der Fabrik arbeiten. Bei normaler Geschwindigkeit sortiert es Batterien (Teslas 4680-Batterien) so: Der Beamte hat auch veröffentlicht, wie es bei 20-facher Geschwindigkeit aussieht – auf einer kleinen „Workstation“, pflücken und pflücken und pflücken: Dieses Mal wird es freigegeben. Eines der Highlights Der Vorteil des Videos besteht darin, dass Optimus diese Arbeit in der Fabrik völlig autonom und ohne menschliches Eingreifen während des gesamten Prozesses erledigt. Und aus Sicht von Optimus kann es auch die krumme Batterie aufnehmen und platzieren, wobei der Schwerpunkt auf der automatischen Fehlerkorrektur liegt: In Bezug auf die Hand von Optimus gab der NVIDIA-Wissenschaftler Jim Fan eine hohe Bewertung ab: Die Hand von Optimus ist der fünffingrige Roboter der Welt am geschicktesten. Seine Hände sind nicht nur taktil

In diesem Artikel wird das Problem der genauen Erkennung von Objekten aus verschiedenen Blickwinkeln (z. B. Perspektive und Vogelperspektive) beim autonomen Fahren untersucht, insbesondere wie die Transformation von Merkmalen aus der Perspektive (PV) in den Raum aus der Vogelperspektive (BEV) effektiv ist implementiert über das Modul Visual Transformation (VT). Bestehende Methoden lassen sich grob in zwei Strategien unterteilen: 2D-zu-3D- und 3D-zu-2D-Konvertierung. 2D-zu-3D-Methoden verbessern dichte 2D-Merkmale durch die Vorhersage von Tiefenwahrscheinlichkeiten, aber die inhärente Unsicherheit von Tiefenvorhersagen, insbesondere in entfernten Regionen, kann zu Ungenauigkeiten führen. Während 3D-zu-2D-Methoden normalerweise 3D-Abfragen verwenden, um 2D-Features abzutasten und die Aufmerksamkeitsgewichte der Korrespondenz zwischen 3D- und 2D-Features über einen Transformer zu lernen, erhöht sich die Rechen- und Bereitstellungszeit.

Die Zielerkennung ist ein relativ ausgereiftes Problem in autonomen Fahrsystemen, wobei die Fußgängererkennung einer der ersten Algorithmen ist, die eingesetzt werden. In den meisten Arbeiten wurde eine sehr umfassende Recherche durchgeführt. Die Entfernungswahrnehmung mithilfe von Fischaugenkameras für die Rundumsicht ist jedoch relativ wenig untersucht. Aufgrund der großen radialen Verzerrung ist es schwierig, die standardmäßige Bounding-Box-Darstellung in Fischaugenkameras zu implementieren. Um die obige Beschreibung zu vereinfachen, untersuchen wir erweiterte Begrenzungsrahmen-, Ellipsen- und allgemeine Polygondesigns in Polar-/Winkeldarstellungen und definieren eine mIOU-Metrik für die Instanzsegmentierung, um diese Darstellungen zu analysieren. Das vorgeschlagene Modell „fisheyeDetNet“ mit polygonaler Form übertrifft andere Modelle und erreicht gleichzeitig 49,5 % mAP auf dem Valeo-Fisheye-Kameradatensatz für autonomes Fahren
