Heim Technologie-Peripheriegeräte KI Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

May 02, 2023 pm 01:58 PM
chatglm 避坑 微调模型

Ich habe gestern gesagt, dass ich nach meiner Rückkehr vom Data Technology Carnival eine Reihe von ChatGLM bereitgestellt habe und geplant habe, die Verwendung großer Sprachmodelle zum Trainieren der Wissensbasis für den Datenbankbetrieb und die Wartung zu studieren. Viele Freunde haben es nicht geglaubt und gesagt, dass Sie es bereits tun Du bist in deinem Alter, Lao Bai, und schaffst es immer noch, diese Dinger wegzuwerfen? Um die Zweifel dieser Freunde zu zerstreuen, werde ich heute den Prozess der Abschaffung von ChatGLM in den letzten beiden Tagen mit Ihnen teilen und auch einige Tipps zur Vermeidung von Fallstricken für Freunde geben, die daran interessiert sind, ChatGLM abzuwerfen.

ChatGLM-6B wurde auf der Grundlage des Sprachmodells GLM entwickelt, das 2023 gemeinsam vom KEG-Labor der Tsinghua-Universität und Zhipu AI trainiert wurde. Es handelt sich um ein groß angelegtes Sprachmodell, das angemessene Antworten und Unterstützung für die Fragen und Anforderungen der Benutzer bietet. Die obige Antwort wird von ChatGLM selbst beantwortet. Es handelt sich um ein vorab trainiertes Open-Source-Modell mit 6,2 Milliarden Parametern. Seine Besonderheit besteht darin, dass es lokal in einer relativ kleinen Hardwareumgebung ausgeführt werden kann. Mit dieser Funktion können Anwendungen, die auf großen Sprachmodellen basieren, in Tausende von Haushalten gelangen. Der Zweck des KEG-Labors besteht darin, das Training des größeren GLM-130B-Modells (130 Milliarden Parameter, entspricht GPT-3.5) in einer Low-End-Umgebung mit einer 8-Wege-RTX 3090 zu ermöglichen.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Wenn dieses Ziel wirklich erreicht werden kann, ist das auf jeden Fall eine gute Nachricht für Leute, die einige Anwendungen basierend auf großen Sprachmodellen erstellen möchten. Das aktuelle FP16-Modell von ChatGLP-6B hat etwas mehr als 13 GB und das INT-4-Quantisierungsmodell weniger als 4 GB. Es kann auf einer RTX 3060TI mit 6 GB Videospeicher ausgeführt werden.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Ich wusste vor der Bereitstellung nicht viel über diese Situationen, also kaufte ich eine 12 GB RTX 3060, die weder hoch noch niedrig war, sodass ich nach Abschluss der Installation und Bereitstellung das FP16-Modell immer noch nicht ausführen konnte. Wenn ich es besser gewusst hätte, Tests und Überprüfungen zu Hause durchzuführen, hätte ich einfach einen günstigeren 3060TI gekauft. Wenn Sie ein verlustfreies FP16-Modell betreiben möchten, müssen Sie sich eine 3090 mit 24 GB Videospeicher besorgen.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Wenn Sie nur die Funktionen von ChatGLP-6B auf Ihrem eigenen Computer testen möchten, müssen Sie das THUDM/ChatGLM-6B-Modell möglicherweise nicht direkt herunterladen. Es gibt einige paketierte quantitative Modelle auf Huggingface heruntergeladen. Die Downloadgeschwindigkeit des Modells ist sehr langsam. Sie können das quantitative Int4-Modell direkt herunterladen.

Ich habe diese Installation auf einem I7 8-Core-PC mit einer RTX 3060-Grafikkarte mit 12G-Videospeicher abgeschlossen. Da es sich bei diesem Computer um meinen Arbeitscomputer handelt, habe ich ChatGLM auf dem WSL-Subsystem installiert. Die Installation von ChatGLM auf dem WINDOWS WSL-Subsystem ist komplizierter als die direkte Installation in einer LINUX-Umgebung. Die größte Gefahr ist die Installation von Grafikkartentreibern. Wenn Sie ChatGLM direkt unter Linux bereitstellen, müssen Sie den NVIDIA-Treiber direkt installieren und den Netzwerkkartentreiber über modprobe aktivieren. Die Installation auf WSL ist ganz anders.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

ChatGLM kann auf Github heruntergeladen werden, und auf der Website gibt es einige einfache Dokumente, darunter sogar ein Dokument für die Bereitstellung von ChatGLM auf WINDOWS WSL. Wenn Sie jedoch ein Neuling auf diesem Gebiet sind und die Implementierung vollständig gemäß diesem Dokument durchführen, werden Sie auf unzählige Fallstricke stoßen.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Das Dokument Requriements.txt listet die Liste und Versionsnummern der wichtigsten Open-Source-Komponenten auf, die von ChatGLM verwendet werden. Tatsächlich sind die Anforderungen nicht so streng. und es ist in Ordnung, wenn es etwas niedriger ist. Es ist ein großes Problem, aber aus Sicherheitsgründen ist es besser, die gleiche Version zu verwenden. Icetk dient der Token-Verarbeitung, cpm_kernels ist der Kernaufruf des chinesischen Verarbeitungsmodells und cuda und protobuf dient der strukturierten Datenspeicherung. Gradio ist ein Framework zur schnellen Generierung von KI-Anwendungen mit Python. Ich brauche keine Einführung in Torch.

ChatGLM kann in einer Umgebung ohne GPU verwendet werden, wobei die CPU und 32 GB physischer Speicher zum Ausführen verwendet werden. Die Laufgeschwindigkeit ist jedoch sehr langsam und kann nur zur Demonstrationsüberprüfung verwendet werden. Wenn Sie ChatGLM spielen möchten, rüsten Sie sich am besten mit einer GPU aus.

Die größte Gefahr bei der Installation von ChatGLM auf WSL ist der Grafikkartentreiber. Die Dokumentation für ChatGLM auf Git ist sehr unfreundlich. Für Leute, die nicht viel über dieses Projekt wissen oder noch nie eine solche Bereitstellung durchgeführt haben, ist die Dokumentation wirklich verwirrend. Tatsächlich ist die Softwarebereitstellung kein Problem, aber der Grafikkartentreiber ist sehr knifflig.

Da es auf dem WSL-Subsystem bereitgestellt wird, ist LINUX nur ein Emulationssystem, kein vollständiges LINUX. Daher muss der NVIDIA-Grafiktreiber nur unter WINDOWS installiert und nicht in WSL aktiviert werden. CUDA TOOLS muss jedoch weiterhin in der virtuellen LINUX-Umgebung von WSL installiert werden. Der NVIDIA-Treiber unter WINDOWS muss den neuesten Treiber von der offiziellen Website installieren und kann den mit WIN10/11 gelieferten Kompatibilitätstreiber nicht verwenden. Laden Sie daher den neuesten Treiber von der offiziellen Website herunter und installieren Sie ihn.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Nach der Installation des WIN-Treibers können Sie cuda tools direkt in WSL installieren. Wenn Sie die obige Schnittstelle sehen, haben Sie die erste Grube erfolgreich vermieden. Tatsächlich stoßen Sie bei der Installation von Cuda-Tools auf mehrere Fallstricke. Das heißt, auf Ihrem System müssen entsprechende Versionen von gcc, gcc-dev, make und anderen kompilierungsbezogenen Tools installiert sein. Wenn diese Komponenten fehlen, schlägt die Installation der cuda-Tools fehl.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Das Obige ist die Fallstrickvorbereitung. Tatsächlich wird der Fallstrick des NVIDIA-Treibers vermieden und die anschließende Installation verläuft immer noch sehr reibungslos. In Bezug auf die Systemauswahl empfehle ich weiterhin, Debian-kompatibles Ubuntu zu wählen. Die neue Version von Ubuntu ist sehr intelligent und kann Ihnen dabei helfen, Versionskompatibilitätsprobleme einer großen Anzahl von Software zu lösen und ein automatisches Versions-Downgrade einiger Software zu realisieren.

Der folgende Installationsvorgang kann reibungslos abgeschlossen werden, indem die Installationsanleitung vollständig befolgt wird. Es ist zu beachten, dass die Arbeit zum Ersetzen der Installationsquellen in /etc/apt/sources.list einerseits am besten durchgeführt wird , wird die Installationsgeschwindigkeit viel schneller sein, außerdem werden dadurch einerseits Kompatibilitätsprobleme mit der Softwareversion vermieden. Wenn Sie es nicht ersetzen, hat dies natürlich keine Auswirkungen auf den nachfolgenden Installationsprozess.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Wenn Sie die vorherigen Level erfolgreich bestanden haben, dann haben Sie den letzten Schritt erreicht und starten web_demo. Durch Ausführen von python3 web_demo.py kann ein Beispiel für eine WEB-Konversation gestartet werden. Wenn Sie zu diesem Zeitpunkt ein armer Mensch sind und nur eine 3060 mit 12 GB Videospeicher haben, wird Ihnen der obige Fehler definitiv angezeigt. Selbst wenn Sie PYTORCH_CUDA_ALLOC_CONF auf den Mindestwert 21 setzen, können Sie diesen Fehler nicht vermeiden. Zu diesem Zeitpunkt dürfen Sie nicht faul sein, Sie müssen einfach das Python-Skript neu schreiben.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Die Standardeinstellung web_demo.py verwendet das vorab trainierte FP16-Modell. Ein Modell mit mehr als 13 GB wird definitiv nicht in die vorhandenen 12 GB geladen, daher müssen Sie eine kleine Anpassung an diesem Code vornehmen.

Mehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM

Sie können zu quantize(4) wechseln, um das INT4-Quantisierungsmodell zu laden, oder zu quantize(8) wechseln, um das INT8-Quantisierungsmodell zu laden. Auf diese Weise reicht der Speicher Ihrer Grafikkarte aus und Sie können verschiedene Gespräche führen.

Es ist zu beachten, dass der Download des Modells erst richtig beginnt, wenn web_demo.py gestartet wird, sodass das Herunterladen des 13-GB-Modells lange dauern wird. Sie können diese Arbeit mitten in der Nacht erledigen, oder Sie Sie können Thunder direkt verwenden. Warten Sie, bis das Download-Tool das Modell von Hugging Face im Voraus heruntergeladen hat. Wenn Sie nichts über das Modell wissen und nicht sehr gut darin sind, das heruntergeladene Modell zu installieren, können Sie auch den Modellnamen im Code, THUDM/chatglm-6b-int4, ändern und das INT4-quantisierte Modell mit weniger als 4 GB direkt von herunterladen Das Internet wird viel schneller sein, aber Ihre kaputte Grafikkarte kann das FP16-Modell sowieso nicht ausführen.

Zu diesem Zeitpunkt können Sie über die Webseite mit ChatGLM sprechen, aber das ist erst der Anfang des Problems. Erst wenn Sie Ihr fein abgestimmtes Modell trainieren können, kann Ihre Reise in ChatGLM wirklich beginnen. Das Spielen solcher Dinge erfordert immer noch viel Energie und Geld. Seien Sie also vorsichtig, wenn Sie in die Falle tappen.

Abschließend bin ich meinen Freunden vom KEG-Labor an der Tsinghua-Universität sehr dankbar. Ihre Arbeit ermöglicht es mehr Menschen, große Sprachmodelle zu geringen Kosten zu nutzen.

Das obige ist der detaillierte Inhalt vonMehrere Tipps zur Vermeidung von Fallstricken bei der Verwendung von ChatGLM. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Was ist das Modellkontextprotokoll (MCP)? Was ist das Modellkontextprotokoll (MCP)? Mar 03, 2025 pm 07:09 PM

Das Modellkontextprotokoll (MCP): ein universeller Anschluss für KI und Daten Wir alle vertraut mit der Rolle von AI bei der täglichen Codierung. Replit, Github Copilot, Black Box AI und Cursor IDE sind nur einige Beispiele dafür, wie KI unsere Workflows optimiert. Aber stell dir vor

Aufbau eines lokalen Vision Agents mit Omniparser V2 und Omnitool Aufbau eines lokalen Vision Agents mit Omniparser V2 und Omnitool Mar 03, 2025 pm 07:08 PM

Microsoft's Omniparser V2 und Omnitool: Revolutionierung der GUI -Automatisierung mit KI Stellen Sie sich AI vor, das nicht nur versteht, sondern auch mit Ihrer Windows 11 -Oberfläche wie ein erfahrener Profi interagiert. Microsofts Omniparser V2 und Omnitool machen dies zu einer Re

Ich habe versucht, die Vibe -Codierung mit Cursor AI und es ist erstaunlich! Ich habe versucht, die Vibe -Codierung mit Cursor AI und es ist erstaunlich! Mar 20, 2025 pm 03:34 PM

Die Vibe -Codierung verändert die Welt der Softwareentwicklung, indem wir Anwendungen mit natürlicher Sprache anstelle von endlosen Codezeilen erstellen können. Inspiriert von Visionären wie Andrej Karpathy, lässt dieser innovative Ansatz Dev

Replit Agent: Ein Leitfaden mit praktischen Beispielen Replit Agent: Ein Leitfaden mit praktischen Beispielen Mar 04, 2025 am 10:52 AM

Revolutionierung der App -Entwicklung: Ein tiefes Eintauchen in den Replit Agent Müde, mit komplexen Entwicklungsumgebungen und dunklen Konfigurationsdateien zu ringen? Replit Agent zielt darauf ab, den Prozess der Umwandlung von Ideen in funktionale Apps zu vereinfachen. Diese AI-P

Runway Act-One Guide: Ich habe mich gefilmt, um es zu testen Runway Act-One Guide: Ich habe mich gefilmt, um es zu testen Mar 03, 2025 am 09:42 AM

Dieser Blog-Beitrag teilt mit meiner Erfahrung mit dem neuen Animation-Tool von Runway ML von ML und dem Deckung sowohl der Weboberfläche als auch der Python-API. Während der Versprechen waren meine Ergebnisse weniger beeindruckend als erwartet. Möchten Sie generative KI erkunden? Lernen Sie, LLMs in p zu verwenden

Top 5 Genai Starts vom Februar 2025: GPT-4,5, GROK-3 & MEHR! Top 5 Genai Starts vom Februar 2025: GPT-4,5, GROK-3 & MEHR! Mar 22, 2025 am 10:58 AM

Februar 2025 war ein weiterer bahnbrechender Monat für die Generative KI, die uns einige der am meisten erwarteten Modell-Upgrades und bahnbrechenden neuen Funktionen gebracht hat. Von Xais Grok 3 und Anthropics Claude 3.7 -Sonett, um g zu eröffnen

Wie benutze ich Yolo V12 zur Objekterkennung? Wie benutze ich Yolo V12 zur Objekterkennung? Mar 22, 2025 am 11:07 AM

Yolo (Sie schauen nur einmal) war ein führender Echtzeit-Objekterkennungsrahmen, wobei jede Iteration die vorherigen Versionen verbessert. Die neueste Version Yolo V12 führt Fortschritte vor, die die Genauigkeit erheblich verbessern

Elon Musk & Sam Altman kämpfen über 500 Milliarden US -Dollar Stargate -Projekt Elon Musk & Sam Altman kämpfen über 500 Milliarden US -Dollar Stargate -Projekt Mar 08, 2025 am 11:15 AM

Das 500 -Milliarden -Dollar -Stargate AI -Projekt, das von Tech -Giganten wie Openai, Softbank, Oracle und Nvidia unterstützt und von der US -Regierung unterstützt wird, zielt darauf ab, die amerikanische KI -Führung zu festigen. Dieses ehrgeizige Unternehmen verspricht eine Zukunft, die von AI Advanceme geprägt ist

See all articles