Microsofts Phi-3,5-Familie von großer Sprachmodellen (LLMs) tritt neben Meta AI in die Wettbewerbsarena ein. Dieses Tutorial beschreibt ein phi-3.5-Modell für die E-Commerce-Produktklassifizierung unter Verwendung von Textbeschreibungen. Wir werden das Modellladen, Feinabstimmung mit LORA (Anpassung mit niedriger Rang), das Zusammenführen der angepassten Gewichte mit dem Basismodell und Bereitstellung auf dem Umarmungsgesicht für Cloud-Zugänglichkeit abdecken.
Dieses Tutorial untersucht die Phi-3,5-Modellfamilie von Microsoft und umfasst den PHI-3,5-Mini, Phi-3,5-Vision und das MIE-von Experten (MOE), Phi-3,5-MOE.
phi-3,5-mini zeichnet sich in mehrsprachiger Unterstützung mit einer Kontextlänge von 128K aus und liefert die Leistung mit größeren Modellen vergleichbar. Die PHI-3,5-Vision ist ein leichtes multimodales Modell, das im Multi-Rahmen-Bildverständnis geschickt ist. Phi-3,5-MOE mit 16 Experten und 6,6 Milliarden Parametern bietet hohe Leistung und robuste Sicherheitsfunktionen.
Das Tutorial konzentriert
Zugriff auf und verwenden Sie phi-3,5-mini-in-struktur
Dieser Abschnitt führt Sie durch das Laden des Modells und die Durchführung von Inferenz auf der Kaggle -Plattform.
und transformers
. accelerate
. Anschließend wird eine Text-Generationspipeline erstellt. transformers
feinabstimmig phi-3,5-mini-instruktur für die E-Commerce-Klassifizierung
In diesem Abschnitt wird beschriebenEinrichten eines Kaggle -Notizbuchs mit GPU -Beschleunigung, Umarmung und Gewichten und Verzerrungen API -Tasten konfiguriert.
bitsandbytes
, transformers
und accelerate
. Gewichte und Verzerrungen Die Integration ist ebenfalls konfiguriert. peft
trl
Laden Sie das 4-Bit-quantisierte Modell und den Tokenizer.
Das Modell wird vor Feinabstimmung bewertet, um eine Basisleistung zu ermitteln.
trainiert. Der Trainingsverlust wird über Gewichte und Verzerrungen überwacht. trainer.train()
Zusammenführen und exportieren Sie das fein abgestimmte Modell
In diesem Abschnitt wird das Verschmelzung der Lora mit dem Basismodell erläutert und es zum Umarmungsgesicht drückt.
und PeftModel.from_pretrained()
. model.merge_and_unload()
verschmolzen
Dieses Tutorial zeigte die Effizienz und Fähigkeiten der Phi-3,5-Modelle von Microsoft, insbesondere von pHi-3,5-mini-Einbrüchen, und zeigte eine signifikante Leistungsverbesserung durch Feinabstimmung und LORA-Anpassung. Der Prozess der Bereitstellung des fein abgestimmten Modells für das Umarmungsgesicht ist ebenfalls detailliert, wodurch das Modell für eine breitere Verwendung leicht zugänglich ist. Das Tutorial schließt mit dem Vorschlag weiterer LLM -Projektideen.
Das obige ist der detaillierte Inhalt vonFeinabstimmungs-PHI-3.5 im E-Commerce-Klassifizierungsdatensatz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!