Ich musste kürzlich Sätze für einen bestimmten Anwendungsfall bei der Arbeit klassifizieren. Ich erinnerte mich an Jeremy Howards Lektion 4: Erste Schritte mit NLP für absolute Anfänger und passte zunächst sein Notizbuch an, um DEBERTA zu verfeinern.
Es hat funktioniert, aber nicht zu meiner Zufriedenheit, also war ich neugierig, was passieren würde, wenn ich ein LLM wie LLAMA 3 verwenden würde. Das Problem? Begrenzte GPU-Ressourcen. Ich hatte nur Zugriff auf eine Tesla/Nvidia T4-Instanz.
Recherchen führten mich zu QLORA. Dieses Tutorial zur Feinabstimmung von LLama 3 LLM für die Textklassifizierung der Aktienstimmung mithilfe von QLoRA war besonders nützlich. Um das Tutorial besser zu verstehen, habe ich Lektion 4 in das QLORA-Tutorial-Notizbuch übernommen.
QLORA verwendet zwei Haupttechniken:
Dadurch konnte ich LLAMA 3 8B auf einem 16 GB VRAM T4 trainieren und dabei etwa 12 GB VRAM verwenden. Die Ergebnisse waren überraschend gut, mit einer Vorhersagegenauigkeit von über 90 %.
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
Hier ist das iPython-Notizbuch, das den Prozess detailliert beschreibt.
Dieser Ansatz zeigt, dass es möglich ist, mit großen Sprachmodellen auf begrenzter Hardware zu arbeiten. Die Arbeit mit Einschränkungen führt oft zu kreativen Problemlösungs- und Lernmöglichkeiten. In diesem Fall drängten mich die Einschränkungen dazu, effizientere Feinabstimmungstechniken zu erforschen und zu implementieren.
Das obige ist der detaillierte Inhalt vonFeinabstimmung der LLAMA- oder Textklassifizierung mit begrenzten Ressourcen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!