In den letzten Jahren hat sich Hugging Face [https://huggingface.co/] zu einer der einflussreichsten Plattformen in der Community des maschinellen Lernens entwickelt und bietet Entwicklern und Forschern eine breite Palette an Tools und Ressourcen. Eines der bemerkenswertesten Angebote ist die Transformers-Bibliothek, die die Nutzung modernster Modelle, Datensätze und Anwendungen erleichtert. Mit dieser Bibliothek können Benutzer vorab trainierte Modelle nahtlos in ihre Projekte integrieren und Arbeitsabläufe für maschinelles Lernen beschleunigen.
In diesem Artikel erkunden wir die Transformers-Bibliothek, wie man sie installiert, und stellen einige praktische Anwendungsfälle mit Pipelines für Aufgaben wie Sentimentanalyse, Textgenerierung und Zero-Shot-Klassifizierung vor.
Die Transformers-Bibliothek bietet APIs und Tools zum Herunterladen und Trainieren hochmoderner vorab trainierter Modelle, die für eine Vielzahl von Aufgaben optimiert sind, darunter Natural Language Processing (NLP) und Computer Vision und multimodale Anwendungen. Durch die Verwendung vorab trainierter Modelle können Sie Ihre Rechenkosten, Ihren CO2-Fußabdruck und die Zeit, die zum Trainieren eines Modells von Grund auf benötigt wird, drastisch reduzieren. Dies ist eine großartige Möglichkeit, den Entwicklungszyklus zu beschleunigen und die neuesten Fortschritte im maschinellen Lernen zu nutzen.
Die Bibliothek unterstützt Python 3.6 und arbeitet nahtlos mit Deep-Learning-Frameworks wie PyTorch, TensorFlow und Flax zusammen. Es ermöglicht Ihnen, Modelle direkt vom Hugging Face-Modell-Hub herunterzuladen und sie mit nur wenigen Codezeilen für Inferenzen zu verwenden.
Bevor Sie mit der Verwendung der Transformers-Bibliothek beginnen, müssen Sie unbedingt Ihre Entwicklungsumgebung einrichten. So können Sie es installieren:
Beginnen Sie mit der Erstellung einer virtuellen Umgebung in Ihrem Projektverzeichnis:
python -m venv .myenv
Aktivieren Sie die virtuelle Umgebung:
source .myenv/bin/activate
Stellen Sie sicher, dass Sie die richtige Python-Version verwenden:
python -V
Stellen Sie sicher, dass Sie Python 3.6 verwenden (z. B. Python 3.10.10).
Pip auf die neueste Version aktualisieren:
pip install --upgrade pip
Jetzt können Sie Transformers installieren. Wenn Sie PyTorch verwenden, installieren Sie es zusammen mit der Bibliothek mit dem folgenden Befehl:
pip install 'transformers[torch]'
Für TensorFlow 2.0:
pip install 'transformers[tf-cpu]'
Für Flachs (in Forschungsumgebungen verwendet):
python -m venv .myenv
Wenn Sie einen M Mac oder eine ARM-basierte Architektur verwenden, benötigen Sie möglicherweise zusätzliche Abhängigkeiten:
source .myenv/bin/activate
Sobald alles eingerichtet ist, überprüfen Sie, ob die Installation erfolgreich war, indem Sie diesen Python-Befehl ausführen:
python -V
Bei Erfolg sollten Sie eine Ausgabe ähnlich der folgenden sehen:
pip install --upgrade pip
Die Pipeline-API in der Transformers-Bibliothek von Hugging Face erleichtert die Durchführung komplexer maschineller Lernaufgaben, ohne sich mit dem zugrunde liegenden Code oder den Modelldetails auseinanderzusetzen. Die Pipeline übernimmt automatisch die Vorverarbeitung, Modellinferenz und Nachbearbeitung für Sie.
Sehen wir uns an, wie Sie einige beliebte Aufgaben mit der Pipeline-API verwenden können.
Bei der Stimmungsanalyse geht es darum, den emotionalen Ton hinter einem Text zu bestimmen, beispielsweise ob er positiv oder negativ ist. So können Sie die Pipeline-API verwenden, um eine Stimmungsanalyse durchzuführen:
pip install 'transformers[torch]'
Ausgabe:
pip install 'transformers[tf-cpu]'
Die Pipeline verarbeitet zunächst den Text vor (Tokenisierung), leitet ihn durch das Modell und verarbeitet schließlich die Ergebnisse nach. In diesem Fall klassifiziert das Modell die Eingabe als POSITIV mit einem hohen Wert von 0,999.
Transformers bietet auch eine einfache Möglichkeit, Text mit einem vorab trainierten Sprachmodell wie GPT-2 zu generieren. Unten sehen Sie ein Beispiel für die Verwendung der Textgenerierungspipeline:
pip install 'transformers[flax]'
Ausgabe:
brew install cmake brew install pkg-config
Das Modell generiert drei verschiedene Textvarianten basierend auf der Aufforderung „Ich liebe dich“. Dies ist nützlich, um kreative Inhalte zu generieren oder einen bestimmten Satz zu vervollständigen.
Zero-Shot-Klassifizierung ist eine leistungsstarke Funktion, die es Ihnen ermöglicht, Text in Kategorien zu klassifizieren, ohne das Modell explizit auf diese Kategorien zu trainieren. Sie können beispielsweise einen Text in vordefinierte Beschriftungen klassifizieren, auch wenn Sie das Modell nicht für diesen bestimmten Datensatz trainiert haben.
Hier ist ein Beispiel:
python -c "from transformers import pipeline; print(pipeline('sentiment-analysis')('we love you'))"
Ausgabe:
[{'label': 'POSITIVE', 'score': 0.9998704791069031}]
Das Modell legt nahe, dass der Text höchstwahrscheinlich als Nachrichten mit einem Konfidenzwert von 0,51 klassifiziert wird.
Sie können die Ergebnisse auch mit einem Kreisdiagramm visualisieren, um ein besseres Gefühl für die Verteilung zu bekommen:
from transformers import pipeline classifier = pipeline("sentiment-analysis", model="distilbert/distilbert-base-uncased-finetuned-sst-2-english") res = classifier("I love you! I love you! I love you!") print(res)
Dadurch wird ein Kreisdiagramm angezeigt, das die Wahrscheinlichkeiten für jede Beschriftung darstellt und Ihnen hilft, zu visualisieren, wie das Modell den Text interpretiert.
Transformers-Bibliothek von Hugging Face bietet eine praktische und leistungsstarke Möglichkeit, auf modernste Modelle zuzugreifen und sie für eine Vielzahl von maschinellen Lernaufgaben zu verwenden. Ganz gleich, ob Sie an Stimmungsanalysen, Textgenerierung oder Zero-Shot-Klassifizierung arbeiten, die Pipeline-API vereinfacht den Prozess der Integration dieser erweiterten Modelle in Ihre Projekte.
Mit leicht verständlichen Installationsanweisungen und praktischen Beispielen können Sie in nur wenigen Schritten mit der Nutzung von Transformers beginnen. Der Hugging Face-Modellhub bietet außerdem eine umfangreiche Sammlung vorab trainierter Modelle, mit denen Sie die neuesten Fortschritte im maschinellen Lernen schnell implementieren können.
Das obige ist der detaillierte Inhalt vonNutzen Sie die Kraft von Hugging Face Transformers für maschinelles Lernen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!