


Exploiter la puissance des transformateurs de visage câlins pour l'apprentissage automatique
Ces dernières années, Hugging Face [https://huggingface.co/] est devenue l'une des plateformes les plus influentes de la communauté de l'apprentissage automatique, offrant une large gamme d'outils et de ressources aux développeurs et aux chercheurs. L'une de ses offres les plus remarquables est la bibliothèque Transformers, qui facilite l'exploitation de modèles, d'ensembles de données et d'applications de pointe. Cette bibliothèque permet aux utilisateurs d'intégrer de manière transparente des modèles pré-entraînés dans leurs projets et d'accélérer les flux de travail d'apprentissage automatique.
Dans cet article, nous explorerons la bibliothèque Transformers, comment l'installer et présenterons quelques cas d'utilisation pratiques utilisant des pipelines pour des tâches telles que l'analyse des sentiments, la génération de texte et la classification zéro-shot.
Qu'est-ce que Hugging Face Transformers ?
La Bibliothèque Transformers fournit des API et des outils permettant de télécharger et d'entraîner des modèles pré-entraînés de pointe, optimisés pour diverses tâches, notamment le traitement du langage naturel (NLP), la vision par ordinateur. et les applications multimodales. En utilisant des modèles pré-entraînés, vous pouvez réduire considérablement vos coûts de calcul, votre empreinte carbone et le temps nécessaire pour entraîner un modèle à partir de zéro. C'est un excellent moyen d'accélérer le cycle de développement et de tirer parti des dernières avancées en matière d'apprentissage automatique.
La bibliothèque prend en charge Python 3.6 et fonctionne de manière transparente avec des frameworks d'apprentissage en profondeur tels que PyTorch, TensorFlow et Flax. Il vous permet de télécharger des modèles directement depuis le hub de modèles Hugging Face et de les utiliser pour l'inférence avec seulement quelques lignes de code.
Guide d'installation
Avant de commencer à utiliser la bibliothèque Transformers, il est essentiel de configurer votre environnement de développement. Voici comment l'installer :
1. Configurer un environnement virtuel
Commencez par créer un environnement virtuel dans le répertoire de votre projet :
python -m venv .myenv
Activer l'environnement virtuel :
- Sous Linux/macOS :
source .myenv/bin/activate
Vérifiez que vous utilisez la bonne version de Python :
python -V
Assurez-vous que vous utilisez Python 3.6 (par exemple, Python 3.10.10).
Mettez à niveau pip vers la dernière version :
pip install --upgrade pip
2. Installez la bibliothèque Transformers
Vous êtes maintenant prêt à installer les Transformers. Si vous utilisez PyTorch, installez-le avec la bibliothèque à l'aide de la commande suivante :
pip install 'transformers[torch]'
Pour TensorFlow 2.0 :
pip install 'transformers[tf-cpu]'
Pour le Lin (utilisé dans les milieux de recherche) :
python -m venv .myenv
Si vous utilisez un M Mac ou une architecture basée sur ARM, vous aurez peut-être besoin de dépendances supplémentaires :
source .myenv/bin/activate
Une fois que tout est configuré, vérifiez si l'installation a réussi en exécutant cette commande Python :
python -V
En cas de succès, vous devriez voir un résultat similaire à :
pip install --upgrade pip
Utilisation de l'API Pipeline pour l'inférence rapide
L'API pipeline de la bibliothèque Transformers de Hugging Face facilite l'exécution de tâches complexes d'apprentissage automatique sans approfondir le code sous-jacent ou les détails du modèle. Le pipeline gère automatiquement le prétraitement, l'inférence de modèle et le post-traitement pour vous.
Voyons comment vous pouvez utiliser quelques tâches courantes avec l'API de pipeline.
1. Analyse des sentiments
L'analyse des sentiments consiste à déterminer le ton émotionnel derrière un morceau de texte, par exemple s'il est positif ou négatif. Voici comment utiliser l'API du pipeline pour effectuer une analyse des sentiments :
pip install 'transformers[torch]'
Sortie :
pip install 'transformers[tf-cpu]'
Le pipeline prétraite d'abord le texte (tokénisation), le transmet à travers le modèle et enfin post-traite les résultats. Dans ce cas, le modèle classe l'entrée comme POSITIVE avec un score élevé de 0,999.
2. Génération de texte
Transformers fournit également un moyen simple de générer du texte avec un modèle de langage pré-entraîné comme GPT-2. Vous trouverez ci-dessous un exemple utilisant le pipeline de génération de texte :
pip install 'transformers[flax]'
Sortie :
brew install cmake brew install pkg-config
Le modèle génère trois variantes différentes de texte basées sur l'invite "Je t'aime". Ceci est utile pour générer du contenu créatif ou compléter une phrase donnée.
3. Classification du tir zéro
Classification Zero-shot est une fonctionnalité puissante qui vous permet de classer le texte en catégories sans entraîner explicitement le modèle sur ces catégories. Par exemple, vous pouvez classer un texte dans des étiquettes prédéfinies même si vous n'avez pas entraîné le modèle sur cet ensemble de données spécifique.
Voici un exemple :
python -c "from transformers import pipeline; print(pipeline('sentiment-analysis')('we love you'))"
Sortie :
[{'label': 'POSITIVE', 'score': 0.9998704791069031}]
Le modèle suggère que le texte est très probablement classé comme actualités avec un score de confiance de 0,51.
Vous pouvez également visualiser les résultats avec un camembert pour avoir une meilleure idée de la répartition :
from transformers import pipeline classifier = pipeline("sentiment-analysis", model="distilbert/distilbert-base-uncased-finetuned-sst-2-english") res = classifier("I love you! I love you! I love you!") print(res)
Cela affichera un diagramme circulaire représentant les probabilités pour chaque étiquette, vous aidant à visualiser comment le modèle interprète le texte.
Conclusion
La bibliothèqueTransformers de Hugging Face offre un moyen pratique et puissant d'accéder à des modèles de pointe et de les utiliser pour une variété de tâches d'apprentissage automatique. Que vous travailliez sur l'analyse des sentiments, la génération de texte ou la classification zéro-shot, l'API de pipeline simplifie le processus d'intégration de ces modèles avancés dans vos projets.
Avec des instructions d'installation faciles à suivre et des exemples pratiques, vous pouvez commencer à tirer parti de Transformers en quelques étapes seulement. Le hub de modèles Hugging Face fournit également une vaste collection de modèles pré-entraînés, vous permettant de mettre en œuvre rapidement les dernières avancées en matière d'apprentissage automatique.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds











Python convient à la science des données, au développement Web et aux tâches d'automatisation, tandis que C convient à la programmation système, au développement de jeux et aux systèmes intégrés. Python est connu pour sa simplicité et son écosystème puissant, tandis que C est connu pour ses capacités de contrôle élevées et sous-jacentes.

Vous pouvez apprendre les bases de Python dans les deux heures. 1. Apprenez les variables et les types de données, 2. Structures de contrôle maître telles que si les instructions et les boucles, 3. Comprenez la définition et l'utilisation des fonctions. Ceux-ci vous aideront à commencer à écrire des programmes Python simples.

Python excelle dans les jeux et le développement de l'interface graphique. 1) Le développement de jeux utilise Pygame, fournissant des fonctions de dessin, audio et d'autres fonctions, qui conviennent à la création de jeux 2D. 2) Le développement de l'interface graphique peut choisir Tkinter ou Pyqt. Tkinter est simple et facile à utiliser, PYQT a des fonctions riches et convient au développement professionnel.

Vous pouvez apprendre les concepts de programmation de base et les compétences de Python dans les 2 heures. 1. Apprenez les variables et les types de données, 2. Flux de contrôle maître (instructions et boucles conditionnelles), 3. Comprenez la définition et l'utilisation des fonctions, 4. Démarrez rapidement avec la programmation Python via des exemples simples et des extraits de code.

Python est plus facile à apprendre et à utiliser, tandis que C est plus puissant mais complexe. 1. La syntaxe Python est concise et adaptée aux débutants. Le typage dynamique et la gestion automatique de la mémoire le rendent facile à utiliser, mais peuvent entraîner des erreurs d'exécution. 2.C fournit des fonctionnalités de contrôle de bas niveau et avancées, adaptées aux applications haute performance, mais a un seuil d'apprentissage élevé et nécessite une gestion manuelle de la mémoire et de la sécurité.

Python est largement utilisé dans les domaines du développement Web, de la science des données, de l'apprentissage automatique, de l'automatisation et des scripts. 1) Dans le développement Web, les cadres Django et Flask simplifient le processus de développement. 2) Dans les domaines de la science des données et de l'apprentissage automatique, les bibliothèques Numpy, Pandas, Scikit-Learn et Tensorflow fournissent un fort soutien. 3) En termes d'automatisation et de script, Python convient aux tâches telles que les tests automatisés et la gestion du système.

Pour maximiser l'efficacité de l'apprentissage de Python dans un temps limité, vous pouvez utiliser les modules DateTime, Time et Schedule de Python. 1. Le module DateTime est utilisé pour enregistrer et planifier le temps d'apprentissage. 2. Le module de temps aide à définir l'étude et le temps de repos. 3. Le module de planification organise automatiquement des tâches d'apprentissage hebdomadaires.

Python excelle dans l'automatisation, les scripts et la gestion des tâches. 1) Automatisation: La sauvegarde du fichier est réalisée via des bibliothèques standard telles que le système d'exploitation et la fermeture. 2) Écriture de script: utilisez la bibliothèque PSUTIL pour surveiller les ressources système. 3) Gestion des tâches: utilisez la bibliothèque de planification pour planifier les tâches. La facilité d'utilisation de Python et la prise en charge de la bibliothèque riche en font l'outil préféré dans ces domaines.
