Exploiter la puissance de l'étreinte inférence de génération de texte de la face (TGI): votre serveur LLM local
Les modèles de grandes langues (LLM) révolutionnent l'IA, en particulier dans la génération de texte. Cela a conduit à une augmentation des outils conçus pour simplifier le déploiement LLM. L'inférence de génération de texte de Hugging Face (TGI) se démarque, offrant un cadre puissant prêt pour la production pour exécuter LLMS localement en tant que service. Ce guide explore les capacités de TGI et montre comment en tirer parti pour la génération de texte AI sophistiquée.
TGI, un cadre de rouille et de python, permet le déploiement et la portion de LLMS sur votre machine locale. Licencié sous HFOILV1.0, il convient à une utilisation commerciale comme outil supplémentaire. Ses principaux avantages incluent:
TGI possède des architectures optimisées pour une exécution plus rapide de LLMS comme Llama, Falcon7b et Mistral (voir la documentation pour la liste complète).
Le visage étreint est un centre central pour les LLM open source. Auparavant, de nombreux modèles étaient trop à forte intensité de ressources pour un usage local, nécessitant des services cloud. Cependant, des progrès comme Qlora et GPTQ quantification ont rendu certains LLM gérables sur les machines locales.
TGI résout le problème du temps de démarrage LLM. En gardant le modèle prêt, il fournit des réponses instantanées, éliminant de longs temps d'attente. Imaginez avoir un point de terminaison facilement accessible à une gamme de modèles de langage de haut niveau.
La simplicité de TGI est remarquable. Il est conçu pour le déploiement transparent d'architectures de modèle rationalisées et alimente plusieurs projets en direct, notamment:
Remarque importante: TGI est actuellement incompatible avec les Mac GPU basés sur ARM (M1 et plus tard).
Deux méthodes sont présentées: à partir de zéro et à l'aide de Docker (recommandé pour la simplicité).
Méthode 1: à partir de zéro (plus complexe)
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
conda create -n text-generation-inference python=3.9 && conda activate text-generation-inference
sudo
) Instructions omises par la concision, reportez-vous au texte d'origine. git clone https://github.com/huggingface/text-generation-inference.git
cd text-generation-inference/ && BUILD_EXTENSIONS=False make install
Méthode 2: Utilisation de Docker (recommandé)
volume=$PWD/data && sudo docker run --gpus all --shm-size 1g -p 8080:80 -v $volume:/data ghcr.io/huggingface/text-generation-inference:0.9 --model-id tiiuae/falcon-7b-instruct --num-shard 1 --quantize bitsandbytes
Remplacer "all"
par "0"
si vous utilisez un seul GPU. Après avoir lancé TGI, interagissez avec lui en utilisant les demandes de poste au point final /generate
(ou /stream
pour le streaming). Des exemples utilisant Python et Curl sont fournis dans le texte d'origine. La bibliothèque text-generation
python (pip install text-generation
) simplifie l'interaction.
Hugging Face TGI offre un moyen convivial de déployer et d'héberger les LLM localement, offrant des avantages tels que la confidentialité des données et le contrôle des coûts. Tout en nécessitant un matériel puissant, les progrès récents le rendent possible pour de nombreux utilisateurs. Une exploration plus approfondie des concepts et ressources LLM avancés (mentionnés dans le texte original) est fortement recommandé pour l'apprentissage continu.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!