


Comment construire un chatbot à l'aide de l'API Openai et du Pinecone
LLM CHATBOTS: révolutionner l'IA conversationnelle avec une génération augmentée de récupération (RAG)
Depuis le lancement de Chatgpt en novembre 2022, les chatbots de grande langue (LLM) sont devenus omniprésents, transformant diverses applications. Bien que le concept de chatbots ne soit pas nouveau - beaucoup de chatbots plus anciens étaient trop complexes et frustrants - les LLM ont revitalisé le domaine. Ce blog explore la puissance des LLM, la technique de génération augmentée (RAG) de récupération, et comment construire votre propre chatbot en utilisant l'API et PineCone GPT d'Openai.
Ce guide couvre:
- Génération augmentée de récupération (RAG)
- Modèles de grande langue (LLMS)
- en utilisant Openai GPT et autres API
- Bases de données vectorielles et leur nécessité
- Création d'un chatbot avec pinecone et openai dans python
Pour une plongée plus profonde, explorez nos cours sur les bases de données vectorielles pour les incorporations avec PineCone et le code-along sur Construire des chatbots avec API OpenAI et Pinecone .
Modèles de grande langue (LLMS)
source d'image
LLMS, tels que GPT-4, sont des algorithmes sophistiqués d'apprentissage automatique utilisant l'apprentissage en profondeur (en particulier l'architecture de transformateur) pour comprendre et générer un langage humain. Formés sur des ensembles de données massifs (milliards de mots provenant de diverses sources en ligne), ils gèrent des tâches de langage complexes.
LLMS excellent à la génération de texte dans divers styles et formats, de l'écriture créative à la documentation technique. Leurs capacités incluent le résumé, l'IA conversationnelle et la traduction du langage, capturant souvent les fonctionnalités linguistiques nuancées.
Cependant, les LLM ont des limites. Les «hallucinations» - générer des informations plausibles mais incorrectes - et les biais des données de formation sont des défis importants. Bien que les LLM représentent une progression importante de l'IA, une gestion minutieuse est cruciale pour atténuer les risques.
Génération augmentée de récupération (RAG)
source d'image
Les limitations des LLMS (des informations obsolètes, génériques ou fausses dues aux limitations de données ou aux «hallucinations») sont traitées par RAG. Le chiffon améliore la précision et la fiabilité en ordonnant aux LLM de récupérer les informations pertinentes à partir de sources spécifiées. Cela donne aux développeurs plus de contrôle sur les réponses LLM.
Le processus de chiffon (simplifié)
(Un didacticiel détaillé est disponible séparément.)
- Préparation des données: Les données externes (par exemple, la recherche actuelle, les actualités) sont préparées et converties en format (intégres) utilisable par le llm.
- Stockage d'intégration: Les incorporations sont stockées dans une base de données vectorielle (comme Pinecone), optimisée pour une récupération efficace des données vectorielles.
- Retrievale d'informations: Une recherche sémantique utilisant la requête de l'utilisateur (converti en vecteur) récupère les informations les plus pertinentes de la base de données.
- Augmentation invite: Les données récupérées et la requête utilisateur augmentent l'invite LLM, conduisant à des réponses plus précises.
- Mises à jour des données: Les données externes sont régulièrement mises à jour pour maintenir la précision.
Bases de données vectorielles
source d'image
Les bases de données vectorielles gèrent les vecteurs de haute dimension (représentations mathématiques des données). Ils excellent à des recherches de similitude en fonction de la distance vectorielle, permettant une requête sémantique. Les applications comprennent la recherche d'images, de documents ou de produits similaires. Pinecone est un exemple populaire, efficace et convivial. Ses techniques d'indexation avancées sont idéales pour les applications de chiffon.
API OpenAI
L'API d'Openai donne accès à des modèles comme GPT, Dall-E et Whisper. Accessible via les demandes HTTP (ou simplifiées avec la bibliothèque openai
de Python), il est facilement intégré dans divers langages de programmation.
Python Exemple:
import os os.environ["OPENAI_API_KEY"] = "YOUR_API_KEY" from openai import OpenAI client = OpenAI() completion = client.chat.completions.create( model="gpt-4", messages=[ {"role": "system", "content": "You are expert in Machine Learning."}, {"role": "user", "content": "Explain how does random forest works?."} ] ) print(completion.choices[0].message)
Langchain (aperçu du cadre)
Langchain simplifie le développement d'applications LLM. Bien que puissant, il est toujours en cours de développement actif, donc les changements d'API sont possibles.
Exemple Python de bout en bout: Construire un chatbot LLM
Cette section construit un chatbot à l'aide d'Openai GPT-4 et de Pinecone. (Remarque: une grande partie de ce code est adaptée du guide officiel de Langchain.)
1. Configuration Openai et Pinecone: Obtenez des clés API.
2. Installez les bibliothèques: utilisez PIP pour installer langchain
, langchain-community
, openai
, tiktoken
, pinecone-client
, et pinecone-datasets
.
3. Exemple d'ensemble de données: Chargez un ensemble de données pré-incorporé (par exemple, wikipedia-simple-text-embedding-ada-002-100K
de pinecone-datasets
). (L'échantillonnage d'un sous-ensemble est recommandé pour un traitement plus rapide.)
4. Configuration de l'index de pignon: Créez un index de Pinecone (langchain-retrieval-augmentation-fast
dans cet exemple).
5. Insertion de données: Upser les données échantillonnées dans l'index de Pinecone.
6. Intégration de Langchain: Initialisez un magasin vectoriel de Langchain à l'aide de l'index de pin et d'Openai.
7. Requête: utilisez le magasin vectoriel pour effectuer des recherches de similitude.8. Intégration LLM: utilisez
et ChatOpenAI
(ou RetrievalQA
pour l'attribution de la source) pour intégrer le LLM avec le magasin vectoriel. RetrievalQAWithSourcesChain
Conclusion Ce blog a démontré la puissance de RAG pour construire des chatbots fiables et pertinents sur LLM. La combinaison de LLMS, de bases de données vectorielles (comme PineCone) et de cadres comme Langchain autorise les développeurs à créer des applications de l'IA conversationnelles sophistiquées. Nos cours offrent d'autres opportunités d'apprentissage dans ces domaines.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds











META'S LLAMA 3.2: un bond en avant dans l'IA multimodal et mobile Meta a récemment dévoilé Llama 3.2, une progression importante de l'IA avec de puissantes capacités de vision et des modèles de texte légers optimisés pour les appareils mobiles. S'appuyer sur le succès o

Hé là, codant ninja! Quelles tâches liées au codage avez-vous prévues pour la journée? Avant de plonger plus loin dans ce blog, je veux que vous réfléchissiez à tous vos malheurs liés au codage - les énumérez. Fait? - Let & # 8217

La récente note du PDG de Shopify Tobi Lütke déclare hardiment la maîtrise de l'IA une attente fondamentale pour chaque employé, marquant un changement culturel important au sein de l'entreprise. Ce n'est pas une tendance éphémère; C'est un nouveau paradigme opérationnel intégré à P

Le paysage de l'IA de cette semaine: un tourbillon de progrès, de considérations éthiques et de débats réglementaires. Les principaux acteurs comme Openai, Google, Meta et Microsoft ont déclenché un torrent de mises à jour, des nouveaux modèles révolutionnaires aux changements cruciaux de LE

Introduction Openai a publié son nouveau modèle basé sur l'architecture «aux fraises» très attendue. Ce modèle innovant, connu sous le nom d'O1, améliore les capacités de raisonnement, lui permettant de réfléchir à des problèmes Mor

Introduction Imaginez vous promener dans une galerie d'art, entourée de peintures et de sculptures vives. Maintenant, que se passe-t-il si vous pouviez poser une question à chaque pièce et obtenir une réponse significative? Vous pourriez demander: «Quelle histoire racontez-vous?

Instruction ALTER TABLE de SQL: Ajout de colonnes dynamiquement à votre base de données Dans la gestion des données, l'adaptabilité de SQL est cruciale. Besoin d'ajuster votre structure de base de données à la volée? L'énoncé de la table alter est votre solution. Ce guide détaille l'ajout de Colu

Le rapport de l'indice de l'intelligence artificielle de 2025 publié par le Stanford University Institute for Human-oriented Artificial Intelligence offre un bon aperçu de la révolution de l'intelligence artificielle en cours. Interprétons-le dans quatre concepts simples: cognition (comprendre ce qui se passe), l'appréciation (voir les avantages), l'acceptation (défis face à face) et la responsabilité (trouver nos responsabilités). Cognition: l'intelligence artificielle est partout et se développe rapidement Nous devons être très conscients de la rapidité avec laquelle l'intelligence artificielle se développe et se propage. Les systèmes d'intelligence artificielle s'améliorent constamment, obtenant d'excellents résultats en mathématiques et des tests de réflexion complexes, et il y a tout juste un an, ils ont échoué lamentablement dans ces tests. Imaginez des problèmes de codage complexes de résolution de l'IA ou des problèmes scientifiques au niveau des diplômés - depuis 2023
