Table des matières
Explorez différentes méthodes
Créez un chatbot de questions-réponses sur un document étape par étape
Prérequis
Workflow
Configuration
Créer un index et enregistrer
查询索引并获得响应
一些高级用法的说明
总结
Maison Périphériques technologiques IA Analyse approfondie, étape par étape pour construire votre chatbot en utilisant GPT

Analyse approfondie, étape par étape pour construire votre chatbot en utilisant GPT

Apr 07, 2023 pm 07:41 PM
机器人 gpt llm

Discuter avec ChatGPT est amusant et informatif – vous pouvez explorer de nouvelles idées en discutant avec lui. Mais il s’agit de cas d’utilisation plus occasionnels, et la nouveauté s’estompe rapidement, surtout lorsqu’on se rend compte qu’elle peut produire des hallucinations.

Comment utiliser ChatGPT de manière plus efficace ? Après qu'OpenAI ait publié la série d'API GPT3.5, vous pourrez faire bien plus que simplement discuter. Le contrôle qualité (question et réponse) est un cas d'utilisation très efficace pour les entreprises et les particuliers : interrogez un robot sur vos propres fichiers/données en utilisant un langage naturel et il peut répondre rapidement en récupérant les informations du fichier et en générant une réponse. Utilisez-le pour le support client, la recherche complète sur les utilisateurs, la gestion des connaissances personnelles, etc.

Posez au bot vos questions liées aux fichiers. Image générée à l’aide de la méthode de diffusion stable.

Cet article explorera comment créer un chatbot de questions-réponses basé sur vos propres données, y compris pourquoi certaines méthodes ne fonctionnent pas, et un guide étape par étape sur la façon d'utiliser llama-index et l'API GPT pour créer un document. Chatbot de questions-réponses de manière efficace.

(Si vous voulez simplement savoir comment créer un chatbot de questions-réponses, vous pouvez accéder directement à la section « Créer un chatbot de questions-réponses sur un document étape par étape »)

Explorez différentes méthodes

Lorsque ChatGPT sortira, vous pourrez penser à utilisez-le comme assistant pour votre travail, économisant ainsi votre temps et votre énergie, etc.

La première chose qui me vient à l'esprit est d'utiliser vos propres données pour affiner le modèle GPT afin d'atteindre cet objectif. Cependant, le réglage fin coûte assez cher et nécessite un grand ensemble de données avec des exemples. Il est également impossible d’affiner chaque fois qu’un fichier est modifié. Le point le plus critique est que le réglage fin ne peut pas faire en sorte que le modèle « connaisse » toutes les informations contenues dans le document, mais il doit enseigner au modèle une nouvelle compétence. Par conséquent, un réglage fin n’est pas une bonne idée pour l’assurance qualité (multi-)documents.

La deuxième méthode consiste à effectuer une ingénierie d'invite en fournissant un contexte dans l'invite. Par exemple, au lieu de poser la question directement, vous pouvez ajouter le contenu du document original avant la question réelle. Mais l'attention du modèle GPT est limitée : il ne peut accepter que quelques milliers de mots dans l'indice (environ 4 000 jetons ou 3 000 mots). Avec des milliers d'e-mails de commentaires clients et des centaines de documents produits, il est impossible de donner tout le contexte dans une seule invite. Transmettre un contexte long à l'API est également coûteux puisque la tarification est basée sur le nombre de jetons utilisés.

I will ask you questions based on the following context:
— Start of Context —

YOUR DOCUMENT CONTENT

— End of Context—
My question is: “What features do users want to see in the app?”
Copier après la connexion

Étant donné que l'invite a une limite sur le nombre de jetons d'entrée, j'ai eu cette idée pour résoudre le problème : utilisez d'abord un algorithme pour rechercher les documents et sélectionner les extraits pertinents, puis contextualisez-les uniquement avec la question Passé à le modèle GPT. Dans le processus, une bibliothèque gpt-index simple et pratique (maintenant renommée LlamaIndex) doit être utilisée.

Analyse approfondie, étape par étape pour construire votre chatbot en utilisant GPT

Extraire les parties pertinentes du fichier et les renvoyer à l'invite.

Dans la section suivante, un didacticiel étape par étape sera présenté sur la création d'un chatbot de questions-réponses sur vos propres données à l'aide de LlamaIndex et GPT.

Créez un chatbot de questions-réponses sur un document étape par étape

Dans cette section, vous utiliserez LlamaIndex et GPT (text-davinci-003) pour créer un chatbot de questions-réponses basé sur des documents existants, afin que vous puissiez poser des questions sur le document de manière naturelle. questions linguistiques et obtenez des réponses du chatbot.

Prérequis

Avant de commencer ce tutoriel, vous devez effectuer quelques préparatifs :

  • Clé API OpenAI, disponible sur https://platform.openai.com/account/api-keys.
  • Une base de données de fichiers. LlamaIndex prend en charge de nombreuses sources de données différentes telles que Notion, Google Docs, Asana, etc. Dans cet article, seul un simple fichier texte sera utilisé à des fins de démonstration.
  • Un environnement Python local ou un notebook Google Colab en ligne.

Workflow

Le flux de travail est très simple et ne nécessite que quelques étapes :

  • 1 Utilisez LlamaIndex pour créer un index pour les données de votre document.
  • 2. Interrogez l'index en utilisant le langage naturel.
  • 3.LlamaIndex récupérera la partie pertinente et la transmettra à l'indice GPT.
  • 4. Demandez à GPT le contexte pertinent et construisez une réponse.

LlamaIndex convertit les données brutes du document en un index vectoriel, ce qui est très efficace pour les requêtes. Il utilisera cet index pour trouver les parties les plus pertinentes en fonction de la similitude de la requête et des données. Il insérera ensuite le contenu récupéré dans l'invite qu'il enverra à GPT afin que GPT dispose du contexte nécessaire pour répondre à la question.

Configuration

Vous devez d'abord installer la bibliothèque. Exécutez simplement la commande suivante sur Terminal ou Google Colab Notebook. Ces commandes installeront à la fois LlamaIndex et OpenAI.

!pip install llama-index
!pip install openai
Copier après la connexion

L'étape suivante consiste à importer ces bibliothèques en python et à configurer la clé API OpenAI dans un nouveau fichier .py.

# 导入必要的库
from llama_index import GPTSimpleVectorIndex, Document, SimpleDirectoryReader
import os

os.environ['OPENAI_API_KEY'] = 'sk-YOUR-API-KEY'
Copier après la connexion

Créer un index et enregistrer

Après avoir installé les bibliothèques requises et les avoir importées, vous devrez créer un index de vos documents.

Pour charger un document, vous pouvez utiliser la méthode SimpleDirectoryReader fournie par LllamaIndex, ou vous pouvez le charger à partir d'une chaîne.

# 从一个目录中加载
documents = SimpleDirectoryReader('your_directory').load_data()

# 从字符串中加载,假设将数据保存为字符串text1,text2,...
text_list = [text1, text2, ...]
documents = [Document(t) for t in text_list]
Copier après la connexion

LlamaIndex还提供各种数据连接器,包括Notion、Asana、Google Drive、Obsidian等。可以在https://llamahub.ai/找到可用的数据连接器。

加载完文档后,就可以用以下方法简单地构建索引了:

# 构建一个简单的向量索引
index = GPTSimpleVectorIndex(documents)
Copier après la connexion

如果想保存索引并加载它以便将来使用,可以使用以下方法:

# 将索引保存在`index.json`文件中
index.save_to_disk('index.json')
# 从保存的`index.json`文件中加载索引
index = GPTSimpleVectorIndex.load_from_disk('index.json')
Copier après la connexion

查询索引并获得响应

查询索引很简单:

# 查询索引
response = index.query("What features do users want to see in the app?")
print(response)
Copier après la connexion

Analyse approfondie, étape par étape pour construire votre chatbot en utilisant GPT

一个回应的例子。

然后就可以得到答案了。在幕后,LlamaIndex将接收提示,在索引中搜索相关块,并将提示和相关块传递给GPT。

一些高级用法的说明

上面的步骤只是展示了使用LlamaIndex和GPT回答问题的一个非常简单的入门用法。但可以做得比这更多。事实上,可以配置LlamaIndex来使用不同的大型语言模型(LLM),为不同的任务使用不同类型的索引,用一个新的索引来更新现有的索引,等等。如果有兴趣,可以在https://gpt-index.readthedocs.io/en/latest/index.html,阅读他们的文档。

总结

本文中展示了如何结合使用GPT和LlamaIndex来构建一个文档问答聊天机器人。虽然GPT(和其他LLM)本身就很强大,但如果把它与其他工具、数据或流程结合起来,它的力量也会被大大增强。

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Commandes de chat et comment les utiliser
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Guide étape par étape pour utiliser Groq Llama 3 70B localement Guide étape par étape pour utiliser Groq Llama 3 70B localement Jun 10, 2024 am 09:16 AM

Traducteur | Bugatti Review | Chonglou Cet article décrit comment utiliser le moteur d'inférence GroqLPU pour générer des réponses ultra-rapides dans JanAI et VSCode. Tout le monde travaille à la création de meilleurs grands modèles de langage (LLM), tels que Groq, qui se concentre sur le côté infrastructure de l'IA. Une réponse rapide de ces grands modèles est essentielle pour garantir que ces grands modèles réagissent plus rapidement. Ce didacticiel présentera le moteur d'analyse GroqLPU et comment y accéder localement sur votre ordinateur portable à l'aide de l'API et de JanAI. Cet article l'intégrera également dans VSCode pour nous aider à générer du code, à refactoriser le code, à saisir la documentation et à générer des unités de test. Cet article créera gratuitement notre propre assistant de programmation d’intelligence artificielle. Introduction au moteur d'inférence GroqLPU Groq

Les Chinois de Caltech utilisent l'IA pour renverser les preuves mathématiques ! Accélérer 5 fois a choqué Tao Zhexuan, 80% des étapes mathématiques sont entièrement automatisées Les Chinois de Caltech utilisent l'IA pour renverser les preuves mathématiques ! Accélérer 5 fois a choqué Tao Zhexuan, 80% des étapes mathématiques sont entièrement automatisées Apr 23, 2024 pm 03:01 PM

LeanCopilot, cet outil mathématique formel vanté par de nombreux mathématiciens comme Terence Tao, a encore évolué ? Tout à l'heure, Anima Anandkumar, professeur à Caltech, a annoncé que l'équipe avait publié une version étendue de l'article LeanCopilot et mis à jour la base de code. Adresse de l'article image : https://arxiv.org/pdf/2404.12534.pdf Les dernières expériences montrent que cet outil Copilot peut automatiser plus de 80 % des étapes de preuve mathématique ! Ce record est 2,3 fois meilleur que le précédent record d’Esope. Et, comme auparavant, il est open source sous licence MIT. Sur la photo, il s'agit de Song Peiyang, un garçon chinois.

Plaud lance l'enregistreur portable NotePin AI pour 169 $ Plaud lance l'enregistreur portable NotePin AI pour 169 $ Aug 29, 2024 pm 02:37 PM

Plaud, la société derrière le Plaud Note AI Voice Recorder (disponible sur Amazon pour 159 $), a annoncé un nouveau produit. Surnommé NotePin, l’appareil est décrit comme une capsule mémoire AI, et comme le Humane AI Pin, il est portable. Le NotePin est

Sept questions d'entretien technique Cool GenAI et LLM Sept questions d'entretien technique Cool GenAI et LLM Jun 07, 2024 am 10:06 AM

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

L'Ameca deuxième génération est là ! Il peut communiquer couramment avec le public, ses expressions faciales sont plus réalistes et il peut parler des dizaines de langues. L'Ameca deuxième génération est là ! Il peut communiquer couramment avec le public, ses expressions faciales sont plus réalistes et il peut parler des dizaines de langues. Mar 04, 2024 am 09:10 AM

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

GraphRAG amélioré pour la récupération de graphes de connaissances (implémenté sur la base du code Neo4j) GraphRAG amélioré pour la récupération de graphes de connaissances (implémenté sur la base du code Neo4j) Jun 12, 2024 am 10:32 AM

La génération améliorée de récupération de graphiques (GraphRAG) devient progressivement populaire et est devenue un complément puissant aux méthodes de recherche vectorielles traditionnelles. Cette méthode tire parti des caractéristiques structurelles des bases de données graphiques pour organiser les données sous forme de nœuds et de relations, améliorant ainsi la profondeur et la pertinence contextuelle des informations récupérées. Les graphiques présentent un avantage naturel dans la représentation et le stockage d’informations diverses et interdépendantes, et peuvent facilement capturer des relations et des propriétés complexes entre différents types de données. Les bases de données vectorielles sont incapables de gérer ce type d'informations structurées et se concentrent davantage sur le traitement de données non structurées représentées par des vecteurs de grande dimension. Dans les applications RAG, la combinaison de données graphiques structurées et de recherche de vecteurs de texte non structuré nous permet de profiter des avantages des deux en même temps, ce dont discutera cet article. structure

Visualisez l'espace vectoriel FAISS et ajustez les paramètres RAG pour améliorer la précision des résultats Visualisez l'espace vectoriel FAISS et ajustez les paramètres RAG pour améliorer la précision des résultats Mar 01, 2024 pm 09:16 PM

À mesure que les performances des modèles de langage open source à grande échelle continuent de s'améliorer, les performances d'écriture et d'analyse du code, des recommandations, du résumé de texte et des paires questions-réponses (QA) se sont toutes améliorées. Mais lorsqu'il s'agit d'assurance qualité, le LLM ne répond souvent pas aux problèmes liés aux données non traitées, et de nombreux documents internes sont conservés au sein de l'entreprise pour garantir la conformité, les secrets commerciaux ou la confidentialité. Lorsque ces documents sont interrogés, LLM peut halluciner et produire un contenu non pertinent, fabriqué ou incohérent. Une technique possible pour relever ce défi est la génération augmentée de récupération (RAG). Cela implique le processus d'amélioration des réponses en référençant des bases de connaissances faisant autorité au-delà de la source de données de formation pour améliorer la qualité et la précision de la génération. Le système RAG comprend un système de récupération permettant de récupérer des fragments de documents pertinents du corpus

Comment l'IA peut-elle rendre les robots plus autonomes et adaptables ? Comment l'IA peut-elle rendre les robots plus autonomes et adaptables ? Jun 03, 2024 pm 07:18 PM

Dans le domaine de la technologie de l’automatisation industrielle, il existe deux points chauds récents qu’il est difficile d’ignorer : l’intelligence artificielle (IA) et Nvidia. Ne changez pas le sens du contenu original, affinez le contenu, réécrivez le contenu, ne continuez pas : « Non seulement cela, les deux sont étroitement liés, car Nvidia ne se limite pas à son unité de traitement graphique d'origine (GPU ), il étend son GPU. La technologie s'étend au domaine des jumeaux numériques et est étroitement liée aux technologies émergentes d'IA "Récemment, NVIDIA a conclu une coopération avec de nombreuses entreprises industrielles, notamment des sociétés d'automatisation industrielle de premier plan telles qu'Aveva, Rockwell Automation, Siemens. et Schneider Electric, ainsi que Teradyne Robotics et ses sociétés MiR et Universal Robots. Récemment, Nvidiahascoll

See all articles