


Analyse approfondie, étape par étape pour construire votre chatbot en utilisant GPT
Discuter avec ChatGPT est amusant et informatif – vous pouvez explorer de nouvelles idées en discutant avec lui. Mais il s’agit de cas d’utilisation plus occasionnels, et la nouveauté s’estompe rapidement, surtout lorsqu’on se rend compte qu’elle peut produire des hallucinations.
Comment utiliser ChatGPT de manière plus efficace ? Après qu'OpenAI ait publié la série d'API GPT3.5, vous pourrez faire bien plus que simplement discuter. Le contrôle qualité (question et réponse) est un cas d'utilisation très efficace pour les entreprises et les particuliers : interrogez un robot sur vos propres fichiers/données en utilisant un langage naturel et il peut répondre rapidement en récupérant les informations du fichier et en générant une réponse. Utilisez-le pour le support client, la recherche complète sur les utilisateurs, la gestion des connaissances personnelles, etc.
Posez au bot vos questions liées aux fichiers. Image générée à l’aide de la méthode de diffusion stable.
Cet article explorera comment créer un chatbot de questions-réponses basé sur vos propres données, y compris pourquoi certaines méthodes ne fonctionnent pas, et un guide étape par étape sur la façon d'utiliser llama-index et l'API GPT pour créer un document. Chatbot de questions-réponses de manière efficace.
(Si vous voulez simplement savoir comment créer un chatbot de questions-réponses, vous pouvez accéder directement à la section « Créer un chatbot de questions-réponses sur un document étape par étape »)
Explorez différentes méthodes
Lorsque ChatGPT sortira, vous pourrez penser à utilisez-le comme assistant pour votre travail, économisant ainsi votre temps et votre énergie, etc.
La première chose qui me vient à l'esprit est d'utiliser vos propres données pour affiner le modèle GPT afin d'atteindre cet objectif. Cependant, le réglage fin coûte assez cher et nécessite un grand ensemble de données avec des exemples. Il est également impossible d’affiner chaque fois qu’un fichier est modifié. Le point le plus critique est que le réglage fin ne peut pas faire en sorte que le modèle « connaisse » toutes les informations contenues dans le document, mais il doit enseigner au modèle une nouvelle compétence. Par conséquent, un réglage fin n’est pas une bonne idée pour l’assurance qualité (multi-)documents.
La deuxième méthode consiste à effectuer une ingénierie d'invite en fournissant un contexte dans l'invite. Par exemple, au lieu de poser la question directement, vous pouvez ajouter le contenu du document original avant la question réelle. Mais l'attention du modèle GPT est limitée : il ne peut accepter que quelques milliers de mots dans l'indice (environ 4 000 jetons ou 3 000 mots). Avec des milliers d'e-mails de commentaires clients et des centaines de documents produits, il est impossible de donner tout le contexte dans une seule invite. Transmettre un contexte long à l'API est également coûteux puisque la tarification est basée sur le nombre de jetons utilisés.
I will ask you questions based on the following context: — Start of Context — YOUR DOCUMENT CONTENT — End of Context— My question is: “What features do users want to see in the app?”
Étant donné que l'invite a une limite sur le nombre de jetons d'entrée, j'ai eu cette idée pour résoudre le problème : utilisez d'abord un algorithme pour rechercher les documents et sélectionner les extraits pertinents, puis contextualisez-les uniquement avec la question Passé à le modèle GPT. Dans le processus, une bibliothèque gpt-index simple et pratique (maintenant renommée LlamaIndex) doit être utilisée.
Extraire les parties pertinentes du fichier et les renvoyer à l'invite.
Dans la section suivante, un didacticiel étape par étape sera présenté sur la création d'un chatbot de questions-réponses sur vos propres données à l'aide de LlamaIndex et GPT.
Créez un chatbot de questions-réponses sur un document étape par étape
Dans cette section, vous utiliserez LlamaIndex et GPT (text-davinci-003) pour créer un chatbot de questions-réponses basé sur des documents existants, afin que vous puissiez poser des questions sur le document de manière naturelle. questions linguistiques et obtenez des réponses du chatbot.
Prérequis
Avant de commencer ce tutoriel, vous devez effectuer quelques préparatifs :
- Clé API OpenAI, disponible sur https://platform.openai.com/account/api-keys.
- Une base de données de fichiers. LlamaIndex prend en charge de nombreuses sources de données différentes telles que Notion, Google Docs, Asana, etc. Dans cet article, seul un simple fichier texte sera utilisé à des fins de démonstration.
- Un environnement Python local ou un notebook Google Colab en ligne.
Workflow
Le flux de travail est très simple et ne nécessite que quelques étapes :
- 1 Utilisez LlamaIndex pour créer un index pour les données de votre document.
- 2. Interrogez l'index en utilisant le langage naturel.
- 3.LlamaIndex récupérera la partie pertinente et la transmettra à l'indice GPT.
- 4. Demandez à GPT le contexte pertinent et construisez une réponse.
LlamaIndex convertit les données brutes du document en un index vectoriel, ce qui est très efficace pour les requêtes. Il utilisera cet index pour trouver les parties les plus pertinentes en fonction de la similitude de la requête et des données. Il insérera ensuite le contenu récupéré dans l'invite qu'il enverra à GPT afin que GPT dispose du contexte nécessaire pour répondre à la question.
Configuration
Vous devez d'abord installer la bibliothèque. Exécutez simplement la commande suivante sur Terminal ou Google Colab Notebook. Ces commandes installeront à la fois LlamaIndex et OpenAI.
!pip install llama-index !pip install openai
L'étape suivante consiste à importer ces bibliothèques en python et à configurer la clé API OpenAI dans un nouveau fichier .py.
# 导入必要的库 from llama_index import GPTSimpleVectorIndex, Document, SimpleDirectoryReader import os os.environ['OPENAI_API_KEY'] = 'sk-YOUR-API-KEY'
Créer un index et enregistrer
Après avoir installé les bibliothèques requises et les avoir importées, vous devrez créer un index de vos documents.
Pour charger un document, vous pouvez utiliser la méthode SimpleDirectoryReader fournie par LllamaIndex, ou vous pouvez le charger à partir d'une chaîne.
# 从一个目录中加载 documents = SimpleDirectoryReader('your_directory').load_data() # 从字符串中加载,假设将数据保存为字符串text1,text2,... text_list = [text1, text2, ...] documents = [Document(t) for t in text_list]
LlamaIndex还提供各种数据连接器,包括Notion、Asana、Google Drive、Obsidian等。可以在https://llamahub.ai/找到可用的数据连接器。
加载完文档后,就可以用以下方法简单地构建索引了:
# 构建一个简单的向量索引 index = GPTSimpleVectorIndex(documents)
如果想保存索引并加载它以便将来使用,可以使用以下方法:
# 将索引保存在`index.json`文件中 index.save_to_disk('index.json') # 从保存的`index.json`文件中加载索引 index = GPTSimpleVectorIndex.load_from_disk('index.json')
查询索引并获得响应
查询索引很简单:
# 查询索引 response = index.query("What features do users want to see in the app?") print(response)
一个回应的例子。
然后就可以得到答案了。在幕后,LlamaIndex将接收提示,在索引中搜索相关块,并将提示和相关块传递给GPT。
一些高级用法的说明
上面的步骤只是展示了使用LlamaIndex和GPT回答问题的一个非常简单的入门用法。但可以做得比这更多。事实上,可以配置LlamaIndex来使用不同的大型语言模型(LLM),为不同的任务使用不同类型的索引,用一个新的索引来更新现有的索引,等等。如果有兴趣,可以在https://gpt-index.readthedocs.io/en/latest/index.html,阅读他们的文档。
总结
本文中展示了如何结合使用GPT和LlamaIndex来构建一个文档问答聊天机器人。虽然GPT(和其他LLM)本身就很强大,但如果把它与其他工具、数据或流程结合起来,它的力量也会被大大增强。
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Traducteur | Bugatti Review | Chonglou Cet article décrit comment utiliser le moteur d'inférence GroqLPU pour générer des réponses ultra-rapides dans JanAI et VSCode. Tout le monde travaille à la création de meilleurs grands modèles de langage (LLM), tels que Groq, qui se concentre sur le côté infrastructure de l'IA. Une réponse rapide de ces grands modèles est essentielle pour garantir que ces grands modèles réagissent plus rapidement. Ce didacticiel présentera le moteur d'analyse GroqLPU et comment y accéder localement sur votre ordinateur portable à l'aide de l'API et de JanAI. Cet article l'intégrera également dans VSCode pour nous aider à générer du code, à refactoriser le code, à saisir la documentation et à générer des unités de test. Cet article créera gratuitement notre propre assistant de programmation d’intelligence artificielle. Introduction au moteur d'inférence GroqLPU Groq

LeanCopilot, cet outil mathématique formel vanté par de nombreux mathématiciens comme Terence Tao, a encore évolué ? Tout à l'heure, Anima Anandkumar, professeur à Caltech, a annoncé que l'équipe avait publié une version étendue de l'article LeanCopilot et mis à jour la base de code. Adresse de l'article image : https://arxiv.org/pdf/2404.12534.pdf Les dernières expériences montrent que cet outil Copilot peut automatiser plus de 80 % des étapes de preuve mathématique ! Ce record est 2,3 fois meilleur que le précédent record d’Esope. Et, comme auparavant, il est open source sous licence MIT. Sur la photo, il s'agit de Song Peiyang, un garçon chinois.

Plaud, la société derrière le Plaud Note AI Voice Recorder (disponible sur Amazon pour 159 $), a annoncé un nouveau produit. Surnommé NotePin, l’appareil est décrit comme une capsule mémoire AI, et comme le Humane AI Pin, il est portable. Le NotePin est

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

Le robot humanoïde Ameca est passé à la deuxième génération ! Récemment, lors de la Conférence mondiale sur les communications mobiles MWC2024, le robot le plus avancé au monde, Ameca, est à nouveau apparu. Autour du site, Ameca a attiré un grand nombre de spectateurs. Avec la bénédiction de GPT-4, Ameca peut répondre à divers problèmes en temps réel. "Allons danser." Lorsqu'on lui a demandé si elle avait des émotions, Ameca a répondu avec une série d'expressions faciales très réalistes. Il y a quelques jours à peine, EngineeredArts, la société britannique de robotique derrière Ameca, vient de présenter les derniers résultats de développement de l'équipe. Dans la vidéo, le robot Ameca a des capacités visuelles et peut voir et décrire toute la pièce et des objets spécifiques. Le plus étonnant, c'est qu'elle peut aussi

La génération améliorée de récupération de graphiques (GraphRAG) devient progressivement populaire et est devenue un complément puissant aux méthodes de recherche vectorielles traditionnelles. Cette méthode tire parti des caractéristiques structurelles des bases de données graphiques pour organiser les données sous forme de nœuds et de relations, améliorant ainsi la profondeur et la pertinence contextuelle des informations récupérées. Les graphiques présentent un avantage naturel dans la représentation et le stockage d’informations diverses et interdépendantes, et peuvent facilement capturer des relations et des propriétés complexes entre différents types de données. Les bases de données vectorielles sont incapables de gérer ce type d'informations structurées et se concentrent davantage sur le traitement de données non structurées représentées par des vecteurs de grande dimension. Dans les applications RAG, la combinaison de données graphiques structurées et de recherche de vecteurs de texte non structuré nous permet de profiter des avantages des deux en même temps, ce dont discutera cet article. structure

À mesure que les performances des modèles de langage open source à grande échelle continuent de s'améliorer, les performances d'écriture et d'analyse du code, des recommandations, du résumé de texte et des paires questions-réponses (QA) se sont toutes améliorées. Mais lorsqu'il s'agit d'assurance qualité, le LLM ne répond souvent pas aux problèmes liés aux données non traitées, et de nombreux documents internes sont conservés au sein de l'entreprise pour garantir la conformité, les secrets commerciaux ou la confidentialité. Lorsque ces documents sont interrogés, LLM peut halluciner et produire un contenu non pertinent, fabriqué ou incohérent. Une technique possible pour relever ce défi est la génération augmentée de récupération (RAG). Cela implique le processus d'amélioration des réponses en référençant des bases de connaissances faisant autorité au-delà de la source de données de formation pour améliorer la qualité et la précision de la génération. Le système RAG comprend un système de récupération permettant de récupérer des fragments de documents pertinents du corpus

Dans le domaine de la technologie de l’automatisation industrielle, il existe deux points chauds récents qu’il est difficile d’ignorer : l’intelligence artificielle (IA) et Nvidia. Ne changez pas le sens du contenu original, affinez le contenu, réécrivez le contenu, ne continuez pas : « Non seulement cela, les deux sont étroitement liés, car Nvidia ne se limite pas à son unité de traitement graphique d'origine (GPU ), il étend son GPU. La technologie s'étend au domaine des jumeaux numériques et est étroitement liée aux technologies émergentes d'IA "Récemment, NVIDIA a conclu une coopération avec de nombreuses entreprises industrielles, notamment des sociétés d'automatisation industrielle de premier plan telles qu'Aveva, Rockwell Automation, Siemens. et Schneider Electric, ainsi que Teradyne Robotics et ses sociétés MiR et Universal Robots. Récemment, Nvidiahascoll
