Jadual Kandungan
Teroka kaedah yang berbeza
Bina satu dokumen Q&A chatbot langkah demi langkah
Prasyarat
Aliran Kerja
Persediaan
Bina indeks dan simpan
查询索引并获得响应
一些高级用法的说明
总结
Rumah Peranti teknologi AI Analisis mendalam, langkah demi langkah untuk membina chatbot anda menggunakan GPT

Analisis mendalam, langkah demi langkah untuk membina chatbot anda menggunakan GPT

Apr 07, 2023 pm 07:41 PM
robot gpt llm

Berbual dengan ChatGPT adalah menyeronokkan dan bermaklumat - anda boleh meneroka beberapa idea baharu dengan berbual dengannya. Tetapi ini adalah kes penggunaan yang lebih kasual, dan kebaharuan itu cepat hilang, terutamanya apabila seseorang menyedari bahawa ia boleh menghasilkan halusinasi.

Bagaimana untuk menggunakan ChatGPT dengan cara yang lebih cekap? Selepas OpenAI mengeluarkan siri API GPT3.5, anda boleh melakukan lebih daripada sekadar berbual. QA (Soal Jawab) ialah kes penggunaan yang sangat berkesan untuk perniagaan dan individu - tanya bot tentang fail/data anda sendiri menggunakan bahasa semula jadi dan ia boleh menjawab dengan cepat dengan mendapatkan maklumat daripada fail dan menjana respons. Gunakannya untuk sokongan pelanggan, penyelidikan pengguna yang komprehensif, pengurusan pengetahuan peribadi dan banyak lagi.

Tanya soalan bot yang berkaitan dengan fail anda. Imej dijana menggunakan kaedah resapan stabil.

Artikel ini akan meneroka cara membina chatbot Soal Jawab berdasarkan data anda sendiri, termasuk sebab sesetengah kaedah tidak berfungsi dan panduan langkah demi langkah tentang cara menggunakan llama-index dan API GPT untuk membina chatbot S&J dokumen dengan cara yang cekap.

(Jika anda hanya ingin tahu cara membina chatbot Soal Jawab, anda boleh melangkau terus ke bahagian "Membina Soalan&Jawa Dokumen Langkah demi Langkah")

Teroka kaedah yang berbeza

Apabila ChatGPT keluar Semasa bekerja, anda boleh memikirkan untuk menggunakannya sebagai pembantu dalam kerja anda, dengan itu menjimatkan masa dan tenaga anda.

Perkara pertama yang terlintas di fikiran ialah menggunakan data anda sendiri untuk memperhalusi model GPT bagi mencapai matlamat ini. Walau bagaimanapun, penalaan halus memerlukan sedikit wang dan memerlukan set data yang besar dengan contoh. Ia juga mustahil untuk memperhalusi setiap kali fail berubah. Perkara yang lebih kritikal ialah penalaan halus tidak boleh menjadikan model "tahu" semua maklumat dalam dokumen Sebaliknya, ia mesti mengajar model kemahiran baharu. Oleh itu, penalaan halus bukanlah idea yang baik untuk jaminan kualiti (berbilang) dokumen.

Pendekatan kedua ialah melakukan kejuruteraan pembayang dengan menyediakan konteks dalam pembayang. Sebagai contoh, bukannya bertanya soalan secara langsung, anda boleh menambahkan kandungan dokumen asal sebelum soalan sebenar. Tetapi perhatian model GPT adalah terhad - ia hanya boleh menerima beberapa ribu perkataan dalam pembayang (kira-kira 4000 token atau 3000 perkataan). Dengan beribu-ribu e-mel maklum balas pelanggan dan beratus-ratus dokumen produk, adalah mustahil untuk memberikan semua konteks dengan segera. Menghantar konteks yang panjang kepada API juga mahal kerana harga adalah berdasarkan bilangan token yang digunakan.

I will ask you questions based on the following context:
— Start of Context —

YOUR DOCUMENT CONTENT

— End of Context—
My question is: “What features do users want to see in the app?”
Salin selepas log masuk

Memandangkan gesaan mempunyai had pada bilangan teg input, kemukakan idea ini untuk menyelesaikan masalah: mula-mula gunakan algoritma untuk mencari dokumen dan pilih petikan yang berkaitan, dan kemudian hanya yang adalah relevan Konteks diserahkan kepada model GPT bersama-sama dengan soalan. Dalam proses itu, perpustakaan indeks gpt yang ringkas dan mudah (kini dinamakan semula sebagai LlamaIndex) perlu digunakan.

Analisis mendalam, langkah demi langkah untuk membina chatbot anda menggunakan GPT

Ekstrak bahagian yang berkaitan daripada fail dan suapkannya kembali kepada gesaan.

Dalam bahagian seterusnya, tutorial langkah demi langkah akan diberikan tentang membina chatbot Soal Jawab pada data anda sendiri menggunakan LlamaIndex dan GPT.

Bina satu dokumen Q&A chatbot langkah demi langkah

Dalam bahagian ini, kami akan menggunakan LlamaIndex dan GPT (text-davinci-003) untuk membina Q&J chatbot berdasarkan dokumen sedia ada, jadi Anda boleh bertanya soalan tentang dokumen dalam bahasa semula jadi dan mendapatkan jawapan daripada chatbot.

Prasyarat

Sebelum memulakan tutorial ini, anda perlu membuat beberapa persediaan:

  • Kunci API OpenAI, yang boleh didapati di https://platform.openai .com /account/api-keys dijumpai.
  • Pangkalan data fail. LlamaIndex menyokong banyak sumber data yang berbeza seperti Notion, Google Docs, Asana, dsb. Dalam artikel ini hanya fail teks ringkas akan digunakan untuk demonstrasi.
  • Persekitaran Python tempatan atau buku nota Google Colab dalam talian.

Aliran Kerja

Aliran kerja sangat mudah dan hanya memerlukan beberapa langkah:

  • 1. Gunakan LlamaIndex untuk mencipta indeks untuk data dokumen anda.
  • 2. Tanya indeks menggunakan bahasa semula jadi.
  • 3.LlamaIndex akan mengambil bahagian yang berkaitan dan menghantarnya ke petua GPT.
  • 4 Tanya GPT untuk konteks yang berkaitan dan bina respons.

Apa yang LlamaIndex lakukan ialah menukar data dokumen mentah kepada indeks vektor, yang sangat cekap untuk membuat pertanyaan. Ia akan menggunakan indeks ini untuk mencari bahagian yang paling relevan berdasarkan persamaan pertanyaan dan data. Ia kemudian akan memasukkan kandungan yang diambil ke dalam gesaan yang akan dihantar kepada GPT supaya GPT mempunyai konteks untuk menjawab soalan.

Persediaan

Anda perlu memasang perpustakaan terlebih dahulu. Hanya jalankan arahan berikut pada Terminal atau Google Colab Notebook. Perintah ini akan memasang kedua-dua LlamaIndex dan OpenAI.

!pip install llama-index
!pip install openai
Salin selepas log masuk

Seterusnya anda akan mengimport perpustakaan ini dalam python dan menyediakan kunci API OpenAI dalam fail .py baharu.

# 导入必要的库
from llama_index import GPTSimpleVectorIndex, Document, SimpleDirectoryReader
import os

os.environ['OPENAI_API_KEY'] = 'sk-YOUR-API-KEY'
Salin selepas log masuk

Bina indeks dan simpan

Selepas anda memasang perpustakaan yang diperlukan dan mengimportnya, anda perlu membina indeks dokumen anda.

Untuk memuatkan dokumen, anda boleh menggunakan kaedah SimpleDirectoryReader yang disediakan oleh LllamaIndex, atau anda boleh memuatkannya daripada rentetan.

# 从一个目录中加载
documents = SimpleDirectoryReader('your_directory').load_data()

# 从字符串中加载,假设将数据保存为字符串text1,text2,...
text_list = [text1, text2, ...]
documents = [Document(t) for t in text_list]
Salin selepas log masuk

LlamaIndex还提供各种数据连接器,包括Notion、Asana、Google Drive、Obsidian等。可以在https://llamahub.ai/找到可用的数据连接器。

加载完文档后,就可以用以下方法简单地构建索引了:

# 构建一个简单的向量索引
index = GPTSimpleVectorIndex(documents)
Salin selepas log masuk

如果想保存索引并加载它以便将来使用,可以使用以下方法:

# 将索引保存在`index.json`文件中
index.save_to_disk('index.json')
# 从保存的`index.json`文件中加载索引
index = GPTSimpleVectorIndex.load_from_disk('index.json')
Salin selepas log masuk

查询索引并获得响应

查询索引很简单:

# 查询索引
response = index.query("What features do users want to see in the app?")
print(response)
Salin selepas log masuk

Analisis mendalam, langkah demi langkah untuk membina chatbot anda menggunakan GPT

一个回应的例子。

然后就可以得到答案了。在幕后,LlamaIndex将接收提示,在索引中搜索相关块,并将提示和相关块传递给GPT。

一些高级用法的说明

上面的步骤只是展示了使用LlamaIndex和GPT回答问题的一个非常简单的入门用法。但可以做得比这更多。事实上,可以配置LlamaIndex来使用不同的大型语言模型(LLM),为不同的任务使用不同类型的索引,用一个新的索引来更新现有的索引,等等。如果有兴趣,可以在https://gpt-index.readthedocs.io/en/latest/index.html,阅读他们的文档。

总结

本文中展示了如何结合使用GPT和LlamaIndex来构建一个文档问答聊天机器人。虽然GPT(和其他LLM)本身就很强大,但如果把它与其他工具、数据或流程结合起来,它的力量也会被大大增强。

Atas ialah kandungan terperinci Analisis mendalam, langkah demi langkah untuk membina chatbot anda menggunakan GPT. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Arahan sembang dan cara menggunakannya
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Jun 10, 2024 am 09:16 AM

Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Apr 23, 2024 pm 03:01 PM

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Aug 29, 2024 pm 02:37 PM

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Jun 07, 2024 am 10:06 AM

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Ameca generasi kedua ada di sini! Dia boleh berkomunikasi dengan penonton dengan lancar, ekspresi mukanya lebih realistik, dan dia boleh bercakap berpuluh-puluh bahasa. Ameca generasi kedua ada di sini! Dia boleh berkomunikasi dengan penonton dengan lancar, ekspresi mukanya lebih realistik, dan dia boleh bercakap berpuluh-puluh bahasa. Mar 04, 2024 am 09:10 AM

Robot humanoid Ameca telah dinaik taraf kepada generasi kedua! Baru-baru ini, di Persidangan Komunikasi Mudah Alih Sedunia MWC2024, robot Ameca paling canggih di dunia muncul semula. Di sekitar venue, Ameca menarik sejumlah besar penonton. Dengan restu GPT-4, Ameca boleh bertindak balas terhadap pelbagai masalah dalam masa nyata. "Jom kita menari." Apabila ditanya sama ada dia mempunyai emosi, Ameca menjawab dengan beberapa siri mimik muka yang kelihatan sangat hidup. Hanya beberapa hari yang lalu, EngineeredArts, syarikat robotik British di belakang Ameca, baru sahaja menunjukkan hasil pembangunan terkini pasukan itu. Dalam video tersebut, robot Ameca mempunyai keupayaan visual dan boleh melihat serta menerangkan keseluruhan bilik dan objek tertentu. Perkara yang paling menakjubkan ialah dia juga boleh

GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) Jun 12, 2024 am 10:32 AM

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Mar 01, 2024 pm 09:16 PM

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus

Bagaimanakah AI boleh menjadikan robot lebih autonomi dan boleh disesuaikan? Bagaimanakah AI boleh menjadikan robot lebih autonomi dan boleh disesuaikan? Jun 03, 2024 pm 07:18 PM

Dalam bidang teknologi automasi perindustrian, terdapat dua titik panas terkini yang sukar diabaikan: kecerdasan buatan (AI) dan Nvidia. Jangan ubah maksud kandungan asal, perhalusi kandungan, tulis semula kandungan, jangan teruskan: “Bukan itu sahaja, kedua-duanya berkait rapat, kerana Nvidia tidak terhad kepada unit pemprosesan grafik asalnya (GPU ), ia sedang mengembangkan GPUnya Teknologi ini meluas ke bidang kembar digital dan berkait rapat dengan teknologi AI yang baru muncul "Baru-baru ini, NVIDIA telah mencapai kerjasama dengan banyak syarikat industri, termasuk syarikat automasi industri terkemuka seperti Aveva, Rockwell Automation, Siemens. dan Schneider Electric, serta Teradyne Robotics dan syarikat MiR dan Universal Robotsnya. Baru-baru ini, Nvidiahascoll

See all articles