


Analisis mendalam, langkah demi langkah untuk membina chatbot anda menggunakan GPT
Berbual dengan ChatGPT adalah menyeronokkan dan bermaklumat - anda boleh meneroka beberapa idea baharu dengan berbual dengannya. Tetapi ini adalah kes penggunaan yang lebih kasual, dan kebaharuan itu cepat hilang, terutamanya apabila seseorang menyedari bahawa ia boleh menghasilkan halusinasi.
Bagaimana untuk menggunakan ChatGPT dengan cara yang lebih cekap? Selepas OpenAI mengeluarkan siri API GPT3.5, anda boleh melakukan lebih daripada sekadar berbual. QA (Soal Jawab) ialah kes penggunaan yang sangat berkesan untuk perniagaan dan individu - tanya bot tentang fail/data anda sendiri menggunakan bahasa semula jadi dan ia boleh menjawab dengan cepat dengan mendapatkan maklumat daripada fail dan menjana respons. Gunakannya untuk sokongan pelanggan, penyelidikan pengguna yang komprehensif, pengurusan pengetahuan peribadi dan banyak lagi.
Tanya soalan bot yang berkaitan dengan fail anda. Imej dijana menggunakan kaedah resapan stabil.
Artikel ini akan meneroka cara membina chatbot Soal Jawab berdasarkan data anda sendiri, termasuk sebab sesetengah kaedah tidak berfungsi dan panduan langkah demi langkah tentang cara menggunakan llama-index dan API GPT untuk membina chatbot S&J dokumen dengan cara yang cekap.
(Jika anda hanya ingin tahu cara membina chatbot Soal Jawab, anda boleh melangkau terus ke bahagian "Membina Soalan&Jawa Dokumen Langkah demi Langkah")
Teroka kaedah yang berbeza
Apabila ChatGPT keluar Semasa bekerja, anda boleh memikirkan untuk menggunakannya sebagai pembantu dalam kerja anda, dengan itu menjimatkan masa dan tenaga anda.
Perkara pertama yang terlintas di fikiran ialah menggunakan data anda sendiri untuk memperhalusi model GPT bagi mencapai matlamat ini. Walau bagaimanapun, penalaan halus memerlukan sedikit wang dan memerlukan set data yang besar dengan contoh. Ia juga mustahil untuk memperhalusi setiap kali fail berubah. Perkara yang lebih kritikal ialah penalaan halus tidak boleh menjadikan model "tahu" semua maklumat dalam dokumen Sebaliknya, ia mesti mengajar model kemahiran baharu. Oleh itu, penalaan halus bukanlah idea yang baik untuk jaminan kualiti (berbilang) dokumen.
Pendekatan kedua ialah melakukan kejuruteraan pembayang dengan menyediakan konteks dalam pembayang. Sebagai contoh, bukannya bertanya soalan secara langsung, anda boleh menambahkan kandungan dokumen asal sebelum soalan sebenar. Tetapi perhatian model GPT adalah terhad - ia hanya boleh menerima beberapa ribu perkataan dalam pembayang (kira-kira 4000 token atau 3000 perkataan). Dengan beribu-ribu e-mel maklum balas pelanggan dan beratus-ratus dokumen produk, adalah mustahil untuk memberikan semua konteks dengan segera. Menghantar konteks yang panjang kepada API juga mahal kerana harga adalah berdasarkan bilangan token yang digunakan.
I will ask you questions based on the following context: — Start of Context — YOUR DOCUMENT CONTENT — End of Context— My question is: “What features do users want to see in the app?”
Memandangkan gesaan mempunyai had pada bilangan teg input, kemukakan idea ini untuk menyelesaikan masalah: mula-mula gunakan algoritma untuk mencari dokumen dan pilih petikan yang berkaitan, dan kemudian hanya yang adalah relevan Konteks diserahkan kepada model GPT bersama-sama dengan soalan. Dalam proses itu, perpustakaan indeks gpt yang ringkas dan mudah (kini dinamakan semula sebagai LlamaIndex) perlu digunakan.
Ekstrak bahagian yang berkaitan daripada fail dan suapkannya kembali kepada gesaan.
Dalam bahagian seterusnya, tutorial langkah demi langkah akan diberikan tentang membina chatbot Soal Jawab pada data anda sendiri menggunakan LlamaIndex dan GPT.
Bina satu dokumen Q&A chatbot langkah demi langkah
Dalam bahagian ini, kami akan menggunakan LlamaIndex dan GPT (text-davinci-003) untuk membina Q&J chatbot berdasarkan dokumen sedia ada, jadi Anda boleh bertanya soalan tentang dokumen dalam bahasa semula jadi dan mendapatkan jawapan daripada chatbot.
Prasyarat
Sebelum memulakan tutorial ini, anda perlu membuat beberapa persediaan:
- Kunci API OpenAI, yang boleh didapati di https://platform.openai .com /account/api-keys dijumpai.
- Pangkalan data fail. LlamaIndex menyokong banyak sumber data yang berbeza seperti Notion, Google Docs, Asana, dsb. Dalam artikel ini hanya fail teks ringkas akan digunakan untuk demonstrasi.
- Persekitaran Python tempatan atau buku nota Google Colab dalam talian.
Aliran Kerja
Aliran kerja sangat mudah dan hanya memerlukan beberapa langkah:
- 1. Gunakan LlamaIndex untuk mencipta indeks untuk data dokumen anda.
- 2. Tanya indeks menggunakan bahasa semula jadi.
- 3.LlamaIndex akan mengambil bahagian yang berkaitan dan menghantarnya ke petua GPT.
- 4 Tanya GPT untuk konteks yang berkaitan dan bina respons.
Apa yang LlamaIndex lakukan ialah menukar data dokumen mentah kepada indeks vektor, yang sangat cekap untuk membuat pertanyaan. Ia akan menggunakan indeks ini untuk mencari bahagian yang paling relevan berdasarkan persamaan pertanyaan dan data. Ia kemudian akan memasukkan kandungan yang diambil ke dalam gesaan yang akan dihantar kepada GPT supaya GPT mempunyai konteks untuk menjawab soalan.
Persediaan
Anda perlu memasang perpustakaan terlebih dahulu. Hanya jalankan arahan berikut pada Terminal atau Google Colab Notebook. Perintah ini akan memasang kedua-dua LlamaIndex dan OpenAI.
!pip install llama-index !pip install openai
Seterusnya anda akan mengimport perpustakaan ini dalam python dan menyediakan kunci API OpenAI dalam fail .py baharu.
# 导入必要的库 from llama_index import GPTSimpleVectorIndex, Document, SimpleDirectoryReader import os os.environ['OPENAI_API_KEY'] = 'sk-YOUR-API-KEY'
Bina indeks dan simpan
Selepas anda memasang perpustakaan yang diperlukan dan mengimportnya, anda perlu membina indeks dokumen anda.
Untuk memuatkan dokumen, anda boleh menggunakan kaedah SimpleDirectoryReader yang disediakan oleh LllamaIndex, atau anda boleh memuatkannya daripada rentetan.
# 从一个目录中加载 documents = SimpleDirectoryReader('your_directory').load_data() # 从字符串中加载,假设将数据保存为字符串text1,text2,... text_list = [text1, text2, ...] documents = [Document(t) for t in text_list]
LlamaIndex还提供各种数据连接器,包括Notion、Asana、Google Drive、Obsidian等。可以在https://llamahub.ai/找到可用的数据连接器。
加载完文档后,就可以用以下方法简单地构建索引了:
# 构建一个简单的向量索引 index = GPTSimpleVectorIndex(documents)
如果想保存索引并加载它以便将来使用,可以使用以下方法:
# 将索引保存在`index.json`文件中 index.save_to_disk('index.json') # 从保存的`index.json`文件中加载索引 index = GPTSimpleVectorIndex.load_from_disk('index.json')
查询索引并获得响应
查询索引很简单:
# 查询索引 response = index.query("What features do users want to see in the app?") print(response)
一个回应的例子。
然后就可以得到答案了。在幕后,LlamaIndex将接收提示,在索引中搜索相关块,并将提示和相关块传递给GPT。
一些高级用法的说明
上面的步骤只是展示了使用LlamaIndex和GPT回答问题的一个非常简单的入门用法。但可以做得比这更多。事实上,可以配置LlamaIndex来使用不同的大型语言模型(LLM),为不同的任务使用不同类型的索引,用一个新的索引来更新现有的索引,等等。如果有兴趣,可以在https://gpt-index.readthedocs.io/en/latest/index.html,阅读他们的文档。
总结
本文中展示了如何结合使用GPT和LlamaIndex来构建一个文档问答聊天机器人。虽然GPT(和其他LLM)本身就很强大,但如果把它与其他工具、数据或流程结合起来,它的力量也会被大大增强。
Atas ialah kandungan terperinci Analisis mendalam, langkah demi langkah untuk membina chatbot anda menggunakan GPT. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Robot humanoid Ameca telah dinaik taraf kepada generasi kedua! Baru-baru ini, di Persidangan Komunikasi Mudah Alih Sedunia MWC2024, robot Ameca paling canggih di dunia muncul semula. Di sekitar venue, Ameca menarik sejumlah besar penonton. Dengan restu GPT-4, Ameca boleh bertindak balas terhadap pelbagai masalah dalam masa nyata. "Jom kita menari." Apabila ditanya sama ada dia mempunyai emosi, Ameca menjawab dengan beberapa siri mimik muka yang kelihatan sangat hidup. Hanya beberapa hari yang lalu, EngineeredArts, syarikat robotik British di belakang Ameca, baru sahaja menunjukkan hasil pembangunan terkini pasukan itu. Dalam video tersebut, robot Ameca mempunyai keupayaan visual dan boleh melihat serta menerangkan keseluruhan bilik dan objek tertentu. Perkara yang paling menakjubkan ialah dia juga boleh

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus

Dalam bidang teknologi automasi perindustrian, terdapat dua titik panas terkini yang sukar diabaikan: kecerdasan buatan (AI) dan Nvidia. Jangan ubah maksud kandungan asal, perhalusi kandungan, tulis semula kandungan, jangan teruskan: “Bukan itu sahaja, kedua-duanya berkait rapat, kerana Nvidia tidak terhad kepada unit pemprosesan grafik asalnya (GPU ), ia sedang mengembangkan GPUnya Teknologi ini meluas ke bidang kembar digital dan berkait rapat dengan teknologi AI yang baru muncul "Baru-baru ini, NVIDIA telah mencapai kerjasama dengan banyak syarikat industri, termasuk syarikat automasi industri terkemuka seperti Aveva, Rockwell Automation, Siemens. dan Schneider Electric, serta Teradyne Robotics dan syarikat MiR dan Universal Robotsnya. Baru-baru ini, Nvidiahascoll
