與ChatGPT聊天很有趣,而且資訊量很大 —— 與它閒聊可以探索一些新的想法。但這些都是比較隨意的用例,新奇感很快就會減弱,特別是當人意識到它能產生幻覺的時候。
如何以更有效率的方式使用ChatGPT呢?在OpenAI發布GPT3.5系列API後,可以做的事情遠不止於閒聊。 QA(問答)是企業和個人使用的一個非常有效的用例 —— 用自然語言向機器人詢問自己的文件/數據,它可以透過從文件中檢索資訊並產生回應來快速回答。可以把它用於客戶支援、綜合用戶研究、個人知識管理等等。
向機器人詢問與文件相關的問題。使用穩定擴散法產生的影像。
本文將探討如何根據自己的資料建立問答聊天機器人,包括為什麼有些方法行不通,以及如何利用llama-index和GPT API以高效的方式建立一個文件問答聊天機器人的步驟指南。
(如果只想知道如何建立問答聊天機器人,可以直接跳到「逐步建立文件問答聊天機器人」部分)
當ChatGPT問世時,可以想到把它當作自己工作的一個助手,從而節省自己的時間和精力等。
首先想到的是用自己的資料微調GPT模型來實現這個目標。但是,微調需要花費相當多的錢,而且需要一個有實例的大資料集。也不可能在文件有變化時每次都進行微調。更關鍵的一點是,微調根本不可能讓模型「知道」文件中的所有訊息,而是要教模型一種新的技能。因此,對於(多)文件品質保證來說,微調並不是一個好辦法。
第二個方法是透過在提示中提供上下文來進行提示工程。例如,可以在實際問題之前附加原始文件內容,而不是直接問問題。但是GPT模型的注意力是有限的 —— 它只能接受提示中的幾千字(大約4000個標記或3000字)。只要有成千上萬的客戶回饋郵件和數百個產品文檔,就不可能給它提示中的所有背景。如果向API傳遞一個長的上下文,也是很昂貴的,因為定價是基於使用的代幣的數量。
I will ask you questions based on the following context: — Start of Context — YOUR DOCUMENT CONTENT — End of Context— My question is: “What features do users want to see in the app?”
由於提示符號對輸入標記的數量有限制,想出了這樣一個主意來解決問題:首先使用一種演算法來搜尋文件並挑選出相關的摘錄,然後只將這些相關的語境與問題一起傳遞給GPT模型。在過程中需要使用一個簡單、便捷的gpt-index(現在改名為LlamaIndex)的函式庫。
從檔案中提取相關部分,然後將其回饋給提示。
在下一節中,將給出一個使用LlamaIndex和GPT在自己的資料上建立一個問答聊天機器人的逐步教學。
在這一節中,將用LlamaIndex和GPT(text-davinci-003)在現有文件的基礎上建立一個問答聊天機器人,這樣就可以用自然語言提出關於文件的問題,並從聊天機器人那裡得到答案。
在開始本教學之前,需要做一些準備:
工作流程很簡單,只需要幾個步驟:
LlamaIndex所做的是將原始文件資料轉換成一個向量的索引,這對查詢來說是非常有效的。它將使用這個索引,根據查詢和資料的相似性,找到最相關的部分。然後,它將把檢索到的內容插入到它將發送給GPT的提示中,這樣GPT就有了回答問題的背景。
首先需要安裝函式庫。只需在終端機或谷歌Colab筆記本上執行以下命令。這些命令將同時安裝LlamaIndex和OpenAI。
!pip install llama-index !pip install openai
接下來將在python中匯入這些函式庫,並在一個新的.py檔案中設定OpenAI API金鑰。
# 导入必要的库 from llama_index import GPTSimpleVectorIndex, Document, SimpleDirectoryReader import os os.environ['OPENAI_API_KEY'] = 'sk-YOUR-API-KEY'
在安裝了所需的庫並將其導入後,將需要建立一個文件的索引。
為了載入文檔,可以使用LllamaIndex提供的SimpleDirectoryReader方法,或者可以從字串中載入它。
# 从一个目录中加载 documents = SimpleDirectoryReader('your_directory').load_data() # 从字符串中加载,假设将数据保存为字符串text1,text2,... text_list = [text1, text2, ...] documents = [Document(t) for t in text_list]
LlamaIndex还提供各种数据连接器,包括Notion、Asana、Google Drive、Obsidian等。可以在https://llamahub.ai/找到可用的数据连接器。
加载完文档后,就可以用以下方法简单地构建索引了:
# 构建一个简单的向量索引 index = GPTSimpleVectorIndex(documents)
如果想保存索引并加载它以便将来使用,可以使用以下方法:
# 将索引保存在`index.json`文件中 index.save_to_disk('index.json') # 从保存的`index.json`文件中加载索引 index = GPTSimpleVectorIndex.load_from_disk('index.json')
查询索引很简单:
# 查询索引 response = index.query("What features do users want to see in the app?") print(response)
一个回应的例子。
然后就可以得到答案了。在幕后,LlamaIndex将接收提示,在索引中搜索相关块,并将提示和相关块传递给GPT。
上面的步骤只是展示了使用LlamaIndex和GPT回答问题的一个非常简单的入门用法。但可以做得比这更多。事实上,可以配置LlamaIndex来使用不同的大型语言模型(LLM),为不同的任务使用不同类型的索引,用一个新的索引来更新现有的索引,等等。如果有兴趣,可以在https://gpt-index.readthedocs.io/en/latest/index.html,阅读他们的文档。
本文中展示了如何结合使用GPT和LlamaIndex来构建一个文档问答聊天机器人。虽然GPT(和其他LLM)本身就很强大,但如果把它与其他工具、数据或流程结合起来,它的力量也会被大大增强。
以上是深入淺析,一步步用GPT打造你的聊天機器人的詳細內容。更多資訊請關注PHP中文網其他相關文章!