叉子

王林
發布: 2025-02-28 14:39:11
原創
804 人瀏覽過

>本文探索了代理抹布,這是一種強大的技術,可以通過將代理AI的決策能力與檢索功能增強生成(RAG)的適應性相結合來增強大型語言模型(LLM)。 與傳統模型受其培訓數據限制不同,Agentic rag允許LLMS獨立訪問和推理來自各種來源的信息。 該實用的指南重點是使用Langchain建立動手抹布管道。

>用langchain 構建代理抹布管道 以下步驟詳細介紹了抹布管道的創建,由下面的架構圖說明:

>

叉子

  1. 用戶查詢:

    該過程以用戶的問題開頭,啟動管道。

  2. 查詢路由:

    系統確定是否可以使用現有知識來回答查詢。 積極的反應產生了立即的答案;否則,查詢將進行數據檢索。 >

  3. 數據檢索:

    管道訪問兩個潛在來源:

      本地文檔:
    • >預處理的PDF(例如,生成AI原理)是知識庫,系統正在搜索內部的相關信息。 > Internet搜索:
    • 對於更廣泛的上下文,管道使用外部來源來收集最新信息。
    • >
    >
  4. 上下文構建:
  5. 檢索數據(從PDF或Web中)被編譯為連貫的上下文,組裝相關信息。

    >

    答案生成:此編譯的上下文被饋送到大型語言模型(LLM)以生成一個精確且內容豐富的答案。 >
  6. 設置環境

  7. 開始之前,請確保您有以下操作:>

groq api鍵:

groq api console

>文件中安全地保存(示例):>
pip install langchain-groq faiss-cpu crewai serper pypdf2 python-dotenv setuptools sentence-transformers huggingface distutils
登入後複製

>代碼利用各種庫進行:操作系統交互(os),環境變量加載(dotenv),矢量數據庫管理(FAISS),PDF處理(PyPDFLoader>),文本拆卸(RecursiveCharacterTextSplitter),嵌入(HuggingFaceEmbeddings),eNagending(ChatGroq),LLM),LLM Interaction(llm Interaction(LLM Interaction)(SerperDevTool),ScrapeWebsiteTool,AgentTask)。Crew>

llm初始化和決策>

>初始化了兩個llms:

(使用llm)作為一般任務,而llama-3.3-70b-specdec>(使用crew_llm)進行Web刮擦。 Agemini/gemini-1.5-flash函數充當路由器,確定基於提供的上下文是否足夠的本地答案。 check_local_knowledge()

> Web刮擦代理和矢量數據庫

> >使用

庫構建的Web刮擦代理,檢索並總結了相關的Web內容。

>函數從PDF創建了FAISS矢量數據庫,從而實現了有效的相似性搜索。 crewai>從數據庫中檢索最相關的5個最相關的塊。 setup_vector_db()> get_local_content()

答案生成和主函數

>

函數使用LLM根據收集的上下文來創建最終響應。

函數策劃了整個過程,處理查詢路由,上下文檢索和答案生成。 一個示例查詢(“什麼是代理抹布?”)演示了該系統的整合基於本地和Web的信息以進行全面響應的能力。 輸出展示了系統提供對代理抹布的詳細說明的能力,即使信息在本地PDF中不直接存在。 generate_final_answer()>這種修訂後的響應提供了對代理抹布管道的更簡潔,更有條理的解釋,重點介紹了所涉及的關鍵步驟和功能。 它還闡明了每個代碼段和庫的目的和用法。 main()>

以上是叉子的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板