Jadual Kandungan
Pengenalan
Objektif pembelajaran
Jadual Kandungan
Memahami ejen Rag dan Multi-Dokumen
Mengapa Multi-Document Agentic Rag adalah penukar permainan?
Kekuatan Utama Sistem Rag Agentik Multi-Dokumen
Blok bangunan Multi-Dokumen Agentic Rag
Pemprosesan dokumen
Mewujudkan embeddings
Pengindeksan
Pengambilan semula
Penalaran berasaskan ejen
Generasi
Melaksanakan Rag Agentik Multi Dokumen Asas
Langkah1: Pemasangan perpustakaan yang diperlukan
Langkah2: Menyediakan kekunci API dan pembolehubah persekitaran
Langkah 3: Muat turun dokumen
Langkah4: Membuat alat vektor dan ringkasan
Memuatkan dokumen dan bersiap untuk mengindeks vektor
Menentukan fungsi pertanyaan vektor
Membuat alat pertanyaan vektor
Membuat alat pertanyaan ringkasan
Fungsi panggilan untuk membina alat untuk setiap kertas
Langkah5: Membuat ejen
Langkah 6: Menganalisis respons dari ejen
Penjelasan mengenai interaksi ejen dengan kertas longlora
Penjelasan Tingkah Laku Agen: Meringkaskan Rag Diri dan Longlora
Penggunaan alat ringkasan
Panggilan yang berbeza untuk memisahkan alat ringkasan
Kesesuaian dan ketetapan tanggapan
Cabaran dan pertimbangan
Kesimpulan
Takeaways utama
Soalan yang sering ditanya
Rumah Peranti teknologi AI Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex

Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex

Apr 13, 2025 am 11:03 AM

Pengenalan

Dalam bidang kecerdasan buatan yang berkembang pesat, keupayaan untuk memproses dan memahami sejumlah besar maklumat menjadi semakin penting. Masukkan Multi-Document Agentic RAG-Pendekatan yang kuat yang menggabungkan Generasi Retrieval-Augmented (RAG) dengan sistem berasaskan ejen untuk membuat AI yang boleh membuat alasan merentasi pelbagai dokumen. Panduan ini akan membimbing anda melalui konsep, pelaksanaan, dan potensi teknologi yang menarik ini.

Objektif pembelajaran

  • Memahami asas-asas sistem RAG Agentik multi-dokumen dan seni bina mereka.
  • Ketahui bagaimana embeddings dan penalaran berasaskan ejen meningkatkan keupayaan AI untuk menghasilkan tindak balas yang tepat secara kontekstual.
  • Terokai mekanisme pengambilan lanjutan yang meningkatkan pengekstrakan maklumat dalam aplikasi intensif pengetahuan.
  • Mendapatkan pandangan mengenai aplikasi RAG agensi multi-dokumen dalam bidang kompleks seperti penyelidikan dan analisis undang-undang.
  • Membangunkan keupayaan untuk menilai keberkesanan sistem RAG dalam penjanaan kandungan dan analisis kandungan AI.

Artikel ini diterbitkan sebagai sebahagian daripada Blogathon Sains Data.

Jadual Kandungan

  • Memahami ejen Rag dan Multi-Dokumen
  • Mengapa Multi-Document Agentic Rag adalah penukar permainan?
  • Kekuatan Utama Sistem Rag Agentik Multi-Dokumen
  • Blok bangunan Multi-Dokumen Agentic Rag
  • Melaksanakan Rag Agentik Multi Dokumen Asas
    • Langkah1: Pemasangan perpustakaan yang diperlukan
    • Langkah2: Menyediakan kekunci API dan pembolehubah persekitaran
    • Langkah 3: Muat turun dokumen
    • Langkah4: Membuat alat vektor dan ringkasan
    • Langkah5: Membuat ejen
    • Langkah 6: Menganalisis respons dari ejen
    • Penjelasan mengenai interaksi ejen dengan kertas longlora
    • Penjelasan Tingkah Laku Agen: Meringkaskan Rag Diri dan Longlora
  • Cabaran dan pertimbangan
  • Soalan yang sering ditanya

Memahami ejen Rag dan Multi-Dokumen

Generasi pengambilan semula (RAG) adalah teknik yang meningkatkan model bahasa dengan membolehkan mereka mengakses dan menggunakan pengetahuan luaran. Daripada hanya bergantung pada parameter terlatih mereka, model RAG boleh mendapatkan maklumat yang relevan dari pangkalan pengetahuan untuk menghasilkan respons yang lebih tepat dan bermaklumat.

Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex

Multi-dokumen Agentic Rag mengambil konsep ini lebih lanjut dengan membolehkan ejen AI bekerja dengan pelbagai dokumen secara serentak. Pendekatan ini amat berharga untuk tugas -tugas yang memerlukan maklumat mensintesis dari pelbagai sumber, seperti penyelidikan akademik, analisis pasaran, atau semakan dokumen undang -undang.

Mengapa Multi-Document Agentic Rag adalah penukar permainan?

Marilah kita faham mengapa Multi-Document Agentic Rag adalah penukar permainan.

  • Pemahaman yang lebih bijak mengenai konteks : Bayangkan mempunyai pembantu super pintar yang tidak hanya membaca satu buku, tetapi seluruh perpustakaan untuk menjawab soalan anda. Itulah yang dimaksudkan dengan pemahaman kontekstual yang dipertingkatkan. Dengan menganalisis pelbagai dokumen, AI boleh menyatukan gambaran yang lebih lengkap, memberikan anda jawapan yang benar -benar menangkap gambaran besar.
  • Meningkatkan ketepatan untuk tugas -tugas yang rumit : Kami semua telah memainkan "Sambungkan Titik" sebagai anak -anak. Multi-dokumen Agentic Rag melakukan sesuatu yang serupa, tetapi dengan maklumat. Dengan menghubungkan fakta dari pelbagai sumber, ia dapat menangani masalah yang kompleks dengan ketepatan yang lebih besar. Ini bermakna jawapan yang lebih dipercayai, terutamanya apabila berurusan dengan topik yang rumit.
  • Mengendalikan maklumat yang berlebihan seperti pro : Di dunia hari ini, kami tenggelam dalam data. Multi-dokumen Agentic Rag adalah seperti penapis supercharged, menyaring maklumat besar-besaran untuk mencari apa yang benar-benar relevan. Ia seperti mempunyai pasukan pakar yang bekerja sepanjang masa untuk mencerna dan meringkaskan perpustakaan pengetahuan yang luas.
  • Pangkalan pengetahuan yang boleh disesuaikan dan tumbuh : Fikirkan ini sebagai otak digital yang dapat dengan mudah belajar dan berkembang. Apabila maklumat baru tersedia, Multi-Document Agentic Rag boleh menggabungkannya dengan lancar. Ini bermakna pembantu AI anda sentiasa terkini, bersedia untuk menangani soalan terkini dengan maklumat segar.

Kekuatan Utama Sistem Rag Agentik Multi-Dokumen

Sekarang kita akan melihat kekuatan utama sistem RAG agensi multi-dokumen.

  • Penyelidikan akademik supercharging : Penyelidik sering menghabiskan minggu atau bulan mensintesis maklumat dari beratus -ratus kertas. Multi-dokumen Agentic Rag boleh mempercepatkan proses ini secara dramatik, membantu para ulama dengan cepat mengenal pasti trend utama, jurang dalam pengetahuan, dan penemuan yang berpotensi merentas badan-badan yang luas.
  • Revolusi Analisis Dokumen Undang -Undang : Peguam berurusan dengan gunung fail kes, kontrak, dan pendahuluan undang -undang. Teknologi ini boleh menganalisis beribu -ribu dokumen, mengesan butiran kritikal, ketidakkonsistenan, dan undang -undang kes yang berkaitan yang mungkin mengambil hari atau minggu pasukan manusia untuk mendedahkan.
  • Kecerdasan Pasar Turbocharging : Perniagaan perlu terus mendahului trend dan persaingan. Multi-dokumen Agentic Rag boleh terus mengimbas artikel berita, media sosial, dan laporan industri, memberikan pandangan masa nyata dan membantu syarikat membuat keputusan yang didorong oleh data lebih cepat daripada sebelumnya.
  • Menavigasi Dokumentasi Teknikal dengan Kemudahan : Bagi jurutera dan profesional IT, mencari maklumat yang tepat dalam dokumentasi teknikal yang luas boleh seperti mencari jarum dalam jerami. Pendekatan berkuasa AI ini dapat dengan cepat menentukan bahagian yang relevan di pelbagai manual, panduan penyelesaian masalah, dan repositori kod, menjimatkan banyak kekecewaan jam.

Blok bangunan Multi-Dokumen Agentic Rag

Bayangkan anda sedang membina pembantu perpustakaan digital super pintar. Pembantu ini boleh membaca beribu -ribu buku, memahami soalan yang rumit, dan memberi anda jawapan terperinci menggunakan maklumat dari pelbagai sumber. Itulah pada dasarnya sistem rag agenik multi-dokumen. Mari merosakkan komponen utama yang membuat ini mungkin:

Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex

Pemprosesan dokumen

Menukar semua jenis dokumen (PDF, halaman web, fail perkataan, dll.) Ke dalam format yang dapat difahami oleh AI kami.

Mewujudkan embeddings

Mengubah teks yang diproses ke dalam vektor berangka (urutan nombor) yang mewakili makna dan konteks maklumat.

Secara ringkas, bayangkan membuat ringkasan super kondensasi setiap perenggan di perpustakaan anda, tetapi bukan kata-kata, anda menggunakan kod unik. Kod ini menangkap intipati maklumat dengan cara komputer dapat membandingkan dan menganalisis dengan cepat.

Pengindeksan

Ia mewujudkan struktur yang efisien untuk menyimpan dan mengambil semula embeddings ini. Ini seperti mewujudkan katalog kad yang paling berkesan di dunia untuk perpustakaan digital kami. Ia membolehkan AI kami dengan cepat mencari maklumat yang relevan tanpa perlu mengimbas setiap dokumen secara terperinci.

Pengambilan semula

Ia menggunakan pertanyaan (soalan anda) untuk mencari maklumat yang paling relevan dari embeddings yang diindeks. Apabila anda mengemukakan soalan, komponen ini berlumba-lumba melalui perpustakaan digital kami, menggunakan katalog kad yang sangat cekap untuk mengeluarkan semua maklumat yang berpotensi relevan.

Penalaran berasaskan ejen

Ejen AI menafsirkan maklumat yang diambil dalam konteks pertanyaan anda, memutuskan cara menggunakannya untuk merumuskan jawapan. Ini seperti mempunyai ejen AI jenius yang bukan sahaja menemui dokumen yang betul tetapi juga memahami makna yang lebih mendalam mengenai soalan anda. Mereka boleh menyambungkan titik -titik di seluruh sumber yang berbeza dan memikirkan cara terbaik untuk menjawab anda.

Generasi

Ia menghasilkan jawapan yang boleh dibaca oleh manusia berdasarkan penalaran ejen dan maklumat yang diambil. Di sinilah ejen jenius kami menerangkan penemuan mereka kepada anda dalam bahasa yang jelas dan ringkas. Mereka mengambil semua maklumat kompleks yang telah mereka kumpulkan dan dianalisis, dan membentangkannya dengan cara yang secara langsung menjawab soalan anda.

Gabungan yang kuat ini membolehkan sistem Rag Agentik pelbagai dokumen memberikan pandangan dan jawapan yang menarik dari pengetahuan yang luas, menjadikannya sangat berguna untuk penyelidikan, analisis, dan tugas menyelesaikan masalah yang kompleks di banyak bidang.

Melaksanakan Rag Agentik Multi Dokumen Asas

Mari kita mulakan dengan membina kain ragut mudah yang boleh berfungsi dengan tiga kertas akademik. Kami akan menggunakan Perpustakaan Llama_index, yang menyediakan alat yang berkuasa untuk membina sistem RAG.

Langkah1: Pemasangan perpustakaan yang diperlukan

Untuk memulakan dengan membina ejen AI anda, anda perlu memasang perpustakaan yang diperlukan. Berikut adalah langkah untuk menubuhkan persekitaran anda:

  • Pasang Python: Pastikan anda memasang Python pada sistem anda. Anda boleh memuat turunnya dari laman web Python Rasmi: Muat turun Python
  • Sediakan persekitaran maya: Adalah amalan yang baik untuk mewujudkan persekitaran maya untuk projek anda untuk menguruskan kebergantungan. Jalankan arahan berikut untuk menubuhkan persekitaran maya:
 python -m venv ai_agent_env
sumber ai_agent_env/bin/aktifkan # pada tingkap, gunakan `ai_agent_env \ scripts \ activate`
Salin selepas log masuk
  • Pasang API Terbuka dan Llamaindex:
 PIP Pasang Openai Llama-index == 0.10.27 llama-index-llms-openai == 0.1.15
PIP Pasang llama-index-embeddings-openai == 0.1.7
Salin selepas log masuk

Langkah2: Menyediakan kekunci API dan pembolehubah persekitaran

Untuk menggunakan API OpenAI, anda memerlukan kunci API. Ikuti langkah -langkah ini untuk menyediakan kunci API anda:

  • Dapatkan kunci API: Daftar untuk akaun di laman web OpenAI dan dapatkan kunci API anda dari bahagian API.
  • Sediakan Pembolehubah Alam Sekitar: Simpan kekunci API anda dalam pembolehubah persekitaran untuk memastikan ia selamat. Tambahkan baris berikut ke fail .bashrc atau .zshrc anda (atau gunakan kaedah yang sesuai untuk sistem operasi anda)
 Eksport openai_api_key = 'your_openai_api_key_here'
Salin selepas log masuk
  • Akses kekunci API dalam kod anda: Dalam kod python anda, import perpustakaan yang diperlukan, dan akses kekunci API menggunakan modul OS
 Import OS
Import Openai
Import Nest_asyncio
dari llama_index.core.node_parser mengimport sentencesplitter
dari llama_index.core.tools Import FunctionTool, QueryEnginetool
dari llama_index.core.vector_stores import metadatafilters, FilterCondition
dari llama_index.core.Agent Import FunctionCallingAgentWorker
dari llama_index.core.Agent Import AgentRunner
dari menaip senarai import, pilihan
Import subprocess
openai.api_key = os.getenv ('openai_api_key')

Secara #optimum, anda hanya boleh menambah kunci OpenAI secara langsung. (bukan amalan yang baik)
#openai.api_key = 'your_openai_api_key_here'

nest_asyncio.apply ()
Salin selepas log masuk

Langkah 3: Muat turun dokumen

Seperti yang dinyatakan sebelum ini, saya hanya menggunakan tiga kertas untuk membuat kain ini, kami akan skala kain ini untuk lebih banyak kertas di beberapa blog lain. Anda boleh menggunakan dokumen anda sendiri (pilihan).

 # Senarai URL untuk dimuat turun
URL = [
    "https://openreview.net/pdf?id=vtmbagcn7o",
    "https://openreview.net/pdf?id=6pmjorfdak",
    "https://openreview.net/pdf?id=hsyw5go0v8",
]

# Nama fail yang sesuai untuk menyimpan fail sebagai
kertas = [
    "Metagpt.pdf",
    "longlora.pdf",
    "Selfrag.pdf",
]

# Gelung ke atas kedua -dua senarai dan muat turun setiap fail dengan nama masing -masing
Untuk URL, kertas di zip (URL, kertas):
    subprocess.run (["wget", url, "-o", kertas])
Salin selepas log masuk

Langkah4: Membuat alat vektor dan ringkasan

Fungsi di bawah, get_doc_tools, direka untuk membuat dua alat: alat pertanyaan vektor dan alat pertanyaan ringkasan. Alat ini membantu dalam menanyakan dan meringkaskan dokumen menggunakan pendekatan generasi pengambilan semula berasaskan ejen (RAG). Berikut adalah langkah -langkah dan penjelasan mereka.

 def get_doc_tools (
    file_path: str,
    Nama: str,
) -> str:
    "" "Dapatkan pertanyaan vektor dan alat pertanyaan ringkasan dari dokumen." ""
Salin selepas log masuk

Memuatkan dokumen dan bersiap untuk mengindeks vektor

Fungsi ini bermula dengan memuatkan dokumen menggunakan SimpleDirectoryReader, yang mengambil file_path yang disediakan dan membaca kandungan dokumen. Sebaik sahaja dokumen itu dimuatkan, ia diproses oleh SentencesPlitter, yang memecahkan dokumen ke dalam ketulan yang lebih kecil, atau nod, masing -masing mengandungi sehingga 1024 aksara. Nod ini kemudian diindeks menggunakan VectorStoreIndex, alat yang membolehkan pertanyaan berasaskan vektor yang cekap. Indeks ini kemudiannya akan digunakan untuk melakukan carian melalui kandungan dokumen berdasarkan persamaan vektor, menjadikannya lebih mudah untuk mendapatkan maklumat yang relevan.

 # Memuatkan dokumen dari laluan fail yang ditentukan
Dokumen = SimpleDirectoryReader (input_files = [file_path]). LOAD_DATA ()

# Pecahkan dokumen yang dimuatkan ke dalam ketulan yang lebih kecil (nod) sebanyak 1024 aksara
splitter = sentencesPlitter (chunk_size = 1024)
nod = splitter.get_nodes_from_documents (dokumen)

# Buat indeks vektor dari nod untuk pertanyaan berasaskan vektor yang cekap
vector_index = vectorstoreIndex (nod)
Salin selepas log masuk

Menentukan fungsi pertanyaan vektor

Di sini, fungsi ini mentakrifkan Vector_Query, yang bertanggungjawab untuk menjawab soalan khusus mengenai dokumen tersebut. Fungsi ini menerima rentetan pertanyaan dan senarai pilihan nombor halaman. Jika tiada nombor halaman disediakan, keseluruhan dokumen ditanyakan. Fungsi pertama cek jika page_numbers disediakan; Jika tidak, ia mungkir ke senarai kosong.

Kemudian, ia mewujudkan penapis metadata yang sesuai dengan nombor halaman yang ditentukan. Penapis ini membantu menyempitkan carian ke bahagian tertentu dokumen. Query_engine dibuat menggunakan indeks vektor dan dikonfigurasikan untuk menggunakan penapis ini, bersama dengan ambang persamaan, untuk mencari hasil yang paling relevan. Akhirnya, fungsi melaksanakan pertanyaan menggunakan enjin ini dan mengembalikan respons.

 # fungsi pertanyaan vektor
    def vector_query (
        pertanyaan: str, 
        page_numbers: pilihan [senarai [str]] = tiada
    ) -> str:
        "" "Gunakan untuk menjawab soalan di atas kertas tertentu.
    
        Berguna jika anda mempunyai soalan khusus di atas kertas.
        Sentiasa tinggalkan page_numbers sebagai tidak ada kecuali ada halaman tertentu yang ingin anda cari.
    
        Args:
            pertanyaan (str): pertanyaan rentetan yang akan tertanam.
            page_numbers (pilihan [senarai [str]]): penapis dengan set halaman. Tinggalkan tidak ada 
                Sekiranya kita mahu melakukan carian vektor
                di semua halaman. Jika tidak, penapis oleh set halaman yang ditentukan.
        
        "" "
    
        page_numbers = page_numbers atau []
        metadata_dicts = [
            {"key": "Page_label", "nilai": p} untuk p dalam page_numbers
        ]
        
        query_engine = vector_index.as_query_engine (
            persamaan_top_k = 2,
            penapis = metadatafilters.from_dicts (
                metadata_dicts,
                keadaan = filtercondition.or
            )
        )
        respons = query_engine.query (pertanyaan)
        tindak balas pulangan
Salin selepas log masuk

Membuat alat pertanyaan vektor

Bahagian fungsi ini mewujudkan vector_query_tool, alat yang menghubungkan fungsi vector_query yang telah ditetapkan sebelum ini kepada nama yang dihasilkan secara dinamik berdasarkan parameter nama yang disediakan ketika memanggil get_doc_tools.

Alat ini dibuat menggunakan functiontool.from_defaults, yang secara automatik mengkonfigurasinya dengan lalai yang diperlukan. Alat ini kini boleh digunakan untuk melakukan pertanyaan berasaskan vektor di atas dokumen menggunakan fungsi yang ditakrifkan sebelum ini.

       
    # Membuat alat pertanyaan vektor
    vector_query_tool = functionTool.from_defaults (
        name = f "vector_tool_ {name}",
        fn = vector_query
    )
Salin selepas log masuk

Membuat alat pertanyaan ringkasan

Dalam bahagian akhir ini, fungsi ini mewujudkan alat untuk meringkaskan dokumen. Pertama, ia mewujudkan summaryindex dari nod yang sebelum ini berpecah dan diindeks. Indeks ini direka khusus untuk tugas ringkasan. Summary_Query_engine kemudiannya dibuat dengan mod tindak balas "tre_summarize", yang membolehkan alat itu menghasilkan ringkasan ringkas kandungan dokumen.

Summary_tool akhirnya dibuat menggunakan QueryEnginetool.from_defaults, yang menghubungkan enjin pertanyaan kepada nama yang dihasilkan secara dinamik berdasarkan parameter nama. Alat ini juga diberikan penerangan yang menunjukkan tujuannya untuk pertanyaan yang berkaitan dengan ringkasan. Alat ringkasan ini kini boleh digunakan untuk menghasilkan ringkasan dokumen berdasarkan pertanyaan pengguna.

 # Alat pertanyaan ringkasan
    summary_index = summaryIndex (nod)
    summary_query_engine = summary_index.as_query_engine (
        response_mode = "tre_summarize",
        use_async = benar,
    )
    summary_tool = queryenginetool.from_defaults (
        name = f "summary_tool_ {name}",
        query_engine = summary_query_engine,
        Penerangan = (
            f "Berguna untuk soalan ringkasan yang berkaitan dengan {name}"
        ))
    )

    kembali vector_query_tool, summary_tool
Salin selepas log masuk

Fungsi panggilan untuk membina alat untuk setiap kertas

 paper_to_tools_dict = {}
untuk kertas dalam kertas:
    cetak (f "mendapatkan alat untuk kertas: {kertas}")
    vector_tool, summary_tool = get_doc_tools (kertas, laluan (kertas).
    paper_to_tools_dict [paper] = [vector_tool, summary_tool]

initial_tools = [t untuk kertas dalam kertas untuk t dalam paper_to_tools_dict [kertas]]
len (initial_tools)
Salin selepas log masuk

Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex

Kod ini memproses setiap kertas dan mencipta dua alat untuk setiap: alat vektor untuk carian semantik dan alat ringkasan untuk menghasilkan ringkasan ringkas, dalam kes ini 6 alat.

Langkah5: Membuat ejen

Terdahulu kami membuat alat untuk ejen untuk digunakan, kini kami akan membuat ejen yang menggunakan kelas FunctionCallingAgentWorker. Kami akan menggunakan "GPT-3.5-Turbo" sebagai LLM kami.

 LLM = OpenAI (Model = "GPT-3.5-Turbo")

agen_worker = functioncallingagentworker.from_tools (
    Initial_tools, 
    llm = llm, 
    verbose = benar
)
Agent = AgentRunner (Agent_Worker)
Salin selepas log masuk

Ejen ini kini boleh menjawab soalan mengenai tiga kertas yang telah kami diproses.

Langkah 6: Menganalisis respons dari ejen

Kami bertanya soalan ejen kami yang berbeza dari tiga kertas kerja, dan di sini adalah tindak balasnya. Berikut adalah contoh dan penjelasan bagaimana ia berfungsi dalam.

Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex

Penjelasan mengenai interaksi ejen dengan kertas longlora

Dalam contoh ini, kami menanyakan ejen kami untuk mengekstrak maklumat khusus dari tiga kertas penyelidikan, terutamanya mengenai dataset penilaian dan hasil yang digunakan dalam kajian Longlora. Ejen berinteraksi dengan dokumen menggunakan alat pertanyaan vektor, dan inilah cara memproses maklumat langkah demi langkah:

  • Input Pengguna: Pengguna bertanya dua soalan berurutan mengenai aspek penilaian Longlora: Pertama mengenai dataset penilaian dan kemudian mengenai hasilnya.
  • Pelaksanaan pertanyaan ejen: Ejen mengenal pasti bahawa ia perlu mencari dokumen Longlora khusus untuk maklumat mengenai dataset penilaian. Ia menggunakan fungsi vector_tool_longlora, yang merupakan alat pertanyaan vektor yang disediakan khusus untuk Longlora.
 === fungsi memanggil ===
Fungsi Panggilan: vector_tool_longlora dengan args: {"query": "dataset penilaian"}
Salin selepas log masuk
  • Output fungsi untuk dataset penilaian: Ejen mengambil bahagian yang berkaitan dari dokumen, mengenal pasti bahawa dataset penilaian yang digunakan dalam Longlora adalah "pg19 ujian pg19," yang merupakan dataset yang biasa digunakan untuk penilaian model bahasa kerana sifat teks panjangnya.
  • Pelaksanaan pertanyaan kedua ejen: Berikutan tindak balas pertama, ejen kemudian memproses bahagian kedua soalan pengguna, menanyakan dokumen mengenai hasil penilaian Longlora.
 === fungsi memanggil ===
Fungsi Panggilan: vector_tool_longlora dengan args: {"query": "hasil penilaian"}
Salin selepas log masuk
  • Output fungsi untuk hasil penilaian: Ejen mengembalikan hasil terperinci yang menunjukkan bagaimana model melakukan lebih baik dari segi kebingungan dengan saiz konteks yang lebih besar. Ia menyoroti penemuan utama, seperti penambahbaikan dengan tingkap konteks yang lebih besar dan panjang konteks tertentu (100K, 65536, dan 32768). Ia juga mencatatkan perdagangan, kerana model yang dilanjutkan mengalami beberapa kemerosotan kebingungan pada saiz konteks yang lebih kecil disebabkan oleh interpolasi kedudukan-batasan umum dalam model sedemikian.
  • Respons LLM Akhir: Ejen mensintesis hasilnya menjadi tindak balas ringkas yang menjawab soalan awal mengenai dataset. Penjelasan lanjut mengenai keputusan penilaian akan diikuti, meringkaskan penemuan prestasi dan implikasinya.

Beberapa contoh lagi untuk kertas lain

Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex

Penjelasan Tingkah Laku Agen: Meringkaskan Rag Diri dan Longlora

Dalam hal ini, ejen itu ditugaskan untuk menyediakan ringkasan kedua-dua rag diri dan longlora. Tingkah laku yang diperhatikan dalam kes ini berbeza dari contoh sebelumnya:

Penggunaan alat ringkasan

 === fungsi memanggil ===
Fungsi panggilan: summary_tool_selfrag dengan args: {"input": "rag diri"}
Salin selepas log masuk

Tidak seperti contoh terdahulu, yang melibatkan pertanyaan butiran khusus (seperti dataset dan hasil penilaian), di sini ejen secara langsung menggunakan fungsi summary_tool yang direka untuk RAG sendiri dan Longlora. Ini menunjukkan keupayaan ejen untuk menyesuaikan diri dengan alat pertanyaan berdasarkan sifat soalan -opting untuk ringkasan apabila gambaran keseluruhan yang lebih luas diperlukan.

Panggilan yang berbeza untuk memisahkan alat ringkasan

 === fungsi memanggil ===
Fungsi Panggilan: summary_tool_longlora dengan args: {"input": "longlora"}
Salin selepas log masuk

Ejen secara berasingan dipanggil summary_tool_selfrag dan summary_tool_longlora untuk mendapatkan ringkasan, menunjukkan keupayaannya untuk mengendalikan pertanyaan berbilang bahagian dengan cekap. Ia mengenal pasti keperluan untuk melibatkan alat ringkasan yang berbeza yang disesuaikan dengan setiap kertas dan bukannya melaksanakan pengambilan gabungan tunggal.

Kesesuaian dan ketetapan tanggapan

Tanggapan yang disediakan oleh ejen adalah ringkas dan secara langsung ditangani dengan segera. Ini menunjukkan bahawa ejen dapat mengekstrak pandangan peringkat tinggi dengan berkesan, berbeza dengan contoh sebelumnya di mana ia memberikan lebih banyak titik data berbutir berdasarkan pertanyaan vektor tertentu.

Interaksi ini menyoroti keupayaan ejen untuk menyampaikan gambaran keseluruhan peringkat tinggi berbanding respons terperinci, konteks yang diperhatikan sebelum ini. Peralihan dalam tingkah laku ini menggariskan kepelbagaian sistem RAG yang agentik dalam menyesuaikan strategi pertanyaannya berdasarkan sifat soalan pengguna-sama ada keperluan untuk terperinci mendalam atau ringkasan yang luas.

Cabaran dan pertimbangan

Walaupun Multi-Document Agentic Rag berkuasa, terdapat beberapa cabaran yang perlu diingat:

  • Skalabiliti: Apabila bilangan dokumen tumbuh, pengindeksan yang cekap dan pengambilan menjadi penting.
  • Koheren: Memastikan bahawa ejen menghasilkan respons yang koheren apabila mengintegrasikan maklumat dari pelbagai sumber.
  • Bias dan ketepatan: Output sistem hanya sebaik dokumen input dan mekanisme pengambilan semula.
  • Sumber Komputasi: Pemprosesan dan membenamkan sejumlah besar dokumen boleh menjadi sumber yang berintensifkan.

Kesimpulan

Multi-dokumen Agentic RAG mewakili kemajuan yang signifikan dalam bidang AI, yang membolehkan tindak balas yang lebih tepat dan konteks yang menyedari dengan mensintesis maklumat dari pelbagai sumber. Pendekatan ini sangat berharga dalam domain kompleks seperti penyelidikan, analisis undang -undang, dan dokumentasi teknikal, di mana pengambilan maklumat dan pemikiran yang tepat adalah penting. Dengan memanfaatkan embeddings, penalaran berasaskan ejen, dan mekanisme pengambilan semula yang mantap, sistem ini bukan sahaja meningkatkan kedalaman dan kebolehpercayaan kandungan AI yang dihasilkan tetapi juga membuka jalan bagi aplikasi yang lebih canggih dalam industri intensif pengetahuan. Memandangkan teknologi terus berkembang, Multi-Document Agentic Rag bersedia untuk menjadi alat penting untuk mengekstrak pandangan yang bermakna dari sejumlah besar data.

Takeaways utama

  • Multi-dokumen Agentic RAG meningkatkan ketepatan tindak balas AI dengan mengintegrasikan maklumat dari pelbagai sumber.
  • Embeddings dan penalaran berasaskan ejen meningkatkan keupayaan sistem untuk menjana kandungan konteks dan boleh dipercayai.
  • Sistem ini sangat berharga dalam bidang kompleks seperti penyelidikan, analisis undang -undang, dan dokumentasi teknikal.
  • Mekanisme pengambilan lanjutan memastikan pengekstrakan maklumat yang tepat, menyokong industri intensif pengetahuan.
  • Multi-dokumen Agentic RAG mewakili langkah penting ke hadapan dalam penjanaan kandungan AI dan analisis data.

Soalan yang sering ditanya

Q1. Apa itu Multi-Document Agentic Rag?

A. Multi-dokumen Agentic RAG menggabungkan generasi pengambilan semula (RAG) dengan sistem berasaskan ejen untuk membolehkan AI membuat alasan merentasi pelbagai dokumen.

S2. Bagaimanakah Multi-Document Agentic Rag meningkatkan ketepatan?

A. Ia meningkatkan ketepatan dengan mensintesis maklumat dari pelbagai sumber, yang membolehkan AI menyambungkan fakta dan memberikan jawapan yang lebih tepat.

Q3. Di dalam bidang manakah rag agentik multi-dokumen yang paling bermanfaat?

A. Ia amat berharga dalam penyelidikan akademik, analisis dokumen undang -undang, kecerdasan pasaran, dan dokumentasi teknikal.

Q4. Apakah komponen utama sistem RAG Agentik multi-dokumen?

A. Komponen utama termasuk pemprosesan dokumen, mewujudkan embeddings, pengindeksan, pengambilan semula, penalaran berasaskan ejen, dan generasi.

S5. Apakah peranan embeddings dalam sistem ini?

A. Embeddings menukar teks menjadi vektor berangka, menangkap makna dan konteks maklumat untuk perbandingan dan analisis yang cekap.

Media yang ditunjukkan dalam artikel ini tidak dimiliki oleh Analytics Vidhya dan digunakan atas budi bicara penulis.

Atas ialah kandungan terperinci Membina Multi-Dokumen Agentic Rag Menggunakan Llamaindex. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Saya cuba pengekodan getaran dengan kursor AI dan ia menakjubkan! Saya cuba pengekodan getaran dengan kursor AI dan ia menakjubkan! Mar 20, 2025 pm 03:34 PM

Pengekodan Vibe membentuk semula dunia pembangunan perisian dengan membiarkan kami membuat aplikasi menggunakan bahasa semulajadi dan bukannya kod yang tidak berkesudahan. Diilhamkan oleh penglihatan seperti Andrej Karpathy, pendekatan inovatif ini membolehkan Dev

Top 5 Genai dilancarkan pada Februari 2025: GPT-4.5, Grok-3 & More! Top 5 Genai dilancarkan pada Februari 2025: GPT-4.5, Grok-3 & More! Mar 22, 2025 am 10:58 AM

Februari 2025 telah menjadi satu lagi bulan yang berubah-ubah untuk AI generatif, membawa kita beberapa peningkatan model yang paling dinanti-nantikan dan ciri-ciri baru yang hebat. Dari Xai's Grok 3 dan Anthropic's Claude 3.7 Sonnet, ke Openai's G

Bagaimana cara menggunakan Yolo V12 untuk pengesanan objek? Bagaimana cara menggunakan Yolo V12 untuk pengesanan objek? Mar 22, 2025 am 11:07 AM

Yolo (anda hanya melihat sekali) telah menjadi kerangka pengesanan objek masa nyata yang terkemuka, dengan setiap lelaran bertambah baik pada versi sebelumnya. Versi terbaru Yolo V12 memperkenalkan kemajuan yang meningkatkan ketepatan

Adakah chatgpt 4 o tersedia? Adakah chatgpt 4 o tersedia? Mar 28, 2025 pm 05:29 PM

CHATGPT 4 kini tersedia dan digunakan secara meluas, menunjukkan penambahbaikan yang ketara dalam memahami konteks dan menjana tindak balas yang koheren berbanding dengan pendahulunya seperti ChATGPT 3.5. Perkembangan masa depan mungkin merangkumi lebih banyak Inter yang diperibadikan

Penjana Seni AI Terbaik (Percuma & amp; Dibayar) untuk projek kreatif Penjana Seni AI Terbaik (Percuma & amp; Dibayar) untuk projek kreatif Apr 02, 2025 pm 06:10 PM

Artikel ini mengkaji semula penjana seni AI atas, membincangkan ciri -ciri mereka, kesesuaian untuk projek kreatif, dan nilai. Ia menyerlahkan Midjourney sebagai nilai terbaik untuk profesional dan mengesyorkan Dall-E 2 untuk seni berkualiti tinggi dan disesuaikan.

Google ' s Gencast: Peramalan Cuaca dengan Demo Mini Gencast Google ' s Gencast: Peramalan Cuaca dengan Demo Mini Gencast Mar 16, 2025 pm 01:46 PM

Google Deepmind's Gencast: AI Revolusioner untuk Peramalan Cuaca Peramalan cuaca telah menjalani transformasi dramatik, bergerak dari pemerhatian asas kepada ramalan berkuasa AI yang canggih. Google Deepmind's Gencast, tanah air

AI mana yang lebih baik daripada chatgpt? AI mana yang lebih baik daripada chatgpt? Mar 18, 2025 pm 06:05 PM

Artikel ini membincangkan model AI yang melampaui chatgpt, seperti Lamda, Llama, dan Grok, menonjolkan kelebihan mereka dalam ketepatan, pemahaman, dan kesan industri. (159 aksara)

O1 vs GPT-4O: Adakah model baru OpenAI ' lebih baik daripada GPT-4O? O1 vs GPT-4O: Adakah model baru OpenAI ' lebih baik daripada GPT-4O? Mar 16, 2025 am 11:47 AM

Openai's O1: Hadiah 12 Hari Bermula dengan model mereka yang paling berkuasa Ketibaan Disember membawa kelembapan global, kepingan salji di beberapa bahagian dunia, tetapi Openai baru sahaja bermula. Sam Altman dan pasukannya melancarkan mantan hadiah 12 hari

See all articles