Jadual Kandungan
Gambaran Keseluruhan Pangkalan Data Vektor
Keterbatasan RAG
Rumah Peranti teknologi AI Memahami GraphRAG (1): Cabaran RAG

Memahami GraphRAG (1): Cabaran RAG

Apr 30, 2024 pm 07:10 PM
llm rag

RAG (Risk Assessment Grid) ialah kaedah mempertingkatkan model bahasa besar (LLM) sedia ada dengan sumber pengetahuan luaran untuk memberikan jawapan yang lebih berkaitan kontekstual. Dalam RAG, komponen perolehan memperoleh maklumat tambahan, respons adalah berdasarkan sumber tertentu, dan kemudian menyuap maklumat ini ke dalam gesaan LLM supaya respons LLM adalah berdasarkan maklumat ini (fasa peningkatan). RAG lebih menjimatkan berbanding teknik lain seperti pemangkasan. Ia juga mempunyai kelebihan untuk mengurangkan halusinasi dengan menyediakan konteks tambahan berdasarkan maklumat ini (peringkat penambahan) - RAG anda menjadi kaedah aliran kerja untuk tugasan LLM hari ini (seperti pengesyoran, pengekstrakan teks, analisis sentimen, dsb.).

Memahami GraphRAG (1): Cabaran RAG

Jika kami memecahkan idea ini dengan lebih lanjut, berdasarkan niat pengguna, kami biasanya menanyakan pangkalan data vektor. Pangkalan data vektor menggunakan ruang vektor berterusan untuk menangkap hubungan antara dua konsep menggunakan carian berasaskan kedekatan.

Gambaran Keseluruhan Pangkalan Data Vektor

Dalam ruang vektor, maklumat, sama ada teks, imej, audio atau apa-apa jenis lain, ditukar kepada vektor. Vektor ialah perwakilan berangka data dalam ruang dimensi tinggi. Setiap dimensi sepadan dengan ciri data, dan nilai dalam setiap dimensi mencerminkan kekuatan atau kehadiran ciri tersebut. Melalui perwakilan vektor, kita boleh melakukan operasi matematik, pengiraan jarak, perbandingan persamaan, dsb. pada data. Nilai yang sepadan dengan dimensi berbeza mencerminkan kekuatan atau kehadiran ciri tersebut. Mengambil data teks sebagai contoh, setiap dokumen boleh diwakili sebagai vektor, di mana setiap dimensi mewakili kekerapan perkataan dalam dokumen. Dengan cara ini, dua dokumen boleh

melakukan carian berasaskan kedekatan dalam pangkalan data dengan mengira jarak antara vektor mereka, melibatkan dan menanyakan pangkalan data tersebut dengan vektor lain dan mencari sesuatu yang "dekat" dengannya dalam vektor ruang vektor. Kedekatan antara vektor biasanya ditentukan oleh ukuran jarak seperti jarak Euclidean, persamaan kosinus, atau jarak Manhattan. Kedekatan antara vektor biasanya ditentukan oleh ukuran jarak seperti jarak Euclidean, persamaan kosinus, atau jarak Manhattan.

Apabila anda melakukan carian ke dalam pangkalan data, anda memberikan pertanyaan yang sistem tukarkan kepada vektor. Pangkalan data kemudian mengira jarak atau persamaan antara vektor pertanyaan ini dan vektor yang telah disimpan dalam pangkalan data. Vektor yang hampir dengan vektor pertanyaan (mengikut metrik yang dipilih) dianggap sebagai hasil yang paling berkaitan. Vektor yang paling hampir dengan vektor pertanyaan (berdasarkan metrik yang dipilih) dianggap sebagai hasil yang paling berkaitan.

Carian berasaskan kedekatan amat berkuasa dalam pangkalan data vektor dan sesuai untuk tugas seperti sistem pengesyoran, perolehan maklumat dan pengesanan anomali.

Pendekatan ini membolehkan sistem beroperasi dengan lebih intuitif dan bertindak balas kepada pertanyaan pengguna dengan lebih berkesan dengan memahami konteks dan makna yang lebih mendalam dalam data, dan bukannya bergantung semata-mata pada padanan permukaan.

Walau bagaimanapun, terdapat beberapa batasan dalam aplikasi yang menyambung ke pangkalan data untuk carian lanjutan, seperti kualiti data, keupayaan untuk mengendalikan pengetahuan dinamik dan ketelusan.

Keterbatasan RAG

Mengikut saiz dokumen, RAG dibahagikan secara kasar kepada tiga kategori: jika dokumen itu kecil, ia boleh diakses secara kontekstual jika dokumen itu besar (atau terdapat beberapa dokumen ), data yang lebih kecil dijana apabila membuat pertanyaan bagi blok yang diindeks dan digunakan sebagai tindak balas kepada pertanyaan.

Walaupun berjaya, RAG mempunyai beberapa kekurangan.

Dua penunjuk utama untuk mengukur prestasi RAG ialah kebingungan dan halusinasi mewakili bilangan pilihan perkataan seterusnya yang sama mungkin dalam proses penjanaan teks. Iaitu, betapa "keliru" model bahasa dalam pemilihannya. Halusinasi ialah kenyataan tidak benar atau khayalan yang dibuat oleh AI.

Walaupun RAG membantu mengurangkan halusinasi, ia tidak menghilangkannya. Jika anda mempunyai dokumen yang kecil dan ringkas, anda boleh mengurangkan kekeliruan (kerana pilihan LLM adalah sedikit) dan mengurangkan halusinasi (jika anda hanya bertanya apa yang ada dalam dokumen itu). Sudah tentu, sisi lain adalah bahawa satu dokumen kecil menghasilkan aplikasi yang remeh. Untuk aplikasi yang lebih kompleks, anda memerlukan cara untuk menyediakan lebih banyak konteks.

Sebagai contoh, pertimbangkan perkataan "kulit kayu" - kita mempunyai sekurang-kurangnya dua konteks berbeza:

Konteks pokok: "Kulit pokok oak yang kasar melindunginya daripada kesejukan."

: "Anjing jiran menyalak dengan kuat setiap kali seseorang melalui rumah mereka

Salah satu cara untuk menyediakan lebih banyak konteks ialah menggabungkan RAG dengan graf pengetahuan (GRAPHRAG).

Dalam graf pengetahuan, perkataan ini dikaitkan dengan konteks dan makna yang dikaitkan dengannya. Sebagai contoh, "kulit kayu" akan disambungkan kepada nod yang mewakili "pokok" dan "anjing". Sambungan lain boleh menunjukkan tindakan biasa (cth., "perlindungan," anjing "membuat bising") atau sifat (cth., "kekasaran" pokok, "kenyaringan" anjing). Maklumat berstruktur ini membolehkan model bahasa memilih makna yang sesuai berdasarkan perkataan lain dalam ayat atau topik keseluruhan perbualan.

Dalam bahagian seterusnya, kita akan melihat batasan RAG dan cara GRAPHRAG menanganinya.

Tajuk asal: Memahami GraphRAG – 1: Cabaran RAG

Pengarang asal: ajitjaokar

Atas ialah kandungan terperinci Memahami GraphRAG (1): Cabaran RAG. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Jun 10, 2024 am 09:16 AM

Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Apr 23, 2024 pm 03:01 PM

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Pembantu pengekodan AI yang ditambah konteks menggunakan Rag dan Sem-Rag Pembantu pengekodan AI yang ditambah konteks menggunakan Rag dan Sem-Rag Jun 10, 2024 am 11:08 AM

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Daripada 'manusia + RPA' kepada 'manusia + generatif AI + RPA', bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Daripada 'manusia + RPA' kepada 'manusia + generatif AI + RPA', bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Jun 05, 2023 pm 12:30 PM

Sumber imej@visualchinesewen|Wang Jiwei Daripada "manusia + RPA" kepada "manusia + generatif AI + RPA", bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Dari perspektif lain, bagaimanakah LLM mempengaruhi RPA dari perspektif interaksi manusia-komputer? RPA, yang menjejaskan interaksi manusia-komputer dalam pembangunan program dan automasi proses, kini akan turut diubah oleh LLM? Bagaimanakah LLM mempengaruhi interaksi manusia-komputer? Bagaimanakah AI generatif mengubah interaksi manusia-komputer RPA? Ketahui lebih lanjut mengenainya dalam satu artikel: Era model besar akan datang, dan AI generatif berdasarkan LLM sedang mengubah interaksi manusia-komputer RPA dengan pantas mentakrifkan semula interaksi manusia-komputer, dan LLM mempengaruhi perubahan dalam seni bina perisian RPA. Jika anda bertanya apakah sumbangan RPA kepada pembangunan program dan automasi, salah satu jawapannya ialah ia telah mengubah interaksi manusia-komputer (HCI, h

Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Aug 29, 2024 pm 02:37 PM

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Jun 07, 2024 am 10:06 AM

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) Jun 12, 2024 am 10:32 AM

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Mar 01, 2024 pm 09:16 PM

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus

See all articles