Memahami GraphRAG (1): Cabaran RAG
RAG (Risk Assessment Grid) ialah kaedah mempertingkatkan model bahasa besar (LLM) sedia ada dengan sumber pengetahuan luaran untuk memberikan jawapan yang lebih berkaitan kontekstual. Dalam RAG, komponen perolehan memperoleh maklumat tambahan, respons adalah berdasarkan sumber tertentu, dan kemudian menyuap maklumat ini ke dalam gesaan LLM supaya respons LLM adalah berdasarkan maklumat ini (fasa peningkatan). RAG lebih menjimatkan berbanding teknik lain seperti pemangkasan. Ia juga mempunyai kelebihan untuk mengurangkan halusinasi dengan menyediakan konteks tambahan berdasarkan maklumat ini (peringkat penambahan) - RAG anda menjadi kaedah aliran kerja untuk tugasan LLM hari ini (seperti pengesyoran, pengekstrakan teks, analisis sentimen, dsb.).
Jika kami memecahkan idea ini dengan lebih lanjut, berdasarkan niat pengguna, kami biasanya menanyakan pangkalan data vektor. Pangkalan data vektor menggunakan ruang vektor berterusan untuk menangkap hubungan antara dua konsep menggunakan carian berasaskan kedekatan.
Gambaran Keseluruhan Pangkalan Data Vektor
Dalam ruang vektor, maklumat, sama ada teks, imej, audio atau apa-apa jenis lain, ditukar kepada vektor. Vektor ialah perwakilan berangka data dalam ruang dimensi tinggi. Setiap dimensi sepadan dengan ciri data, dan nilai dalam setiap dimensi mencerminkan kekuatan atau kehadiran ciri tersebut. Melalui perwakilan vektor, kita boleh melakukan operasi matematik, pengiraan jarak, perbandingan persamaan, dsb. pada data. Nilai yang sepadan dengan dimensi berbeza mencerminkan kekuatan atau kehadiran ciri tersebut. Mengambil data teks sebagai contoh, setiap dokumen boleh diwakili sebagai vektor, di mana setiap dimensi mewakili kekerapan perkataan dalam dokumen. Dengan cara ini, dua dokumen boleh
melakukan carian berasaskan kedekatan dalam pangkalan data dengan mengira jarak antara vektor mereka, melibatkan dan menanyakan pangkalan data tersebut dengan vektor lain dan mencari sesuatu yang "dekat" dengannya dalam vektor ruang vektor. Kedekatan antara vektor biasanya ditentukan oleh ukuran jarak seperti jarak Euclidean, persamaan kosinus, atau jarak Manhattan. Kedekatan antara vektor biasanya ditentukan oleh ukuran jarak seperti jarak Euclidean, persamaan kosinus, atau jarak Manhattan.
Apabila anda melakukan carian ke dalam pangkalan data, anda memberikan pertanyaan yang sistem tukarkan kepada vektor. Pangkalan data kemudian mengira jarak atau persamaan antara vektor pertanyaan ini dan vektor yang telah disimpan dalam pangkalan data. Vektor yang hampir dengan vektor pertanyaan (mengikut metrik yang dipilih) dianggap sebagai hasil yang paling berkaitan. Vektor yang paling hampir dengan vektor pertanyaan (berdasarkan metrik yang dipilih) dianggap sebagai hasil yang paling berkaitan.
Carian berasaskan kedekatan amat berkuasa dalam pangkalan data vektor dan sesuai untuk tugas seperti sistem pengesyoran, perolehan maklumat dan pengesanan anomali.
Pendekatan ini membolehkan sistem beroperasi dengan lebih intuitif dan bertindak balas kepada pertanyaan pengguna dengan lebih berkesan dengan memahami konteks dan makna yang lebih mendalam dalam data, dan bukannya bergantung semata-mata pada padanan permukaan.
Walau bagaimanapun, terdapat beberapa batasan dalam aplikasi yang menyambung ke pangkalan data untuk carian lanjutan, seperti kualiti data, keupayaan untuk mengendalikan pengetahuan dinamik dan ketelusan.
Keterbatasan RAG
Mengikut saiz dokumen, RAG dibahagikan secara kasar kepada tiga kategori: jika dokumen itu kecil, ia boleh diakses secara kontekstual jika dokumen itu besar (atau terdapat beberapa dokumen ), data yang lebih kecil dijana apabila membuat pertanyaan bagi blok yang diindeks dan digunakan sebagai tindak balas kepada pertanyaan.
Walaupun berjaya, RAG mempunyai beberapa kekurangan.
Dua penunjuk utama untuk mengukur prestasi RAG ialah kebingungan dan halusinasi mewakili bilangan pilihan perkataan seterusnya yang sama mungkin dalam proses penjanaan teks. Iaitu, betapa "keliru" model bahasa dalam pemilihannya. Halusinasi ialah kenyataan tidak benar atau khayalan yang dibuat oleh AI.
Walaupun RAG membantu mengurangkan halusinasi, ia tidak menghilangkannya. Jika anda mempunyai dokumen yang kecil dan ringkas, anda boleh mengurangkan kekeliruan (kerana pilihan LLM adalah sedikit) dan mengurangkan halusinasi (jika anda hanya bertanya apa yang ada dalam dokumen itu). Sudah tentu, sisi lain adalah bahawa satu dokumen kecil menghasilkan aplikasi yang remeh. Untuk aplikasi yang lebih kompleks, anda memerlukan cara untuk menyediakan lebih banyak konteks.
Sebagai contoh, pertimbangkan perkataan "kulit kayu" - kita mempunyai sekurang-kurangnya dua konteks berbeza:
Konteks pokok: "Kulit pokok oak yang kasar melindunginya daripada kesejukan."
: "Anjing jiran menyalak dengan kuat setiap kali seseorang melalui rumah mereka
Salah satu cara untuk menyediakan lebih banyak konteks ialah menggabungkan RAG dengan graf pengetahuan (GRAPHRAG).
Dalam graf pengetahuan, perkataan ini dikaitkan dengan konteks dan makna yang dikaitkan dengannya. Sebagai contoh, "kulit kayu" akan disambungkan kepada nod yang mewakili "pokok" dan "anjing". Sambungan lain boleh menunjukkan tindakan biasa (cth., "perlindungan," anjing "membuat bising") atau sifat (cth., "kekasaran" pokok, "kenyaringan" anjing). Maklumat berstruktur ini membolehkan model bahasa memilih makna yang sesuai berdasarkan perkataan lain dalam ayat atau topik keseluruhan perbualan.
Dalam bahagian seterusnya, kita akan melihat batasan RAG dan cara GRAPHRAG menanganinya.
Tajuk asal: Memahami GraphRAG – 1: Cabaran RAG
Pengarang asal: ajitjaokar
Atas ialah kandungan terperinci Memahami GraphRAG (1): Cabaran RAG. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Sumber imej@visualchinesewen|Wang Jiwei Daripada "manusia + RPA" kepada "manusia + generatif AI + RPA", bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Dari perspektif lain, bagaimanakah LLM mempengaruhi RPA dari perspektif interaksi manusia-komputer? RPA, yang menjejaskan interaksi manusia-komputer dalam pembangunan program dan automasi proses, kini akan turut diubah oleh LLM? Bagaimanakah LLM mempengaruhi interaksi manusia-komputer? Bagaimanakah AI generatif mengubah interaksi manusia-komputer RPA? Ketahui lebih lanjut mengenainya dalam satu artikel: Era model besar akan datang, dan AI generatif berdasarkan LLM sedang mengubah interaksi manusia-komputer RPA dengan pantas mentakrifkan semula interaksi manusia-komputer, dan LLM mempengaruhi perubahan dalam seni bina perisian RPA. Jika anda bertanya apakah sumbangan RPA kepada pembangunan program dan automasi, salah satu jawapannya ialah ia telah mengubah interaksi manusia-komputer (HCI, h

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus
