Rumah > Peranti teknologi > AI > Membina sistem RQA dengan DeepSeek R1 dan Streamlit

Membina sistem RQA dengan DeepSeek R1 dan Streamlit

Christopher Nolan
Lepaskan: 2025-03-07 10:43:10
asal
728 orang telah melayarinya

DeepSeek R1: merevolusikan aplikasi AI dengan soalan berasaskan pengambilan semula

DeepSeek R1, model penalaran sumber terbuka, dengan cepat mendapat daya tarikan untuk kecekapan dan ketepatannya dalam membina aplikasi AI. Artikel ini memperincikan pembinaan sistem menjawab soalan berasaskan pengambilan (RQA) menggunakan DeepSeek R1, Langchain, dan Streamlit. Kami akan meneroka keupayaannya dalam tugas penalaran dunia sebenar, mempamerkan kuasa dalam aplikasi praktikal.

Hasil Pembelajaran Utama:

  • memahami keupayaan penalaran dan penyelesaian masalah sistem RQA yang dipertingkatkan oleh DeepSeek R1.
  • memahami seni bina dan ciri-ciri DeepSeek R1 untuk Q & A yang didorong AI.
  • belajar untuk mengintegrasikan DeepSeek R1 ke dalam sistem pertanyaan berasaskan pengambilan semula.
  • Lihat bagaimana pembelajaran penguatkuasaan meningkatkan ketepatan respons DeepSeek R1.
  • menganalisis aplikasi R1 DeepSeek R1 sebenar dalam pengekodan, matematik, dan penalaran logik.

(artikel ini adalah sebahagian daripada Blogathon Sains Data.)

Jadual Kandungan:

  • Memahami DeepSeek R1
  • DeepSeek R1-Zero dan R1 Latihan
  • empat peringkat latihan DeepSeek R1
  • Ciri -ciri Utama DeepSeek R1
  • Penyebaran tempatan DeepSeek R1
  • Membina sistem RQA dengan DeepSeek R1
  • Soalan Lazim

Memahami DeepSeek R1

Dalam bidang dinamik AI, model asas sumber terbuka mengubah pembangunan AI perusahaan. DeepSeek R1, yang dibangunkan oleh syarikat AI Cina DeepSeek, adalah model penalaran sumber terbuka yang direka untuk cemerlang dalam tugas yang memerlukan penalaran logik, penyelesaian masalah matematik, dan membuat keputusan masa nyata. Kecekapan dan prestasinya meliputi pelbagai aplikasi, dari penalaran umum kepada penjanaan kod.

DeepSeek R1-Zero dan R1 latihan

Walaupun banyak model bahasa besar (LLM) mengikuti proses latihan tiga peringkat (pra-latihan, penalaan halus, dan pembelajaran tetulang), DeepSeek R1-Zero menggunakan pendekatan yang berbeza. Ia memanfaatkan model DeepSeek-V3-base yang terlatih (671 bilion parameter) dan melangkau penalaan yang diselia, secara langsung menggunakan teknik pembelajaran tetulang berskala besar yang dipanggil pengoptimuman dasar relatif kumpulan (GRPO).

Building a RQA System with DeepSeek R1 and Streamlit GRPO, berdasarkan pengoptimuman dasar proksimal (PPO), memudahkan latihan dengan menghapuskan keperluan untuk model fungsi nilai. Walau bagaimanapun, output DeepSeek R1-Zero mengalami masalah pembacaan. DeepSeek R1 menangani kekurangan ini.

DeepSeek R1's Four Latihan Latihan

DeepSeek R1 membina asas Deepseek R1-Zero, menggabungkan empat peringkat latihan utama:

  1. permulaan sejuk: penalaan halus pada subset berkualiti tinggi data DeepSeek R1-Zero untuk meningkatkan kebolehbacaan.
  2. Pembelajaran Penguatkuasaan Penalaran: Meningkatkan kemahiran penalaran melalui pembelajaran tetulang berskala besar di seluruh pengekodan, matematik, sains, dan domain logik.
  3. pensampelan penolakan dan diselia dengan baik: Menjana pelbagai sampel, mengekalkan hanya yang betul dan boleh dibaca melalui pensampelan penolakan, diikuti dengan penalaan yang lebih baik dengan model ganjaran generatif.
  4. Pelbagai pembelajaran tetulang: Menggunakan ganjaran berasaskan peraturan untuk tugas seperti matematik dan maklum balas model bahasa untuk diselaraskan dengan keutamaan manusia.

Ciri -ciri utama DeepSeek R1

  • Sumber Terbuka (Lesen MIT): Memudahkan pemeriksaan, pengubahsuaian, dan integrasi ke dalam pelbagai projek. Tersedia di platform seperti GitHub dan Azure AI Foundry.
  • Prestasi Tinggi: Sebanding dengan GPT-4 OpenAI pada pelbagai tanda aras (matematik, penjanaan kod, penalaran kompleks).
  • Campuran Senibina Pakar (MOE): Model parameter 671 bilion mengaktifkan hanya 37 bilion parameter setiap lulus ke hadapan, mengoptimumkan kecekapan.
  • Model sulingan: menawarkan model yang lebih kecil, lebih banyak digunakan (mis., DeepSeek-R1-Distill-Qwen-32b, Qwen-1.5b, 7b, 14b).

Penyebaran tempatan DeepSeek R1

penempatan adalah mudah menggunakan Ollama:

  1. Pasang Ollama.
  2. Jalankan arahan berikut di terminal anda (pemilihan saiz model adalah mungkin):
ollama run deepseek-r1   # Default 7B model
ollama run deepseek-r1:1.5b # Specific model
Salin selepas log masuk

Building a RQA System with DeepSeek R1 and Streamlit

Membina sistem RQA dengan DeepSeek R1

mari kita membina sistem RQA menggunakan Langchain dan DeepSeek R1:

Langkah 1: Perpustakaan import

import streamlit as st
from langchain_community.document_loaders.csv_loader import CSVLoader
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.vectorstores import FAISS
from langchain_community.llms import Ollama
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from langchain.chains.combine_documents.stuff import create_stuff_documents_chain
from langchain.chains import RetrievalQA
Salin selepas log masuk
(Langkah 2-10: Langkah-langkah yang selebihnya untuk membina aplikasi Streamlit, termasuk muat naik fail, pembuatan embedding, penjanaan kedai vektor, persediaan retriever, definisi llm, penciptaan template prompt, definisi rantai qa, dan pelaksanaan ui, adalah sama dengan tindak balas asal. Contoh Output Contoh:

(menggambarkan fungsi aplikasi dengan pertanyaan dan tindak balas sampel.)

Kesimpulan

DeepSeek R1 mewakili kemajuan yang signifikan dalam model penalaran AI. Gabungan teknik canggih dan kebolehcapaian sumber terbuka menjadikannya alat yang berkuasa untuk pemaju. Contoh sistem RQA menunjukkan aplikasi praktikal dan potensi untuk inovasi masa depan. Building a RQA System with DeepSeek R1 and Streamlit

Takeaways utama:

  • DeepSeek R1 adalah model penalaran sumber terbuka yang berprestasi tinggi.
  • sistem RQA memanfaatkan keupayaan DeepSeek R1 untuk menjawab soalan yang cekap.
  • Latihan DeepSeek R1 meningkatkan kebolehpercayaan dan ketepatan.
  • Senibina MOE mengoptimumkan penggunaan sumber.

Rujukan:

  • GRPO
  • AI Papers Academy

Soalan -soalan yang sering ditanya:

(bahagian Soalan Lazim tetap sama dengan respons asal.)

Atas ialah kandungan terperinci Membina sistem RQA dengan DeepSeek R1 dan Streamlit. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan