ホームページ > テクノロジー周辺機器 > AI > Deepseek R1とRiremlitを使用してRQAシステムを構築します

Deepseek R1とRiremlitを使用してRQAシステムを構築します

Christopher Nolan
リリース: 2025-03-07 10:43:10
オリジナル
728 人が閲覧しました

Deepseek R1:検索ベースの質問応答を使用してAIアプリケーションに革命をもたらします

画期的なオープンソース推論モデルである

Deepseek R1は、AIアプリケーションの構築における効率と精度のために急速に牽引力を獲得しています。 この記事では、DeepSeek R1、Langchain、およびRiremlitを使用した検索ベースの質問回答(RQA)システムの構築について詳しく説明しています。 実際の推論タスクでその機能を調査し、実用的なアプリケーションでその力を示します。

重要な学習成果:

    Deepseek R1を搭載したRQAシステムの強化された推論と問題解決機能を把握します。
  • AI駆動型のQ&A。
  • のDeepSeek R1のアーキテクチャと機能を理解してください
  • DeepSeek R1を検索ベースの質問回答システムに統合することを学びます
  • 補強学習がDeepSeek R1応答の精度をどのように改善するかをご覧ください。
  • コーディング、数学、論理的推論における実際のdeepseek R1アプリケーションを分析します。
  • (この記事はデータサイエンスブログの一部です。)

目次:

deepseek r1の理解 deepseek r1-zeroおよびr1トレーニング

    Deepseek R1の4つのトレーニング段階
  • deepseek R1の重要な機能
  • deepseek R1
  • のローカル展開
  • deepseek r1
  • を使用してRQAシステムを構築します
  • よくある質問
  • deepseek r1
  • の理解
AIの動的フィールドでは、オープンソースの基礎モデルがエンタープライズAI開発を変換しています。 中国のAI会社Deepseekが開発したDeepseek R1は、論理的推論、数学的問題解決、リアルタイムの意思決定を必要とするタスクに優れているように設計されたオープンソースの推論モデルです。 その効率とパフォーマンスは、一般的な推論からコード生成まで、さまざまなアプリケーションに及びます。

deepseek r1-zeroおよびr1トレーニング

多くの大規模な言語モデル(LLMS)は、3段階のトレーニングプロセス(トレーニング前、監視された微調整、および強化学習)に従いますが、DeepSeek R1-Zeroは別のアプローチを採用しています。 事前に訓練されたDeepSeek-V3ベースモデル(671億パラメーター)を活用し、監視された微調整をスキップし、グループ相対ポリシー最適化(GRPO)と呼ばれる大規模な強化学習技術を直接利用しています。

近位ポリシー最適化(PPO)に基づく GRPOは、値関数モデルの必要性を排除することでトレーニングを簡素化します。 ただし、DeepSeek R1-Zeroの出力は読みやすさの問題に苦しんでいました。 Deepseek R1はこれらの欠点に対処します

deepseek R1の4つのトレーニング段階

Building a RQA System with DeepSeek R1 and StreamlitDeepseek R1は、DeepSeek R1-Zeroの基礎に基づいており、4つの重要なトレーニング段階を組み込んでいます。

  1. コールドスタート:DeepSeek R1-Zeroデータの高品質のサブセットで微調整して、読みやすさを向上させます。
  2. 推論補強学習:コーディング、数学、科学、論理ドメイン全体の大規模な強化学習を通じて推論スキルを向上させます。
  3. 拒絶サンプリングと監視された微調整:複数のサンプルを生成し、拒絶サンプリングを介して正しいものと読み取り可能なもののみを保持し、その後に生成される報酬モデルでさらに微調整します。
  4. 多様な補強学習:
  5. 数学や言語モデルのフィードバックなどのタスクのルールベースの報酬を利用して、人間の好みに合わせて。
  6. deepseek R1の重要な機能

    オープンソース(MITライセンス):さまざまなプロジェクトの検査、変更、統合を促進します。 GithubやAzure Ai Foundryなどのプラットフォームで利用できます

    高パフォーマンス:
  • さまざまなベンチマークでのOpenaiのGPT-4に匹敵します(数学、コード生成、複雑な推論)。 専門家(MOE)アーキテクチャの混合物:
  • 671億パラメーターモデルは、470億パラメーターのみをアクティブにし、効率を最適化します。
  • 蒸留モデル:は、より小さく、より展開可能なモデルを提供します(例:deepseek-r1-distill-qwen-32b、qwen-1.5b、7b、14b)。
  • deepseek r1
  • のローカル展開
  • 展開は、Ollama:を使用して簡単です
  • Ollama。
をインストールします

端末で次のコマンドを実行します(モデルサイズの選択が可能です):

  1. deepseek r1
  2. を使用してRQAシステムを構築します
langchainとdeepseek r1を使用してRQAシステムを構築しましょう:
ollama run deepseek-r1   # Default 7B model
ollama run deepseek-r1:1.5b # Specific model
ログイン後にコピー

Building a RQA System with DeepSeek R1 and Streamlitステップ1:ライブラリをインポート

(ステップ2-10:ファイルアップロード、埋め込み、ベクターストア生成、レトリーバーセットアップ、LLM定義、プロンプトテンプレートの作成、QAチェーン定義、UIの実装など、流線照明アプリケーションを構築するための残りの手順は、元の応答と同じです。詳細なコードスニッペットの元の応答を参照してください。

出力の例:

(サンプルクエリと応答を使用して、アプリケーションの機能を示します。)

import streamlit as st
from langchain_community.document_loaders.csv_loader import CSVLoader
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.vectorstores import FAISS
from langchain_community.llms import Ollama
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from langchain.chains.combine_documents.stuff import create_stuff_documents_chain
from langchain.chains import RetrievalQA
ログイン後にコピー

結論

Deepseek R1は、AI推論モデルの大幅な進歩を表しています。洗練されたテクニックとオープンソースのアクセシビリティの組み合わせにより、開発者にとって強力なツールになります。 RQAシステムの例は、その実用的な応用と将来のイノベーションの可能性を示しています。

キーテイクアウト:

  • DeepSeek R1は、高性能のオープンソース推論モデルです
  • RQAシステムは、効率的な質問応答のためにDeepSeek R1の機能を活用しています。
  • Deepseek R1のトレーニングは、説明可能性と精度を向上させます
  • MOEアーキテクチャは、リソースの使用率を最適化します
  • 参考文献:

grpo

ai papers academy
  • よくある質問:

(FAQSセクションは元の応答と同一のままです。)

以上がDeepseek R1とRiremlitを使用してRQAシステムを構築しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート