Deepseek R1:検索ベースの質問応答を使用してAIアプリケーションに革命をもたらします
画期的なオープンソース推論モデルであるDeepseek R1は、AIアプリケーションの構築における効率と精度のために急速に牽引力を獲得しています。 この記事では、DeepSeek R1、Langchain、およびRiremlitを使用した検索ベースの質問回答(RQA)システムの構築について詳しく説明しています。 実際の推論タスクでその機能を調査し、実用的なアプリケーションでその力を示します。
重要な学習成果:
目次:
deepseek r1の理解 deepseek r1-zeroおよびr1トレーニング
deepseek r1-zeroおよびr1トレーニング
多くの大規模な言語モデル(LLMS)は、3段階のトレーニングプロセス(トレーニング前、監視された微調整、および強化学習)に従いますが、DeepSeek R1-Zeroは別のアプローチを採用しています。 事前に訓練されたDeepSeek-V3ベースモデル(671億パラメーター)を活用し、監視された微調整をスキップし、グループ相対ポリシー最適化(GRPO)と呼ばれる大規模な強化学習技術を直接利用しています。
近位ポリシー最適化(PPO)に基づく GRPOは、値関数モデルの必要性を排除することでトレーニングを簡素化します。 ただし、DeepSeek R1-Zeroの出力は読みやすさの問題に苦しんでいました。 Deepseek R1はこれらの欠点に対処します
deepseek R1の4つのトレーニング段階
Deepseek R1は、DeepSeek R1-Zeroの基礎に基づいており、4つの重要なトレーニング段階を組み込んでいます。
オープンソース(MITライセンス):さまざまなプロジェクトの検査、変更、統合を促進します。 GithubやAzure Ai Foundryなどのプラットフォームで利用できます
端末で次のコマンドを実行します(モデルサイズの選択が可能です):
ollama run deepseek-r1 # Default 7B model ollama run deepseek-r1:1.5b # Specific model
ステップ1:ライブラリをインポート
(ステップ2-10:ファイルアップロード、埋め込み、ベクターストア生成、レトリーバーセットアップ、LLM定義、プロンプトテンプレートの作成、QAチェーン定義、UIの実装など、流線照明アプリケーションを構築するための残りの手順は、元の応答と同じです。詳細なコードスニッペットの元の応答を参照してください。 出力の例:
(サンプルクエリと応答を使用して、アプリケーションの機能を示します。))
import streamlit as st from langchain_community.document_loaders.csv_loader import CSVLoader from langchain_community.embeddings import HuggingFaceEmbeddings from langchain_community.vectorstores import FAISS from langchain_community.llms import Ollama from langchain.prompts import PromptTemplate from langchain.chains import LLMChain from langchain.chains.combine_documents.stuff import create_stuff_documents_chain from langchain.chains import RetrievalQA
結論
Deepseek R1は、AI推論モデルの大幅な進歩を表しています。洗練されたテクニックとオープンソースのアクセシビリティの組み合わせにより、開発者にとって強力なツールになります。 RQAシステムの例は、その実用的な応用と将来のイノベーションの可能性を示しています。
キーテイクアウト:
grpo
ai papers academy(FAQSセクションは元の応答と同一のままです。)
以上がDeepseek R1とRiremlitを使用してRQAシステムを構築しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。