J'ai beaucoup lu sur les agents des chiffons et de l'IA, mais avec la sortie de nouveaux modèles comme Deepseek V3 et Deepseek R1, il semble que la possibilité de construire des systèmes de chiffon efficaces a considérablement amélioré, offrant une meilleure précision de récupération, des capacités de raisonnement améliorées et des architectures plus évolutives pour des applications réelles. L'intégration de mécanismes de récupération plus sophistiqués, des options de réglage fin améliorées et des capacités multimodales modifient la façon dont les agents de l'IA interagissent avec les données. Il soulève des questions sur le fait que les approches traditionnelles de chiffon sont toujours la meilleure voie à suivre ou si les architectures plus récentes peuvent fournir des solutions plus efficaces et plus conscientes.
Les systèmes de génération (RAG) de la récupération (RAG) ont révolutionné la façon dont les modèles d'IA interagissent avec les données en combinant des approches basées sur la récupération et génératives pour produire des réponses plus précises et respectueuses du contexte. Avec l'avènement de Deepseek R1 , un modèle open source connu pour son efficacité et sa rentabilité, la construction d'un système de chiffon efficace est devenue plus accessible et pratique. Dans cet article, nous construisons un système de chiffon en utilisant Deepseek R1.
Deepseek R1 est un modèle d'IA open source développé dans le but de fournir des capacités de raisonnement et de récupération de haute qualité à une fraction du coût des modèles propriétaires comme les offres d'Openai. Il dispose d'une licence MIT, ce qui le rend commercialement viable et adapté à un large éventail d'applications. De plus, ce modèle puissant, vous permet de voir le COT, mais les Openai O1 et O1-Mini ne montrent aucun jeton de raisonnement.
Savoir comment Deepseek R1 conteste le modèle Openai O1: Deepseek R1 vs Openai O1: Lequel est plus rapide, moins cher et plus intelligent?
Construire un système de génération (RAG) de récupération (RAG) utilisant Deepseek-R1 offre plusieurs avantages notables:
1. Capacités de raisonnement avancé : Deepseek-R1 émule le raisonnement humain en analysant et en traitement des informations étape par étape avant de tirer des conclusions. Cette approche améliore la capacité du système à gérer les requêtes complexes, en particulier dans les domaines nécessitant une inférence logique, un raisonnement mathématique et des tâches de codage.
2. Accessibilité open source : Libéré sous la licence MIT, Deepseek-R1 est entièrement open-source, permettant aux développeurs un accès sans restriction à son modèle. Cette ouverture facilite la personnalisation, le réglage fin et l'intégration dans diverses applications sans les contraintes souvent associées aux modèles propriétaires.
3. Performances compétitives : Les tests de référence indiquent que Deepseek-R1 fonctionne à égalité avec ou même dépasse les modèles de tête comme O1 d'Openai dans les tâches impliquant le raisonnement, les mathématiques et le codage. Ce niveau de performance garantit qu'un système de chiffon construit avec Deepseek-R1 peut offrir des réponses précises et précises à travers des requêtes diverses et difficiles.
4. Transparence dans le processus de réflexion : Deepseek-R1 utilise une méthodologie de «chaîne de réflexion», rendant ses étapes de raisonnement visibles pendant l'inférence. Cette transparence aide à déboguer et à affiner le système tout en renforçant la confiance des utilisateurs en fournissant des informations claires sur le processus décisionnel.
5. Efficacité : La nature open source de Deepseek-R1 élimine les frais de licence, et son architecture efficace réduit les exigences de ressources informatiques. Ces facteurs contribuent à une solution plus rentable pour les organisations qui cherchent à mettre en œuvre des systèmes de chiffons sophistiqués sans encourir de dépenses importantes.
L'intégration de Deepseek-R1 dans un système de chiffon fournit une puissante combinaison de capacités de raisonnement avancé, de transparence, de performance et de rentabilité, ce qui en fait un choix convaincant pour les développeurs et les organisations visant à améliorer leurs capacités d'IA.
Le script est un pipeline de génération (RAG) de la récupération qui:
curl -fsSL https://ollama.com/install.sh | sh
Après cela, tirez le profondeur R1: 1.5b en utilisant:
ollama pull deepseek-r1:1.5b
Cela prendra un moment pour télécharger:
ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Après avoir fait cela, ouvrez votre cahier Jupyter et commencez par la pièce de codage:
Avant d'exécuter, le script installe les bibliothèques Python requises:
Pour accéder au modèle d'intégration d'OpenAI, le script invite l'utilisateur à en toute sécurité saisir sa clé API à l'aide de getPass (). Cela empêche d'exposer des informations d'identification en texte brut.
Le script stocke la clé API en tant que variable d'environnement. Cela permet à d'autres parties du code d'accéder aux services OpenAI sans les informations d'identification de codage rigide , ce qui améliore la sécurité.
Le script initialise un modèle d'intégration OpenAI appelée "Text-Embedding-3-Small". Ce modèle convertit le texte en intégres vectoriels , qui sont des représentations numériques de haute dimension de la signification du texte. Ces intérêts sont plus tard utilisés pour comparer et récupérer un contenu similaire .
Un fichier PDF (agenticai.pdf) est chargé et divisé en pages . Le texte de chaque page est extrait, ce qui permet des morceaux de texte plus petits et plus gérables au lieu de traiter l'ensemble du document en tant qu'unité.
a retriever est créé à l'aide de chromadb, qui:
Deux requêtes de test sont utilisées:
Le script met en place un pipeline de chiffon , ce qui garantit que:
Au lieu du GPT d'Openai, le script charge Deepseek-R1 (paramètres 1.5b) , un puissant LLM optimisé pour les tâches basées sur la récupération.
le module de récupération de Langchain est utilisé pour:
Le script exécute une requête de test:
"Dites aux perspectives des dirigeants sur l'agentique AI"
le LLM génère une réponse basée sur des faits strictement en utilisant le contexte récupéré.
Le système récupère les informations pertinentes de la base de données .
voici le code:
curl -fsSL https://ollama.com/install.sh | sh
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
!pip install langchain==0.3.11 !pip install langchain-openai==0.2.12 !pip install langchain-community==0.3.11 !pip install langchain-chroma==0.1.4
from getpass import getpass OPENAI_KEY = getpass('Enter Open AI API Key: ')
import os os.environ['OPENAI_API_KEY'] = OPENAI_KEY
from langchain_openai import OpenAIEmbeddings openai_embed_model = OpenAIEmbeddings(model='text-embedding-3-small')
from langchain_community.document_loaders import PyPDFLoader loader = PyPDFLoader('AgenticAI.pdf') pages = loader.load_and_split() texts = [doc.page_content for doc in pages] from langchain_chroma import Chroma chroma_db = Chroma.from_texts( texts=texts, collection_name='db_docs', collection_metadata={"hnsw:space": "cosine"}, # Set distance function to cosine embedding=openai_embed_model )
similarity_threshold_retriever = chroma_db.as_retriever(search_type="similarity_score_threshold",search_kwargs={"k": 3,"score_threshold": 0.3}) query = "what is the old capital of India?" top3_docs = similarity_threshold_retriever.invoke(query) top3_docs
[]
query = "What is Agentic AI?" top3_docs = similarity_threshold_retriever.invoke(query) top3_docs
Découvrez nos articles détaillés sur le travail en profondeur et la comparaison avec des modèles similaires:
Construire un système de chiffon utilisant Deepseek R1 fournit un moyen rentable et puissant d'améliorer la récupération des documents et la génération de réponse. Avec sa nature open source et ses fortes capacités de raisonnement, c'est une excellente alternative aux solutions propriétaires. Les entreprises et les développeurs peuvent tirer parti de sa flexibilité pour créer des applications axées sur l'IA adaptées à leurs besoins.
Vous souhaitez créer des applications à l'aide de Deepseek? Découvrez notre cours Deepseek gratuit aujourd'hui!
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!