에이전트 래그 시스템이 기술을 어떻게 변화시킬 수 있습니까?
소개
인공 지능은 새로운 시대에 들어 왔습니다. 모델이 사전 정의 된 규칙에 따라 정보를 단순히 출력하는 시대는 지났습니다. 오늘 AI의 최첨단 접근 방식은 RAG (검색 성 생성) 시스템, 특히 정보를 사용하여 정보를 사용하여 정보를 검색하고 분석하고 확인합니다. 이것은 기계 학습 모델이 질문에 대답 할뿐만 아니라 전례없는 정확도와 깊이로 그렇게하는 지능형 데이터 검색의 미래입니다.
이 블로그에서는 AI와 상호 작용하는 방식을 혁신하는 가장 강력한 도구 중 하나 인 Crewai 및 Langchain을 사용하여 자체 에이전트 구동 Rag 시스템을 구축 할 수있는 방법을 다룰 것입니다. 그러나 코드에 뛰어 들기 전에 이러한 게임 변화 기술에 익숙해 봅시다.
학습 결과
- 실시간 데이터 검색을 통해 RAG의 기본 사항과 AI 정확도를 향상시키는 역할을 배우십시오.
- Crewai의 기능과 전문 에이전트가 AI 시스템의 효율적인 작업 자동화에 어떻게 기여하는지 탐색했습니다.
- Langchain이 작업 체인을 가능하게하는 방법을 이해하여 AI 중심 프로세스를 향상시키는 논리적 워크 플로를 만듭니다.
- 신뢰할 수 있고 지능적인 정보 검색을 위해 Llama 3, Groq API, Crewai 및 Langchain과 같은 도구를 사용하여 에이전트 래그 시스템을 구축하는 방법을 발견했습니다.
이 기사는 Data Science Blogathon 의 일부로 출판되었습니다 .
목차
- 소개
- 검색 세대 란 무엇입니까?
- Crewai는 무엇입니까?
- Langchain은 무엇입니까?
- Crewai Langchain : Rag의 꿈의 팀
- 자신의 에이전트 걸레 시스템 구축
- 1 단계 : 환경 설정
- 2 단계 : Groq API 키 추가
- 3 단계 : LLM 설정
- 3 단계 : PDF에서 데이터 검색
- STEP4 : PDF를 통과 할 헝겊 도구 만들기
- 5 단계 : Tavily로 웹 검색 추가
- 6 단계 : 라우터 도구 정의
- Step7 : 에이전트 생성
- Step8 : 작업 정의
- 9 단계 : 승무원 건설
- STEP10 : 파이프 라인 실행
- 결론
- 자주 묻는 질문
검색 세대 란 무엇입니까?
래그는 현대 AI에서 하이브리드 접근법을 나타냅니다. RAG 시스템은 교육에 구워진 기존 지식에만 의존하는 전통적인 모델과 달리 외부 데이터 소스 (데이터베이스, 문서 또는 웹과 같은)에서 실시간 정보를 가져와 응답을 강화합니다.
간단히 말해서, 헝겊 시스템은 단순히 "알고있는"것에 대해 추측하거나 의존 할 것이 아니라 관련성 있고 최신 정보를 적극적으로 검색 한 다음 이에 따라 일관된 응답을 생성합니다. 이를 통해 AI의 답변은 정확할뿐만 아니라 실제적인 검증 가능한 사실에도 기초가되도록합니다.
헝겊이 중요한 이유는 무엇입니까?
- 동적 정보 : RAG를 사용하면 AI가 외부 소스에서 현재 실시간 데이터를 가져올 수 있으므로보다 반응이 좋고 최신입니다.
- 정확도 향상 : 외부 문서를 검색하고 참조하여 Rag는 모델이 환각 또는 부정확 한 답변을 생성 할 가능성을 줄입니다.
- 이해력 향상 : 관련 배경 정보를 검색하면 AI의 상세하고 정보에 입각 한 응답을 제공하는 능력이 향상됩니다.
Rag가 무엇인지 이해하므로 데이터 검색, 관련성 평가 및 정확도 확인과 같은 특정 작업을 처리하는 AI (AI)와 함께 과급을 상상해보십시오. 이곳은 Crewai와 Langchain이 시작되어 프로세스가 더욱 간소화되고 강력합니다.
Crewai는 무엇입니까?
Crewai를 에이전트 팀을 오케스트레이션하는 지능적인 관리자로 생각하십시오. 각 에이전트는 정보 검색, 관련성을 채점하거나 오류를 필터링하든 특정 작업을 전문으로합니다. 마법은이 에이전트가 협력 할 때 발생합니다. 복잡한 쿼리를 처리하고 정확하고 정확한 답변을 제공하기 위해 함께 일합니다.
Crewai는 왜 혁명적입니까?
- 에이전트 인텔리전스 : Crewai는 작업을 특수 하위 작업으로 분류하여 각각 고유 한 AI 에이전트에 할당합니다.
- 공동 작업 AI : 이 에이전트는 상호 작용하여 최종 결과가 강력하고 신뢰할 수 있도록 서로간에 정보와 작업을 전달합니다.
- 사용자 정의 가능하고 확장 가능 : Crewai는 모듈 식으로 간단한 질문에 대답하거나 심층적 인 연구를 수행 할 때 광범위한 작업에 적응할 수있는 시스템을 구축 할 수 있습니다.
Langchain은 무엇입니까?
Crewai는 에이전트의 지능을 제공하지만 Langchain을 사용하면 복잡한 AI 작업을 함께 체인하는 워크 플로우를 구축 할 수 있습니다. 에이전트가 올바른 순서로 작업을 수행하여 원활하고 조정 된 AI 프로세스를 생성합니다.
왜 랭케인이 필수적인가?
LLM 오케스트레이션 : Langchain은 Openai에서 Face에 이르기까지 다양한 대형 언어 모델 (LLM)과 함께 일하면서 복잡한 자연어 처리를 가능하게합니다.
- 데이터 유연성 : PDF에서 데이터베이스 및 웹 검색에 이르기까지 Langchain을 다양한 데이터 소스에 연결하여 AI가 가장 관련성이 높은 정보에 액세스 할 수 있습니다.
- 확장 성 : Langchain을 사용하면 각 작업이 다음 작업으로 이어지는 파이프 라인을 구축 할 수 있습니다. 다중 단계 질문 답변 또는 연구와 같은 정교한 AI 작업을 위해 완벽한 AI 작업을 수행 할 수 있습니다.
Crewai Langchain : Rag의 꿈의 팀
Crewai의 에이전트 기반 프레임 워크를 Langchain의 작업 오케스트레이션과 결합하면 강력한 에이전트 래그 시스템을 만들 수 있습니다. 이 시스템에서 각 에이전트는 관련 문서를 가져 오거나 검색된 정보의 품질을 확인하거나 정확성에 대한 답변을 채점하는 역할을합니다. 이 계층화 된 접근 방식은 응답이 정확할뿐만 아니라 가장 관련성이 높고 최근에 사용 가능한 정보에 기반을 두도록합니다.
AI 에이전트의 파이프 라인을 사용하여 복잡한 질문에 대답하는 에이전트 구동 래그 시스템을 앞으로 나아가고 구축합시다.
자신의 에이전트 걸레 시스템 구축
이제 우리는 자체 에이전트 래그 시스템을 단계별로 구축하기 시작합니다.
코드에 뛰어 들기 전에 필요한 라이브러리를 설치하겠습니다.
! PIP 설치 Crewai == 0.28.8 Crewai_Tools == 0.1.6 Langchain_community == 0.0.29 문장 전환자 Langchain-Groq -Quiet ! PIP 설치 Langchain_huggingface -Quiet ! PIP 설치 -업그레이드 Crewai Langchain Langchain_community
1 단계 : 환경 설정
필요한 라이브러리를 가져 오는 것으로 시작합니다.
langchain_openai import Chatopenai에서 OS 가져 오기 Crewai_tools에서 pdfsearchTool을 가져옵니다 langchain_community.tools.tavily_search import tavilysearchResults Crewai_Tools 가져 오기 도구에서 Crewai 수입원에서 Crewai 가져 오기 작업에서 Crewai 수입 에이전트에서
이 단계에서는 다음을 수입했습니다.
- Chatopenai : Llama와 같은 큰 언어 모델과 상호 작용하기위한 인터페이스.
- PDFSEARCHTOOL : PDFS에서 정보를 검색하고 검색하는 도구.
- TavilySearchResults : 웹 기반 검색 결과를 검색합니다.
- 승무원, 과제, 에이전트 : 에이전트와 작업을 조정할 수있는 Crewai의 핵심 구성 요소.
2 단계 : Groq API 키 추가
Groq API에 액세스하려면 일반적으로 API 키를 생성하여 인증해야합니다. Groq 콘솔에 로그인 하여이 키를 생성 할 수 있습니다. 프로세스의 일반적인 개요는 다음과 같습니다.
- 자격 증명을 사용하여 Groq 콘솔에 로그인하십시오.
- API 키로 이동하십시오 : API 키를 관리 할 수있는 섹션으로 이동하십시오.
- 새 키 생성 : 새 API 키를 만들거나 생성하려면 옵션을 선택하십시오.
- API 키 저장 : 일단 생성되면 API 요청을 인증하는 데 필요하므로 키를 복사하고 안전하게 저장하십시오.
이 API 키는 GROQ 시스템을 인증하고 상호 작용하기 위해 API 요청을 위해 HTTP 헤더에서 사용됩니다.
API 액세스와 관련된 특정 세부 사항 또는 추가 단계는 항상 공식 GroQ 문서를 참조하십시오.
OS 가져 오기 os.environ [ 'groq_api_key'] = 'Groq API 키 추가'
3 단계 : LLM 설정
llm = chatopenai ( Openai_api_base = "https://api.groq.com/openai/v1", Openai_api_key = os.environ [ 'groq_api_key'], model_name = "llama3-8b-8192", 온도 = 0.1, max_tokens = 1000, ))
여기서는 시스템에서 사용할 언어 모델을 정의합니다.
- LLAMA3-8B-8192 : 80 억 매개 변수를 가진 대형 언어 모델로 복잡한 쿼리를 처리 할 수있을 정도로 강력합니다.
- 온도 : 모델의 출력이 매우 결정적이고 정확한지 확인하기 위해 0.1로 설정합니다.
- Max Tokens : 1000 개의 토큰으로 제한되어 응답이 간결하고 관련성이 유지됩니다.
3 단계 : PDF에서 데이터 검색
Rag의 작동 방식을 보여주기 위해 PDF를 다운로드하고 검색합니다.
가져 오기 요청 pdf_url = 'https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-pdf' 응답 = requests.get (pdf_url) 파일로 Open ( 'attenstion_is_all_you_need.pdf', 'wb')을 사용하여 : file.write (response.content)
이것은 유명한“주의가 필요한 모든 것”용지를 다운로드하여 로컬로 저장합니다. 검색을 위해 다음 단계 에서이 PDF를 사용하겠습니다.
STEP4 : PDF를 통과 할 헝겊 도구 만들기
이 섹션에서는 언어 모델을 사용하여 PDF를 검색하고 의미 론적 이해를 위해 임베더를 검색하는 Rag 도구를 만듭니다.
- PDF 통합 : PDFSEARCHTOOL은 쿼리를 위해 PDF (earthite_is_all_you_need.pdf)를로드하여 시스템이 문서에서 정보를 추출 할 수 있습니다.
- LLM 구성 : LLAMA3-8B (GROQ의 API를 통해)를 언어 모델로 사용하여 사용자 쿼리를 처리하고 PDF 컨텐츠를 기반으로 자세한 답변을 제공합니다.
- Embedder Setup : Huggingface의 Baai/Bge-Small-EN-V1.5 모델은 임베딩에 사용되므로 도구를 PDF의 가장 관련성있는 섹션과 일치시킬 수 있습니다.
마지막으로, rag_tool.run () 함수는“대형 언어 모델에서 자체 변호 메커니즘이 어떻게 진화 했는가?”와 같은 쿼리로 실행됩니다. 정보를 검색합니다.
rag_tool = pdfsearchTool (pdf = '/content/attenstion_is_all_you_need.pdf', config = dict ( llm = dict ( 제공자 = "groq", # 또는 Google, OpenAi, Anthropic, Llama2, ... config = dict ( model = "llama3-8b-8192", # 온도 = 0.5, # top_p = 1, # stream = true, ),) ),) 임베더 = DICT ( 제공자 = "huggingface", # 또는 Openai, Ollama, ... config = dict ( Model = "Baai/Bge-Small-en-V1.5", #task_type = "retrieval_document", # TITLE = "Embeddings", ),) ),) )) )) rag_tool.run ( "대형 언어 모델에서 자체 정보 메커니즘이 어떻게 진화 했습니까?")
5 단계 : Tavily로 웹 검색 추가
웹 검색 기능을 활성화하려면 Tavily API 키를 설정하십시오.
OS 가져 오기 # Tavily API 키를 설정하십시오 os.environ [ 'tavily_api_key'] = "Tavily API 키 추가" web_search_tool = tavilysearchresults (k = 3) web_search_tool.run ( "대형 언어 모델의 자체 정보 메커니즘은 무엇입니까?")
이 도구를 사용하면 웹 검색을 수행하여 최대 3 개의 결과를 검색 할 수 있습니다.
6 단계 : 라우터 도구 정의
@도구 def router_tool (질문) : "" "라우터 기능" "" 문제의 '자기 소수'인 경우 : 반환 'vectorstore' 또 다른: 'web_search'반환
라우터 도구는 Queries를 벡터 스토어 (고도로 기술적 인 질문) 또는 웹 검색으로 지시합니다. 쿼리의 내용을 확인하고 적절한 결정을 내립니다.
Step7 : 에이전트 생성
쿼리 응답 파이프 라인의 다른 부분을 처리하기 위해 일련의 에이전트를 정의합니다.
라우터 에이전트 :
질문을 올바른 검색 도구 (PDF 또는 웹 검색)로 라우팅합니다.
router_agent = 에이전트 ( 역할 = '라우터', Goal = 'vectorstore 또는 웹 검색에 대한 ROOKE 사용자 질문', 뒷이야기 = ( "사용자 질문을 VectorStore 또는 웹 검색으로 라우팅하는 전문가입니다." "검색-예방성 생성과 관련된 개념에 대한 질문을 위해 VectorStore를 사용하십시오." "이러한 주제와 관련된 질문에서 키워드를 엄격하게 할 필요는 없습니다. 그렇지 않으면 웹 검색을 사용하십시오." ),) verbose = true, allow_delegation = false, llm = llm, ))
리트리버 에이전트 :
선택한 소스 (PDF 또는 웹 검색)에서 정보를 검색합니다.
retriever_agent = 에이전트 ( 역할 = "리트리버", 목표 = "벡터 스토어에서 검색 한 정보를 사용하여 질문에 답하십시오", 뒷이야기 = ( "당신은 질문 응답 과제의 조수입니다." "검색된 컨텍스트에 존재하는 정보를 사용하여 질문에 답하십시오." "당신은 명확한 간결한 답변을 제공해야합니다." ),) verbose = true, allow_delegation = false, llm = llm, ))
그레이더 에이전트 :
검색된 정보가 관련이 있는지 확인하십시오.
grader_agent = 에이전트 ( 역할 = '답변 그레이더', 목표 = '잘못 검색을 필터링', 뒷이야기 = ( "당신은 검색된 문서와 사용자 질문에 대한 관련성을 평가하는 그레이더입니다." "문서에 사용자 질문과 관련된 키워드가 포함 된 경우 관련으로 등급을 매기십시오." "엄격한 테스트 일 필요는 없으며 답이 질문과 관련이 있는지 확인해야합니다." ),) verbose = true, allow_delegation = false, llm = llm, ))
환각 학년 :
환각을 필터링합니다 (잘못된 답변).
hallucination_grader = 에이전트 ( 역할 = "환각 Grader", 목표 = "환각을 필터링", 뒷이야기 = ( "당신은 일련의 사실에 의해 답변이 기반을두고 있는지 여부를 평가하는 환각 채점자입니다." "답을 세 심하게 검토하고 제공된 응답이 질문에 따라 AlignMnet에 있는지 확인하십시오." ),) verbose = true, allow_delegation = false, llm = llm, ))
답변 Grader :
최종 답변을 등급하고 유용하게 보장합니다.
answer_grader = 에이전트 ( 역할 = "답변 그레이더", 목표 = "답에서 환각을 필터링하십시오.", 뒷이야기 = ( "당신은 답변이 질문을 해결하는 데 유용한 지 여부를 평가하는 그레이더입니다." "답을 세 심하게 검토하고 질문에 대한 의미가 있는지 확인하십시오." "대답이 관련이 있다면 명확하고 간결한 응답을 생성합니다." "대답이 관련이 없다면 'web_search_tool'을 사용하여 WebSearch를 수행하십시오." ),) verbose = true, allow_delegation = false, llm = llm, ))
Step8 : 작업 정의
각 작업은 에이전트에 특정 역할을 할당하도록 정의됩니다.
라우터 작업 :
쿼리가 PDF 검색 또는 웹 검색으로 이동 해야하는지 여부를 결정합니다.
router_task = task ( description = ( "{question} 질문에서 키워드 분석" "키워드를 기반으로 벡터 스토어 검색 자격이 있는지 또는 웹 검색 자격이 있는지 결정합니다." "VectorStore 검색에 적합한 경우 'VectorStore'라는 단어를 반환하십시오." "웹 검색을받을 수있는 경우 'Websearch'라는 단어를 반환하십시오." "다른 미세 또는 설명을 제공하지 마십시오." ),) expect_output = ( "질문에 따라 바이너리 선택 'Websearch'또는 'VectorStore'제공" "다른 미세 또는 설명을 제공하지 마십시오.")), 에이전트 = router_agent, 도구 = [router_tool], ))
리트리버 작업 :
필요한 정보를 검색합니다.
retriever_task = task ( description = ( "각 도구의 도움으로 {question} 질문에 대한 정보를 추출한 라우터 작업의 응답을 기반으로합니다." "라우터 작업 출력이 'WebSearch'인 경우 Web_Serach_Tool을 사용하여 웹에서 정보를 검색하십시오." "라우터 작업 출력이 'VectorStore'인 경우 RAG_TOOL을 사용하여 VectorStore에서 정보를 검색하십시오." ),) expect_output = ( ''router_task '의 출력을 분석해야합니다. " "응답이 'WebSearch'인 경우 Web_Search_Tool을 사용하여 웹에서 정보를 검색하십시오." "응답이 'vectorstore'인 경우 rag_tool을 사용하여 벡터 스토어에서 정보를 검색하십시오." "클로어를 반환하고 응답으로 텍스트를 콘서트하십시오."), 에이전트 = retriever_agent, 컨텍스트 = [router_task], #도구 = [Retriever_Tool], ))
그레이더 작업 :
검색된 정보를 등급에 매 깁니다.
grader_task = 작업 ( description = ( "정기 {question}에 대한 리트리버 작업의 응답에 따라 검색된 컨텐츠가 질문과 관련이 있는지 여부를 평가합니다." ),) expect_output = ( "바이너리 스코어 '예'또는 '아니오'점수가 문서가 질문과 관련이 있는지 여부를 나타냅니다." " 'Retriever_task'의 응답이 질문과 일치하는 경우 '예'에 대답해야합니다." " 'Retriever_task'의 응답이 질문과 일치하지 않으면 '아니오'에 대답해야합니다." " '예'또는 '아니오'를 제외한 서문이나 설명을 제공하지 마십시오."), "),"), 에이전트 = grader_agent, Context = [retriever_task], ))
환각 작업 :
대답이 사실에 근거가되도록합니다.
hallucination_task = task ( description = ( "quetion {question}에 대한 그레이드 선수 작업의 응답에 따라 답변이 사실에 의해 근거가 있는지 / 뒷받침되는지 여부를 평가합니다."), expect_output = ( "바이너리 스코어 '예'또는 '아니오'점수는 답이 질문과 일치하는지 여부를 나타냅니다." "답이 유용하고 질문에 대한 사실이 포함되어 있으면"예 "라고 응답하십시오." "답이 유용하지 않고 질문에 대한 사실이 포함되어 있지 않으면 '아니오'응답." " '예'또는 '아니오'를 제외한 서문이나 설명을 제공하지 마십시오."), "),"), 에이전트 = hallucination_grader, 컨텍스트 = [Grader_task], ))
답변 작업 :
필요한 경우 최종 답변을 제공하거나 웹 검색을 수행합니다.
Answer_task = 작업 ( description = ( "정의에 대한 환각 작업의 응답에 근거하여 {question} 답이 질문을 해결하는 데 유용한 지 여부를 평가합니다." "대답이 '예'라면 명확하고 간결한 대답을 반환하십시오." "대답이 '아니오'라면 'Websearch'를 수행하고 응답을 반환합니다"), explic_output = ( "hallucination_task '의 응답이'예 '인 경우 명확하고 간결한 응답을 반환하십시오." " 'web_search_tool'을 사용하여 웹 검색을 수행하고 'hallucination_task'의 응답이 '아니오'인 경우에만 명확하고 간결한 응답을 반환하십시오." "그렇지 않으면 '죄송합니다! 유효한 응답을 찾을 수 없습니다"), "),"), 컨텍스트 = [hallucination_task], 에이전트 = answer_grader, #도구 = [Answer_grader_Tool], ))
9 단계 : 승무원 건설
우리는 에이전트와 작업을 전체 파이프 라인을 관리하는 승무원으로 그룹화합니다.
rag_crew = 승무원 ( 에이전트 = [router_agent, retriever_agent, grader_agent, hallucination_grader, answer_grader], 작업 = [router_task, retriever_task, grader_task, hallucination_task, answer_task], verbose = true, ))
STEP10 : 파이프 라인 실행
마지막으로, 우리는 질문을하고 헝겊 시스템을 시작합니다.
입력 = { "질문": "자체 변환 메커니즘은 큰 언어 모델에 어떻게 도움이됩니까?"} 결과 = rag_crew.kickoff (입력 = 입력) 인쇄 (결과)
이 파이프 라인은 에이전트를 통해 질문을 처리하고, 관련 정보를 검색하고, 환각을 필터링하며, 간결하고 관련성있는 답변을 제공합니다.
결론
Rag, Crewai 및 Langchain의 조합은 AI의 미래를 엿볼 수 있습니다. 에이전트 인텔리전스 및 작업 체인을 활용하여 더 똑똑하고 빠르며 정확한 시스템을 구축 할 수 있습니다. 이러한 시스템은 정보를 생성하는 것이 아니라 최상의 응답 품질을 보장하기 위해 적극적으로 검색, 확인 및 필터링합니다.
Crewai 및 Langchain과 같은 도구를 사용하면 지능형 에이전트 중심 AI 시스템을 구축 할 수있는 가능성은 끝이 없습니다. AI 연구, 자동 고객 지원 또는 기타 데이터 집약적 인 분야에서 일하고 있든 상담원 RAG 시스템은 새로운 수준의 효율성과 정확성을 잠금 해제하는 열쇠입니다.
여기를 클릭하여 링크에 액세스 할 수 있습니다.
주요 테이크 아웃
- RAG 시스템은 자연 언어 생성과 실시간 데이터 검색을 결합하여 AI가 외부 소스에서 정확한 최신 정보를 가져올 수 있도록보다 신뢰할 수있는 응답을 제공 할 수 있습니다.
- Crewai는 데이터 검색, 평가 및 검증과 같은 다양한 작업을 담당하는 특수 AI 에이전트 팀을 고용하여 매우 효율적인 대리인 시스템을 초래합니다.
- Langchain을 사용하면 다양한 작업을 연결하는 다단계 워크 플로우를 생성 할 수 있으므로 AI 시스템은 대형 언어 모델 (LLM)의 논리적 시퀀싱 및 오케스트레이션을 통해 정보를보다 효과적으로 처리 할 수 있습니다.
- Crewai의 에이전트 프레임 워크를 Langchain의 작업 체인과 결합함으로써 실시간으로 정보를 검색하고 검색하는 지능형 AI 시스템을 구축하여 응답의 정확성과 신뢰성을 크게 향상시킬 수 있습니다.
- 이 블로그는 LLAMA 3, Groq API, Crewai 및 Langchain과 같은 고급 도구를 사용하여 자체 에이전트 래그 시스템을 만드는 과정을 살펴 보았으므로 이러한 기술이 어떻게 협력하여 AI 중심 솔루션을 자동화하고 향상시키는 방법을 명확하게 설명했습니다.
자주 묻는 질문
Q1. Crewai는 에이전트 시스템 구축에 어떻게 기여합니까?A. Crewai는 정보 검색, 관련성 검증 및 정확성 보장과 같은 작업을 전문으로하는 여러 AI 에이전트를 오케스트레이션합니다.
Q2. Langchain은 헝겊 시스템에서 무엇을 사용합니까?A. Langchain은 AI 작업을 체인하는 워크 플로를 생성하여 각 데이터 처리 및 검색 단계가 올바른 순서로 발생하도록합니다.
Q3. 헝겊 시스템에서 에이전트의 역할은 무엇입니까?A. 에이전트는 데이터 검색, 정확성 확인 및 채점 응답과 같은 특정 작업을 처리하여 시스템을보다 신뢰할 수 있고 정확하게 만듭니다.
Q4. 걸레 시스템에서 Groq API를 사용해야하는 이유는 무엇입니까?A. GROQ API는 LLAMA 3과 같은 강력한 언어 모델에 대한 액세스를 제공하여 복잡한 작업을위한 고성능 AI를 가능하게합니다.
이 기사에 표시된 미디어는 분석 Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다.
위 내용은 에이전트 래그 시스템이 기술을 어떻게 변화시킬 수 있습니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

에이전트 AI에서 작업하는 동안 개발자는 종종 속도, 유연성 및 자원 효율성 사이의 상충 관계를 탐색하는 것을 발견합니다. 나는 에이전트 AI 프레임 워크를 탐구하고 Agno를 만났다 (이전에는 ph-이었다.

SQL의 Alter Table 문 : 데이터베이스에 열을 동적으로 추가 데이터 관리에서 SQL의 적응성이 중요합니다. 데이터베이스 구조를 즉시 조정해야합니까? Alter Table 문은 솔루션입니다. 이 안내서는 Colu를 추가합니다

릴리스에는 GPT-4.1, GPT-4.1 MINI 및 GPT-4.1 NANO의 세 가지 모델이 포함되어 있으며, 대형 언어 모델 환경 내에서 작업 별 최적화로 이동합니다. 이 모델은 사용자를 향한 인터페이스를 즉시 대체하지 않습니다

임베딩 모델의 힘 잠금 해제 : Andrew Ng의 새로운 코스에 대한 깊은 다이빙 기계가 완벽한 정확도로 질문을 이해하고 응답하는 미래를 상상해보십시오. 이것은 공상 과학이 아닙니다. AI의 발전 덕분에 R이되었습니다

Rocketpy : 포괄적 인 가이드로 로켓 발사 시뮬레이션 이 기사는 강력한 파이썬 라이브러리 인 Rocketpy를 사용하여 고출력 로켓 런칭을 시뮬레이션하는 것을 안내합니다. 로켓 구성 요소 정의에서 Simula 분석에 이르기까지 모든 것을 다룰 것입니다.

Google의 AI 전략의 기초로서 Gemini Gemini는 Google의 AI 에이전트 전략의 초석으로 고급 멀티 모드 기능을 활용하여 텍스트, 이미지, 오디오, 비디오 및 코드에서 응답을 처리하고 생성합니다. Deepm에 의해 개발되었습니다

Hugging Face는 X에서“우리가 오픈 소스 로봇을 전 세계에 가져 오기 위해 꽃가루 로봇 공학을 획득하고 있음을 발표하게되어 기쁩니다.

AI 커뮤니티의 상당한 개발에서 Agentica와 AI는 DeepCoder-14B라는 오픈 소스 AI 코딩 모델을 발표했습니다. OpenAI와 같은 폐쇄 소스 경쟁 업체와 동등한 코드 생성 기능 제공
