목차
소개
학습 목표
목차
걸레 및 다중 문서 에이전트 이해
다중 문서 에이전트 래그가 게임 체인저 인 이유는 무엇입니까?
다중 문서 에이전트 래그 시스템의 주요 강점
다중 문서 에이전트 걸레의 빌딩 블록
문서 처리
임베딩 생성
인덱싱
검색
에이전트 기반 추론
세대
기본 다중 문서 에이전트 헝겊 구현
1 단계 : 필요한 라이브러리 설치
2 단계 : API 키 및 환경 변수 설정
3 단계 : 문서 다운로드
STEP4 : 벡터 및 요약 도구 생성
문서로드 및 벡터 인덱싱 준비
벡터 쿼리 함수 정의
벡터 쿼리 도구 생성
요약 쿼리 도구 생성
호출 기능 각 용지에 대한 도구를 작성하는 기능
5 단계 : 에이전트 생성
6 단계 : 에이전트의 응답 분석
에이전트와 Longlora 논문의 상호 작용에 대한 설명
에이전트의 행동에 대한 설명 : 자제 및 longlora 요약
요약 도구 사용
별도의 요약 도구에 대한 뚜렷한 호출
응답의 간결함과 직접성
도전과 고려 사항
결론
주요 테이크 아웃
자주 묻는 질문
기술 주변기기 일체 포함 llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축

llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축

Apr 13, 2025 am 11:03 AM

소개

빠르게 진화하는 인공 지능 분야에서 방대한 양의 정보를 처리하고 이해하는 능력이 점점 중요 해지고 있습니다. 다중 문서 에이전트 래그를 입력하십시오-검색-예술 생성 (RAG)을 결합하여 에이전트 기반 시스템을 결합하여 여러 문서에서 추론 할 수있는 AI를 만듭니다. 이 가이드는이 흥미로운 기술의 개념, 구현 및 잠재력을 안내합니다.

학습 목표

  • 다중 문서 에이전트 걸레 시스템의 기본 사항과 아키텍처를 이해하십시오.
  • 임베드와 에이전트 기반 추론이 상황에 맞는 정확한 응답을 생성하는 AI의 능력을 어떻게 향상시키는 지 알아보십시오.
  • 지식 집약적 인 응용 프로그램에서 정보 추출을 향상시키는 고급 검색 메커니즘을 탐색하십시오.
  • 연구 및 법률 분석과 같은 복잡한 분야에서 다중 문서 에이전트 래그의 응용에 대한 통찰력을 얻으십시오.
  • AI 중심 컨텐츠 생성 및 분석에서 RAG 시스템의 효과를 평가하는 능력을 개발하십시오.

이 기사는 Data Science Blogathon 의 일부로 출판되었습니다 .

목차

  • 걸레 및 다중 문서 에이전트 이해
  • 다중 문서 에이전트 래그가 게임 체인저 인 이유는 무엇입니까?
  • 다중 문서 에이전트 래그 시스템의 주요 강점
  • 다중 문서 에이전트 걸레의 빌딩 블록
  • 기본 다중 문서 에이전트 헝겊 구현
    • 1 단계 : 필요한 라이브러리 설치
    • 2 단계 : API 키 및 환경 변수 설정
    • 3 단계 : 문서 다운로드
    • STEP4 : 벡터 및 요약 도구 생성
    • 5 단계 : 에이전트 생성
    • 6 단계 : 에이전트의 응답 분석
    • 에이전트와 Longlora 논문의 상호 작용에 대한 설명
    • 에이전트의 행동에 대한 설명 : 자제 및 longlora 요약
  • 도전과 고려 사항
  • 자주 묻는 질문

걸레 및 다중 문서 에이전트 이해

RAG (Restrieved-Augmented Generation)는 언어 모델이 외부 지식에 액세스하고 사용할 수있게하여 언어 모델을 향상시키는 기술입니다. RAG 모델은 훈련 된 매개 변수에만 의존하는 대신 지식 기반에서 관련 정보를 검색하여보다 정확하고 정보에 입각 한 응답을 생성 할 수 있습니다.

llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축

다중 문서 에이전트 래그는 AI 에이전트가 여러 문서와 동시에 작업 할 수있게 함으로써이 개념을 더욱 발전시킵니다. 이 접근법은 특히 학술 연구, 시장 분석 또는 법적 문서 검토와 같은 다양한 출처의 정보를 종합 해야하는 작업에 특히 유용합니다.

다중 문서 에이전트 래그가 게임 체인저 인 이유는 무엇입니까?

멀티 문서 에이전트 래그가 게임 체인저인지 이해합시다.

  • 맥락에 대한 더 똑똑한 이해 : 한 권의 책을 읽는 것이 아니라 전체 도서관이 귀하의 질문에 대답하는 슈퍼 스마트 조수가 있다고 상상해보십시오. 그것이 바로 상황에 맞는 이해가 의미하는 것입니다. 여러 문서를 분석함으로써 AI는보다 완전한 그림을 모아서 큰 그림을 진정으로 포착하는 답을 얻을 수 있습니다.
  • 까다로운 작업에 대한 정확성을 높이십시오 : 우리는 모두 아이들로서“점들을 연결”했습니다. 다중 문서 에이전트 래그는 비슷한 일을하지만 정보를 제공합니다. 다양한 소스의 사실을 연결함으로써 복잡한 문제를 더 정밀하게 해결할 수 있습니다. 이것은 특히 복잡한 주제를 다룰 때보다 신뢰할 수있는 답변을 의미합니다.
  • 정보 과부하를 프로처럼 처리합니다 . 오늘날의 세계에서는 데이터가 익사합니다. 다중 문서 에이전트 래그는 과급 된 필터와 같습니다. 그것은 24 시간 내내 전문가 팀이 방대한 지식 라이브러리를 소화하고 요약하기 위해 일하는 것과 같습니다.
  • 적응 가능하고 성장 가능한 지식 기반 : 이것을 쉽게 배우고 확장 할 수있는 디지털 뇌라고 생각하십시오. 새로운 정보가 제공되면 다중 문서 에이전트 래그가 원활하게 통합 될 수 있습니다. 이는 AI 어시스턴트가 항상 최신 정보이며 최신 질문을 가장 신선한 정보로 다룰 준비가되어 있음을 의미합니다.

다중 문서 에이전트 래그 시스템의 주요 강점

이제 다중 문서 에이전트 래그 시스템의 주요 강점을 살펴 보겠습니다.

  • 과급 학술 연구 : 연구자들은 종종 수백 개의 논문에서 정보를 합성하는 데 몇 주 또는 몇 달을 소비합니다. 다중 문서 에이전트 래그는이 과정을 극적으로 속도를 높이고 학자들이 주요 트렌드, 지식의 차이 및 방대한 문학의 혁신적인 혁신을 신속하게 식별 할 수 있도록 도와줍니다.
  • 법적 문서 분석 혁명 : 변호사는 사례 파일, 계약 및 법적 선례의 산을 다룹니다. 이 기술은 수천 개의 문서를 신속하게 분석하여 중요한 세부 사항, 불일치 및 관련 판례법을 발견 할 수 있으며,이 법은 인간 팀을 발견하는 데 며칠 또는 몇 주가 걸릴 수 있습니다.
  • 터보 차지 시장 인텔리전스 : 기업은 트렌드와 경쟁보다 앞서 있어야합니다. 다중 문서 에이전트 래그는 뉴스 기사, 소셜 미디어 및 업계 보고서를 지속적으로 스캔하여 실시간 통찰력을 제공하고 회사가 그 어느 때보 다 데이터 중심 결정을 더 빨리 만들 수 있도록 도와줍니다.
  • 쉽게 기술 문서 탐색 : 엔지니어 및 IT 전문가의 경우 기술 문서를 거부하는 올바른 정보를 찾는 것은 건초 더미에서 바늘을 검색하는 것과 같습니다. 이 AI 기반 접근 방식은 여러 매뉴얼, 문제 해결 가이드 및 코드 리포지토리에서 관련 섹션을 빠르게 정확하게 찾아 낼 수 있으며, 수많은 좌절 시간을 절약 할 수 있습니다.

다중 문서 에이전트 걸레의 빌딩 블록

슈퍼 스마트 디지털 라이브러리 어시스턴트를 구축한다고 상상해보십시오. 이 조수는 수천 개의 책을 읽고 복잡한 질문을 이해하며 여러 출처의 정보를 사용하여 자세한 답변을 제공 할 수 있습니다. 그것은 본질적으로 다중 문서 에이전트 걸레 시스템이하는 일입니다. 이를 가능하게하는 주요 구성 요소를 분류합시다.

llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축

문서 처리

모든 유형의 문서 (PDF, 웹 페이지, 단어 파일 등)를 AI가 이해할 수있는 형식으로 변환합니다.

임베딩 생성

처리 된 텍스트를 정보의 의미와 맥락을 나타내는 숫자 벡터 (숫자 시퀀스)로 변환합니다.

간단히 말해서, 라이브러리에서 각 단락에 대한 슈퍼 컨벤션 요약을 생성하지만 단어 대신 고유 한 코드를 사용하는 것을 상상해보십시오. 이 코드는 컴퓨터가 빠르게 비교하고 분석 할 수있는 방식으로 정보의 본질을 캡처합니다.

인덱싱

이 임베딩을 저장하고 검색하는 효율적인 구조를 만듭니다. 이것은 디지털 라이브러리를위한 세계에서 가장 효율적인 카드 카탈로그를 만드는 것과 같습니다. 이를 통해 AI는 모든 단일 문서를 자세히 스캔하지 않고도 관련 정보를 신속하게 찾을 수 있습니다.

검색

쿼리 (귀하의 질문)를 사용하여 인덱스 된 임베드에서 가장 관련성이 높은 정보를 찾습니다. 질문을 할 때이 구성 요소는 디지털 라이브러리를 통해 경주하여 잠재적으로 관련된 모든 정보를 가져 오기 위해 초고 효율적인 카드 카탈로그를 사용합니다.

에이전트 기반 추론

AI 에이전트는 검색된 정보를 쿼리의 맥락에서 해석하여 답을 공식화하는 방법을 결정합니다. 이것은 올바른 문서를 찾을뿐만 아니라 질문의 더 깊은 의미를 이해하는 천재 AI 요원을 갖는 것과 같습니다. 그들은 다른 소스의 점을 연결하고 당신에게 대답하는 가장 좋은 방법을 알아낼 수 있습니다.

세대

대리인의 추론과 검색된 정보에 따라 인간이 읽을 수있는 답변을 생성합니다. 이곳에서 우리의 천재 요원이 그들의 발견을 분명하고 간결한 언어로 설명합니다. 그들은 그들이 수집하고 분석 한 모든 복잡한 정보를 가져 와서 귀하의 질문에 직접 답변하는 방식으로 제시합니다.

이 강력한 조합을 사용하면 다중 문서 에이전트 래그 시스템이 방대한 지식 풀에서 이끌어내는 통찰력과 답변을 제공하여 많은 분야의 복잡한 연구, 분석 및 문제 해결 작업에 매우 유용합니다.

기본 다중 문서 에이전트 헝겊 구현

3 개의 학술 논문과 함께 일할 수있는 간단한 에이전트 걸레를 만들어 봅시다. 헝겊 시스템 구축을위한 강력한 도구를 제공하는 llama_index 라이브러리를 사용하겠습니다.

1 단계 : 필요한 라이브러리 설치

AI 에이전트를 구축하기 시작하려면 필요한 라이브러리를 설치해야합니다. 환경을 설정하는 단계는 다음과 같습니다.

  • Python 설치 : 시스템에 Python이 설치되어 있는지 확인하십시오. 공식 Python 웹 사이트에서 다운로드 할 수 있습니다 : Python 다운로드
  • 가상 환경 설정 : 프로젝트가 종속성을 관리 할 수있는 가상 환경을 만드는 것이 좋습니다. 가상 환경을 설정하려면 다음 명령을 실행하십시오.
 Python -m venv ai_agent_env
소스 ai_agent_env/bin/activate # windows에서 # ai_agent_env \ scripts \ actibate`를 사용하십시오
로그인 후 복사
  • OpenAI API 및 Llamaindex를 설치하십시오.
 PIP Openai llama-index == 0.10.27 llama-index-llms-openai == 0.1.15
PIP 설치 llama-index-embeddings-openai == 0.1.7
로그인 후 복사

2 단계 : API 키 및 환경 변수 설정

OpenAI API를 사용하려면 API 키가 필요합니다. 다음 단계에 따라 API 키를 설정하십시오.

  • API 키를 얻으십시오 : OpenAI 웹 사이트에서 계정에 가입하고 API 섹션에서 API 키를 얻으십시오.
  • 환경 변수 설정 : API 키를 환경 변수에 저장하여 안전하게 유지하십시오. .bashrc 또는 .zshrc 파일에 다음 줄을 추가 (또는 운영 체제에 적절한 방법을 사용하십시오).
 내보내기 OpenAi_api_key = 'your_openai_api_key_here'
로그인 후 복사
  • 코드에서 API 키에 액세스하십시오 : Python 코드에서 필요한 라이브러리를 가져오고 OS 모듈을 사용하여 API 키에 액세스하십시오.
 OS 가져 오기
OpenAi 가져 오기
Nest_asyncio를 가져옵니다
llama_index.core.node_parser import sentencesplitter에서
llama_index.core.tools import functionTool, QueryEnginetool
llama_index.core.vector_stores에서 metadatafilters, filtercondition
llama_index.core에서 agent import functionCallingAgentWorker
llama_index.core. Agent import agentrunner
가져 오기 목록 입력에서 선택 사항
수입 하위 프로세스
Openai.api_key = os.getenv ( 'Openai_api_key')

#optionally에서는 OpenAI 키를 직접 추가 할 수 있습니다. (모범 사례가 아님)
#openai.api_key = 'your_openai_api_key_here'

Nest_asyncio.apply ()
로그인 후 복사

3 단계 : 문서 다운로드

앞에서 언급했듯이, 나는이 에이전트 래그를 만들기 위해 세 가지 논문 만 사용하고 있습니다. 나중에이 에이전트 래그를 다른 블로그에서 더 많은 논문으로 확장 할 것입니다. 자신의 문서를 선택할 수 있습니다 (선택적으로).

 # 다운로드 할 URL 목록
urls = [
    "https://openreview.net/pdf?id=vtmbagcn7o",
    "https://openreview.net/pdf?id=6pmjorfdak",
    "https://openreview.net/pdf?id=hsyw5go0v8",
]]

# 파일을 저장하기위한 해당 파일 이름
종이 = [
    "Metagpt.pdf",
    "longlora.pdf",
    "selfrag.pdf",
]]

# 두 목록을 통해 루프하고 각각의 이름으로 각 파일을 다운로드하십시오.
URL의 경우 zip (urls, papers)의 종이 :
    subprocess.run ([ "wget", url, "-o", paper])))
로그인 후 복사

STEP4 : 벡터 및 요약 도구 생성

아래 함수 인 get_doc_tools는 벡터 쿼리 도구와 요약 쿼리 도구의 두 가지 도구를 작성하도록 설계되었습니다. 이 도구는 에이전트 기반 검색 증거 생성 (RAG) 접근법을 사용하여 문서를 쿼리하고 요약하는 데 도움이됩니다. 다음은 단계와 설명입니다.

 def get_doc_tools (
    file_path : str,
    이름 : str,
) -> str :
    "" "문서에서 벡터 쿼리 및 요약 쿼리 도구를 가져옵니다." ""
로그인 후 복사

문서로드 및 벡터 인덱싱 준비

이 기능은 제공된 file_path를 가져 와서 문서의 내용을 읽는 SimpledirectoryReader를 사용하여 문서를로드하여 시작합니다. 문서가로드되면 문서를 최대 1024 자까지 포함하는 문서를 작은 청크 또는 노드로 나누는 SentencesPlitter에 의해 처리됩니다. 그런 다음 이러한 노드는 효율적인 벡터 기반 쿼리를 허용하는 도구 인 VectorStoreIndex를 사용하여 인덱싱됩니다. 이 인덱스는 나중에 벡터 유사성을 기반으로 문서 컨텐츠를 검색하는 데 사용되므로 관련 정보를보다 쉽게 ​​검색 할 수 있습니다.

 # 지정된 파일 경로에서 문서를로드합니다
documents = simpledirectoryReader (input_files = [file_path]). load_data ()

#로드 된 문서를 1024 자의 작은 청크 (노드)로 분할
스플리터 = sentencesplitter (chunk_size = 1024)
노드 = splitter.get_nodes_from_documents (문서)

# 효율적인 벡터 기반 쿼리를 위해 노드에서 벡터 인덱스 생성
vector_index = VectorStoreIndex (노드)
로그인 후 복사

벡터 쿼리 함수 정의

여기서이 함수는 vector_query를 정의하며 문서에 대한 구체적인 질문에 답변합니다. 이 함수는 쿼리 문자열과 선택적 페이지 번호 목록을 허용합니다. 페이지 번호가 제공되지 않으면 전체 문서가 쿼리됩니다. 이 기능은 먼저 page_numbers가 제공되는지 확인합니다. 그렇지 않은 경우 기본값이 빈 목록으로 표시됩니다.

그런 다음 지정된 페이지 번호에 해당하는 메타 데이터 필터를 만듭니다. 이 필터는 문서의 특정 부분으로 검색을 좁히는 데 도움이됩니다. query_engine은 벡터 인덱스를 사용하여 작성되며 유사성 임계 값과 함께 이러한 필터를 사용하여 가장 관련성이 높은 결과를 찾으십시오. 마지막으로,이 기능은이 엔진을 사용하여 쿼리를 실행하고 응답을 반환합니다.

 # 벡터 쿼리 기능
    def vector_query (
        쿼리 : str, 
        page_numbers : 선택 사항 [list [str]] = none
    ) -> str :
        "" "주어진 논문에 대한 질문에 대답하는 데 사용됩니다.
    
        논문에 대한 구체적인 질문이있는 경우 유용합니다.
        검색하려는 특정 페이지가없는 한 항상 page_numbers를 아무것도 남겨 두십시오.
    
        Args :
            쿼리 (str) : 내장 될 문자열 쿼리.
            page_numbers (선택 사항 [list [str]] : 페이지 세트별로 필터. 아무것도 떠나십시오 
                벡터 검색을 수행하려면
                모든 페이지에서. 그렇지 않으면 지정된 페이지 세트별로 필터를 필터링하십시오.
        
        "" "
    
        page_numbers = page_numbers 또는 []
        Metadata_dicts = [
            { "키": "page_label", "value": p in page _numbers
        ]]
        
        query_engine = vector_index.as_query_engine (
            유사성 _top_k = 2,
            필터 = metadatafilters.from_dicts (
                메타 데이터 _dicts,
                조건 = FilterCondition.or
            ))
        ))
        응답 = query_engine.query (query)
        반환 응답
로그인 후 복사

벡터 쿼리 도구 생성

이 함수 의이 부분은 이전에 정의 된 vector_query 함수를 get_doc_tools를 호출 할 때 제공된 이름 매개 변수를 기반으로 동적으로 생성 된 이름에 연결하는 도구 인 vector_query_tool을 만듭니다.

이 도구는 functiontool.from_defaults를 사용하여 작성되며 필요한 기본값으로 자동 구성합니다. 이 도구는 이제 이전에 정의 된 기능을 사용하여 문서를 통해 벡터 기반 쿼리를 수행하는 데 사용될 수 있습니다.

       
    # 벡터 쿼리 도구 생성
    vector_query_tool = functionTool.from_defaults (
        이름 = f "vector_tool_ {name}",
        fn = vector_query
    ))
로그인 후 복사

요약 쿼리 도구 생성

이 마지막 섹션 에서이 함수는 문서를 요약하기위한 도구를 만듭니다. 먼저, 이전에 분할 및 인덱싱 된 노드에서 SummaryIndex를 만듭니다. 이 색인은 특별히 요약 작업을 위해 설계되었습니다. 그런 다음 summary_query_engine은 "tree_summarize"의 응답 모드로 작성되며,이 도구는 문서 내용의 간결한 요약을 생성 할 수 있습니다.

Summary_Tool은 QueryEnginetool.from_defaults를 사용하여 최종적으로 생성되며 쿼리 엔진을 이름 매개 변수를 기반으로 동적으로 생성 된 이름으로 연결합니다. 이 도구에는 요약 관련 쿼리에 대한 목적을 나타내는 설명이 제공됩니다. 이 요약 도구를 사용하여 사용자 쿼리를 기반으로 문서의 요약을 생성하는 데 사용할 수 있습니다.

 # 요약 쿼리 도구
    summary_index = summaryIndex (노드)
    summary_query_engine = summary_index.as_query_engine (
        response_mode = "tree_summarize",
        use_async = true,
    ))
    summary_tool = QueryEnginetool.from_defaults (
        이름 = f "summary_tool_ {name}",
        query_engine = summary_query_engine,
        설명 = (
            f "{name}과 관련된 요약 질문에 유용합니다."
        ),)
    ))

    return vector_query_tool, summary_tool
로그인 후 복사

호출 기능 각 용지에 대한 도구를 작성하는 기능

 paper_to_tools_dict = {}
종이의 종이 :
    print (f "종이 도구 가져 오기 : {paper}")
    vector_tool, summary_tool = get_doc_tools (종이, 경로 (종이) .Stem)
    paper_to_tools_dict [paper] = [vector_tool, summary_tool]

initial_tools = [paper_to_tools_dict [종이]에서 t에 대한 종이의 종이 용 종이.]
Len (이니셜 _tools)
로그인 후 복사

llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축

이 코드는 각 용지를 처리하고 각각의 두 가지 도구를 작성합니다. 시맨틱 검색을위한 벡터 도구 및 간결한 요약을 생성하기위한 요약 도구,이 경우 6 도구.

5 단계 : 에이전트 생성

이전에는 에이전트를 사용할 수있는 도구를 만들었고 이제는 FunctionCallingAgentWorker 클래스를 사용하여 에이전트를 만들 것입니다. 우리는 LLM으로 "gpt-3.5-turbo"를 사용할 것입니다.

 llm = openai (model = "gpt-3.5-turbo")

agent_worker = functionCallingAgentWorker.from_tools (
    initial_tools, 
    llm = llm, 
    Verbose = true
))
에이전트 = agentrunner (Agent_worker)
로그인 후 복사

이 에이전트는 이제 우리가 처리 한 세 가지 논문에 대한 질문에 대답 할 수 있습니다.

6 단계 : 에이전트의 응답 분석

우리는 대리인에게 세 논문과 다른 질문을했으며 여기에 그 응답이 있습니다. 다음은 그것이 어떻게 작동하는지에 대한 예와 설명입니다.

llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축

에이전트와 Longlora 논문의 상호 작용에 대한 설명

이 예에서, 우리는 에이전트에게 세 가지 연구 논문, 특히 Longlora 연구에 사용 된 평가 데이터 세트 및 결과에 대한 세 가지 연구 논문에서 특정 정보를 추출하도록 쿼리했습니다. 에이전트는 벡터 쿼리 도구를 사용하여 문서와 상호 작용하며 정보를 단계별로 처리하는 방법은 다음과 같습니다.

  • 사용자 입력 : 사용자는 Longlora의 평가 측면에 관한 두 가지 순차적 질문을 물었습니다. 먼저 평가 데이터 세트와 결과에 대해.
  • 에이전트의 쿼리 실행 : 에이전트는 평가 데이터 세트에 대한 정보를 위해 특별히 Longlora 문서를 검색해야 함을 식별합니다. Longlora 용으로 특별히 설정된 벡터 쿼리 도구 인 Vector_Tool_Longlora 함수를 사용합니다.
 === 호출 함수 ===
호출 기능 : args가있는 vector_tool_longlora : { "쿼리": "평가 데이터 세트"}
로그인 후 복사
  • 평가 데이터 세트의 기능 출력 : 에이전트는 문서에서 관련 섹션을 검색하여 Longlora에 사용 된 평가 데이터 세트가 "PG19 테스트 분할"임을 식별합니다. 이는 Long-Form 텍스트 특성으로 인해 언어 모델 평가에 일반적으로 사용되는 데이터 세트입니다.
  • 에이전트의 두 번째 쿼리 실행 : 첫 번째 응답에 이어 에이전트는 사용자 질문의 두 번째 부분을 처리하여 Longlora의 평가 결과에 대한 문서를 쿼리합니다.
 === 호출 함수 ===
호출 기능 : args가있는 vector_tool_longlora : { "쿼리": "평가 결과"}
로그인 후 복사
  • 평가 결과를위한 함수 출력 : 에이전트는 컨텍스트 크기가 더 큰 당연 성 측면에서 모델이 어떻게 더 나은 성능을 보여주는 자세한 결과를 반환합니다. 더 큰 컨텍스트 창 및 특정 컨텍스트 길이 (100k, 65536 및 32768)의 개선과 같은 주요 결과를 강조합니다. 또한 확장 된 모델이 위치 보간으로 인해 더 작은 컨텍스트 크기에 대해 약간의 당연 성 저하를 경험하기 때문에 트레이드 오프를 언급합니다.
  • 최종 LLM 응답 : 에이전트는 결과를 데이터 세트에 대한 초기 질문에 대답하는 간결한 응답으로 결과를 합성합니다. 성능 결과와 그 의미를 요약하면서 평가 결과에 대한 추가 설명이 이어질 것입니다.

다른 논문에 대한 몇 가지 예

llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축

에이전트의 행동에 대한 설명 : 자제 및 longlora 요약

이 경우 에이전트는 자제력과 Longlora의 요약을 제공하는 임무를 맡았습니다. 이 경우 관찰 된 동작은 이전 예와 다릅니다.

요약 도구 사용

 === 호출 함수 ===
호출 기능 : args와 함께 Summary_Tool_selfrag : { "입력": "자체-래그"}
로그인 후 복사

평가 데이터 세트 및 결과와 같은 특정 세부 정보 쿼리와 관련된 이전 예제와 달리, 여기에서 에이전트는 자체 경고 및 longlora 용으로 설계된 Summary_Tool 기능을 직접 사용했습니다. 이는 에이전트의 질문의 특성에 따라 쿼리 도구간에 적응 적으로 전환하는 능력을 보여줍니다. 더 넓은 개요가 필요할 때 요약을위한 요약.

별도의 요약 도구에 대한 뚜렷한 호출

 === 호출 함수 ===
호출 기능 : args와 함께 Summary_Tool_Longlora : { "입력": "longlora"}
로그인 후 복사

에이전트는 별도로 Summary_Tool_selfrag 및 Summary_Tool_Longlora를 호출하여 요약을 얻었으며, 다중 부분 쿼리를 효율적으로 처리 할 수있는 능력을 보여줍니다. 단일 결합 검색을 실행하는 대신 각 용지에 맞게 조정 된 별개의 요약 도구를 참여시켜야 할 필요성을 식별합니다.

응답의 간결함과 직접성

에이전트가 제공 한 응답은 간결하고 프롬프트를 직접 해결했습니다. 이는 에이전트가 특정 벡터 쿼리를 기반으로보다 세분화 된 데이터 포인트를 제공 한 이전 예제와 대조적으로 높은 수준의 통찰력을 효과적으로 추출 할 수 있음을 나타냅니다.

이 상호 작용은 이전에 관찰 된 상세한 컨텍스트 별 응답 대 높은 수준의 개요를 제공하는 에이전트의 기능을 강조합니다. 이러한 행동의 변화는 사용자의 질문의 특성에 따라 쿼리 전략을 조정하는 데있어 에이전트 래그 시스템의 다양성을 강조합니다.

도전과 고려 사항

다중 문서 에이전트 래그는 강력하지만 명심해야 할 몇 가지 과제가 있습니다.

  • 확장 성 : 문서의 수가 증가함에 따라 효율적인 인덱싱 및 검색이 중요해집니다.
  • 일관성 : 에이전트가 여러 소스의 정보를 통합 할 때 일관된 응답을 생성하도록합니다.
  • 바이어스 및 정확성 : 시스템의 출력은 입력 문서 및 검색 메커니즘만큼 우수합니다.
  • 계산 리소스 : 많은 수의 문서를 처리하고 포함시키는 것은 리소스 집약적 일 수 있습니다.

결론

다중 문서 에이전트 래그는 AI 분야에서 상당한 발전을 나타내므로 여러 소스의 정보를 합성하여보다 정확하고 컨텍스트 인식 응답을 가능하게합니다. 이 접근법은 정확한 정보 검색 및 추론이 중요한 연구, 법률 분석 및 기술 문서와 같은 복잡한 영역에서 특히 가치가 있습니다. 이 시스템은 임베딩, 에이전트 기반 추론 및 강력한 검색 메커니즘을 활용함으로써 AI 생성 컨텐츠의 깊이와 신뢰성을 향상시킬뿐만 아니라 지식 집약적 인 산업에서보다 정교한 응용 프로그램을위한 길을 열어줍니다. 기술이 계속 발전함에 따라 다중 문서 에이전트 래그는 방대한 양의 데이터에서 의미있는 통찰력을 추출하는 데 필수적인 도구가 될 준비가되어 있습니다.

주요 테이크 아웃

  • 다중 문서 에이전트 래그는 여러 소스의 정보를 통합하여 AI 응답 정확도를 향상시킵니다.
  • 임베딩 및 에이전트 기반 추론은 상황 인식 및 신뢰할 수있는 컨텐츠를 생성하는 시스템의 능력을 향상시킵니다.
  • 이 시스템은 연구, 법률 분석 및 기술 문서와 같은 복잡한 분야에서 특히 가치가 있습니다.
  • 고급 검색 메커니즘은 지식 집약 산업을 지원하는 정확한 정보 추출을 보장합니다.
  • 다중 문서 에이전트 래그는 AI 구동 컨텐츠 생성 및 데이터 분석에서 중요한 단계를 나타냅니다.

자주 묻는 질문

Q1. 다중 문서 에이전트 헝겊이란 무엇입니까?

A. 다중 문서 에이전트 래그는 RAG (Retrieval-Augmented Generation)와 함께 에이전트 기반 시스템을 결합하여 AI가 여러 문서에서 추론 할 수 있도록합니다.

Q2. 다중 문서 에이전트 래그는 정확도를 어떻게 향상 시키는가?

A. 다양한 소스의 정보를 합성하여 정확도를 향상시켜 AI가 사실을 연결하고보다 정확한 답변을 제공 할 수 있습니다.

Q3. 다중 문서 에이전트 래그가 가장 유익한 분야는 어디입니까?

A. 학업 연구, 법률 문서 분석, 시장 인텔리전스 및 기술 문서에서 특히 가치가 있습니다.

Q4. 다중 문서 에이전트 래그 시스템의 주요 구성 요소는 무엇입니까?

A. 주요 구성 요소에는 문서 처리, 임베딩 생성, 인덱싱, 검색, 에이전트 기반 추론 및 생성이 포함됩니다.

Q5. 이 시스템에서 임베딩의 역할은 무엇입니까?

A. 임베딩은 텍스트를 수치 벡터로 변환하여 효율적인 비교 및 ​​분석을 위해 정보의 의미와 맥락을 캡처합니다.

이 기사에 표시된 미디어는 분석 Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다.

위 내용은 llamaindex를 사용하여 다중 문서 에이전트 헝겊 구축의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Meta Llama 3.2- 분석 Vidhya를 시작합니다 Meta Llama 3.2- 분석 Vidhya를 시작합니다 Apr 11, 2025 pm 12:04 PM

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. 10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. Apr 13, 2025 am 01:14 AM

이봐, 코딩 닌자! 하루 동안 어떤 코딩 관련 작업을 계획 했습니까? 이 블로그에 더 자세히 살펴보기 전에, 나는 당신이 당신의 모든 코딩 관련 문제에 대해 생각하기를 원합니다. 완료? - &#8217

직원에게 AI 전략 판매 : Shopify CEO의 선언문 직원에게 AI 전략 판매 : Shopify CEO의 선언문 Apr 10, 2025 am 11:19 AM

Shopify CEO Tobi Lütke의 최근 메모는 AI 숙련도가 모든 직원에 대한 근본적인 기대를 대담하게 선언하여 회사 내에서 중요한 문화적 변화를 표시합니다. 이것은 도망가는 트렌드가 아닙니다. 그것은 p에 통합 된 새로운 운영 패러다임입니다

AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 Apr 11, 2025 pm 12:01 PM

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

GPT-4O vs Openai O1 : 새로운 OpenAI 모델은 과대 광고 가치가 있습니까? GPT-4O vs Openai O1 : 새로운 OpenAI 모델은 과대 광고 가치가 있습니까? Apr 13, 2025 am 10:18 AM

소개 OpenAi는 기대가 많은 "Strawberry"아키텍처를 기반으로 새로운 모델을 출시했습니다. O1로 알려진이 혁신적인 모델은 추론 기능을 향상시켜 문제를 통해 생각할 수 있습니다.

비전 언어 모델 (VLMS)에 대한 포괄적 인 안내서 비전 언어 모델 (VLMS)에 대한 포괄적 인 안내서 Apr 12, 2025 am 11:58 AM

소개 생생한 그림과 조각으로 둘러싸인 아트 갤러리를 걷는 것을 상상해보십시오. 이제 각 작품에 질문을하고 의미있는 대답을 얻을 수 있다면 어떨까요? “어떤 이야기를하고 있습니까?

SQL에서 열을 추가하는 방법? - 분석 Vidhya SQL에서 열을 추가하는 방법? - 분석 Vidhya Apr 17, 2025 am 11:43 AM

SQL의 Alter Table 문 : 데이터베이스에 열을 동적으로 추가 데이터 관리에서 SQL의 적응성이 중요합니다. 데이터베이스 구조를 즉시 조정해야합니까? Alter Table 문은 솔루션입니다. 이 안내서는 Colu를 추가합니다

AI Index 2025 읽기 : AI는 친구, 적 또는 부조종사입니까? AI Index 2025 읽기 : AI는 친구, 적 또는 부조종사입니까? Apr 11, 2025 pm 12:13 PM

Stanford University Institute for Human-Oriented Intificial Intelligence가 발표 한 2025 인공 지능 지수 보고서는 진행중인 인공 지능 혁명에 대한 훌륭한 개요를 제공합니다. 인식 (무슨 일이 일어나고 있는지 이해), 감사 (혜택보기), 수용 (얼굴 도전) 및 책임 (우리의 책임 찾기)의 네 가지 간단한 개념으로 해석합시다. 인지 : 인공 지능은 어디에나 있고 빠르게 발전하고 있습니다 인공 지능이 얼마나 빠르게 발전하고 확산되고 있는지 잘 알고 있어야합니다. 인공 지능 시스템은 끊임없이 개선되어 수학 및 복잡한 사고 테스트에서 우수한 결과를 얻고 있으며 1 년 전만해도 이러한 테스트에서 비참하게 실패했습니다. AI 복잡한 코딩 문제 또는 대학원 수준의 과학적 문제를 해결한다고 상상해보십시오-2023 년 이후

See all articles