자기 반사 검색 세대 생성 (자체-방해) : 적응 형 검색 및 자체 크리티브로 LLM을 향상시킵니다.
큰 언어 모델 (LLM)은 변형 적이지만 매개 변수 지식에 대한 의존은 종종 사실적인 부정확성으로 이어집니다. 검색된 세대 생성 (RAG)은 외부 지식을 통합하여이를 해결하는 것을 목표로하지만 전통적인 RAG 방법은 한계가 있습니다. 이 기사는 LLM의 품질과 사실을 크게 향상시키는 새로운 접근법 인 자조를 탐구합니다.
표준 래그의 단점
표준 래그는 관련성에 관계없이 고정 된 수의 구절을 검색합니다. 이것은 몇 가지 문제로 이어집니다 :
관련없는 정보 :
불필요한 문서 검색은 출력 품질을 희석합니다.
적응성 부족 : 작업 요구에 따라 검색을 조정할 수 없음.
일관되지 않은 출력 : 생성 된 텍스트는 지식 통합에 대한 명시 적 훈련이 부족하여 검색된 정보와 일치하지 않을 수 있습니다.
자기 평가의 부재 : 검색된 구절 또는 생성 된 출력의 품질 또는 관련성을 평가하기위한 메커니즘 없음.
제한된 소스 속성 : 생성 된 텍스트에 대한 소스 지원의 인용이 충분하지 않음.
자기-자체 소개 : 적응 적 검색 및 자기 반성 -
자체-자체는 적응 형 검색 및 자기 반성을 통합하여 LLM을 향상시킵니다. Standard Rag와 달리 "토큰 검색"을 사용하여 필요한 경우에만 통로를 역동적으로 검색합니다. 결정적으로, 그것은 자체 세대 프로세스를 평가하기 위해 특별한 반사 토큰 (ISREL), ISSUP (지원) 및 ISUSE (유틸리티)를 사용합니다.
자조의 주요 특징은 다음을 포함합니다
주문형 검색 : 필요할 때만 효율적인 검색
반사 토큰 :
isrel, issup 및 isuse 토큰을 사용한 자기 평가
self-critique : - 검색된 통로 관련 및 출력 품질 평가
엔드 투 엔드 훈련 : 출력 생성 및 반사 토큰 예측에 대한 동시 교육.
사용자 정의 가능한 디코딩 :
다른 작업에 대한 검색 주파수 및 적응의 유연한 조정.
-
자체-래그 워크 플로우
입력 처리 및 검색 결정 : - 모델은 외부 지식이 필요한지 여부를 결정합니다.
관련 구절 검색 : 필요한 경우, Retriever 모델 (예 : Contriever-MS Marco)을 사용하여 관련 구절을 검색합니다.
병렬 처리 및 세그먼트 생성 : 생성기 모델은 각각 검색된 구절을 처리하여 관련 비평 토큰을 가진 여러 연속 후보를 만듭니다.
자기 비판 및 평가 :
반사 토큰은 각 생성 된 세그먼트의 관련성 (ISREL), 지원 (ISSUP) 및 유틸리티 (ISUSE)를 평가합니다.
- 최고의 세그먼트 및 출력 선택 : 세그먼트 레벨 빔 검색은 비판 토큰 확률을 포함하는 가중 점수를 기반으로 최상의 출력 시퀀스를 선택합니다.
훈련 과정 : 2 단계 교육 과정에는 반사 토큰을 생성하기 위해 오프라인 비평가 모델을 훈련 한 다음 이러한 토큰으로 보강 된 데이터를 사용하여 생성기 모델을 훈련시키는 것이 포함됩니다.
-
자체 규모의 장점
-
자체-래그는 몇 가지 주요 장점을 제공합니다 :
개선 된 사실 정확도 : 주문형 검색 및 자체 크리티브는 사실 정확도를 높입니다.
강화 된 관련성 :
적응성 검색은 관련 정보 만 사용되도록합니다.
- 더 나은 인용 및 검증 가능성 : 상세한 인용 및 평가는 투명성과 신뢰성을 향상시킵니다.
사용자 정의 가능한 동작 :
반사 토큰은 작업 별 조정을 허용합니다
효율적인 추론 : - 오프라인 비평가 모델 훈련은 추론 오버 헤드를 줄입니다
Langchain 및 Langgraph를 사용한 구현
이 기사는 Langchain 및 Langgraph를 사용하여 실질적인 구현을 자세히 설명하며 종속성 설정, 데이터 모델 정의, 문서 처리, 평가자 구성, Rag 체인 설정, 워크 플로 기능, 워크 플로 구성 및 테스트를 다룹니다. 이 코드는 다양한 쿼리를 처리하고 응답의 관련성과 정확성을 평가할 수있는 자체 래그 시스템을 구축하는 방법을 보여줍니다.
자체 규모의 한계
의 장점에도 불구하고 자체 규모는 다음과 같습니다
완전히 지원되는 출력 : - 출력이 인용 된 증거에 의해 항상 완전히 뒷받침되는 것은 아닙니다.
사실 오류의 잠재력 : 개선 된 반면 사실 오류는 여전히 발생할 수 있습니다.
- 모델 크기 트레이드 오프 : 작은 모델은 때때로 더 큰 모델을 사실상 정밀도보다 능가 할 수 있습니다.
사용자 정의 트레이드 오프 :
반사 토큰 무게 조정은 출력의 다른 측면에 영향을 줄 수 있습니다 (예 : 유창함).
-
결론
자체 규모는 LLM 기술의 상당한 발전을 나타냅니다. 적응 형 검색과 자기 반성을 결합함으로써 표준 래그의 주요 제한 사항을 해결하여보다 정확하고 관련성 있고 검증 가능한 출력을 초래합니다. 프레임 워크의 사용자 정의 가능한 특성을 통해 행동을 다양한 응용 프로그램에 맞게 조정할 수 있으므로 사실 정확도가 높은 다양한 작업을위한 강력한 도구가됩니다. 제공된 Langchain 및 Langgraph 구현은 자조 시스템을 구축하고 배포하기위한 실용적인 안내서를 제공합니다.
자주 묻는 질문 (FAQS) (원본 텍스트의 FAQS 섹션은 여기에 보관됩니다.)
-
Q1. 자체 래그 란 무엇입니까? A. 자체 래그 (자체 반사 검색 증거 생성)는 온 디맨드 검색과 자체 반사를 결합하여 사실 정확성과 관련성을 향상시켜 LLM 성능을 향상시키는 프레임 워크입니다. .
Q2. 자조가 표준 래그와 어떻게 다릅니 까?
A. 표준 래그와 달리, 자조는 필요할 때만 통로를 검색하고, 반사 토큰을 사용하여 출력을 비판하고, 작업 요구 사항에 따라 동작을 조정합니다.
.
Q3. 반사 토큰은 무엇입니까? A. 반사 토큰 (ISREL, ISSUP, ISUSE) 검색 관련성 평가, 생성 된 텍스트 지원 및 전반적인 유틸리티, 자체 평가 및 더 나은 출력 가능성을 평가합니다.
Q4. 자체 규모의 주요 장점은 무엇입니까? A. 자체 래그는 정확도를 향상시키고, 사실 오류를 줄이고, 더 나은 인용을 제공하며, 추론 중에 작업 별 사용자 정의를 허용합니다.
.
A. 아니요, 자체 래그는 부정확성을 크게 줄이는 반면 여전히 LLM과 같은 경우와 같은 사실적인 오류가 발생하기 쉬운 일입니다.
(참고 : 이미지는 원래 형식과 위치로 유지됩니다.)
위 내용은 자체 경영 : AI는 언제 다시 확인 해야하는지 알고 있습니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!