RAG (Retrieval-Augmented Generation)는 외부 지식을 통합하여 AI 모델을 향상시킵니다. 그러나 전통적인 걸레는 종종 문서를 조각하여 중요한 맥락을 잃고 정확도에 영향을 미칩니다.
의 문맥 검색은 임베딩하기 전에 각 문서 청크에 간결하고 문맥이 풍부한 설명을 추가함으로써이를 해결합니다. 이는 검색 오류를 크게 줄여서 다운 스트림 작업 성능을 향상시킵니다. 이 기사는 상황에 맞는 검색 및 그 구현을 자세히 설명합니다
를 설명했다
다양한 데이터 세트 (코드베이스, 과학 논문, 소설)에 걸친 Anthropic의 내부 테스트는 상황에 맞는 임베딩 모델 및 상황에 맞는 BM25와 쌍을 이룰 때 상황에 맞는 오류를 최대 49% 감소 시킨다는 것을 보여줍니다.
2 단계 : 프롬프트 템플릿 정의 <code>contextualized_chunk = """Berlin is the capital and largest city of Germany, known for being the EU's most populous city within its limits.
Its more than 3.85 million inhabitants make it the European Union's most populous city, as measured by population within city limits.
"""</code>
5 단계 : 청크 처리
추가 고려 사항
프롬프트의 전체 지식 기반을 포함하여 소규모 지식 기반 (& lt; 200,000 토큰)의 경우
결론
Anthropic의 상황에 맞는 검색은 Rag 시스템을 개선하는 간단하지만 강력한 방법을 제공합니다. 상황에 맞는 임베딩, BM25 및 재고의 조합은 정확도를 크게 향상시킵니다. 다른 검색 기술에 대한 추가 탐색이 권장됩니다.
위 내용은 Anthropic '의 상황 검색 : 구현 가이드의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!