강화 된 LLM의 힘을 잠금 해제 : 검색된 생성 (RAG) 및 재 속임
큰 언어 모델 (LLM)은 AI에 혁명을 일으켰지 만 환각 및 구식 정보와 같은 제한은 정확도를 방해합니다. LLMS를 동적 정보 검색과 통합하여 Solutions를 검색하여 검색된 생성 (RAG) 및 재고를 제공합니다. 이 강력한 조합을 탐색합시다.
왜 헝겊이 llms를 향상 시키는가?
llms는 다음과 같이 다양한 NLP 작업에서 탁월합니다
LLMS에 의한 해결 가능한 언어 작업 분류 | Iván Palomares
그러나 LLM은 때때로 상황에 맞는 적절한 응답으로 어려움을 겪고 부정확하거나 무의미한 정보 (환각)를 생성합니다. 또한 그들의 지식은 교육 데이터의 "지식 차단"포인트에 의해 제한됩니다. 예를 들어, 2024 년 1 월 이전에 훈련 된 LLM은 그 달에 새로운 독감 변형에 대해 알지 못할 것입니다. LLM을 자주 재교육하는 것은 계산적으로 비쌉니다. 래그는보다 효율적인 대안을 제공합니다.
Rag는 외부 지식 기반을 활용하여 LLM의 내부 지식을 보충합니다. 이는 일정한 재 훈련없이 응답 품질, 관련성 및 정확도를 향상시킵니다. 헝겊 워크 플로는 : 입니다
쿼리 :
사용자의 질문이 접수됩니다
검색 : 시스템은 지식 기반에 액세스하여 관련 문서를 식별합니다.
생성 : LLM은 쿼리와 검색된 문서를 결합하여 응답을 공식화합니다.
재고 : 검색 최적화
리랑 킹은 검색된 문서를 개선하여 특정 쿼리 및 컨텍스트에 가장 관련성이 높은 정보를 우선 순위로 삼습니다. 과정에는 다음과 같습니다
초기 검색 : 시스템 (예 : TF-IDF 또는 벡터 공간 모델 사용)은 문서 세트를 검색합니다.
재고 : 보다 정교한 메커니즘은 추가 기준 (사용자 환경 설정, 컨텍스트, 고급 알고리즘)을 기반으로 이러한 문서를 다시 작성합니다.
ranking 프로세스 | Iván Palomares
추천 시스템과 달리 재창조는 사전 제안이 아닌 실시간 쿼리 응답에 중점을 둡니다.
rag-enhanced llms에서 의 가치를 재고하는 것의 가치
재고는 래그로 구동되는 LLM을 크게 향상시킵니다. 초기 문서 검색 후, Reranking은 LLM이 가장 적합하고 고품질 정보를 사용하여 특히 특수 분야에서 응답 정확도와 관련성을 높이도록합니다.
재 ranker 유형 : 를 포함한 다양한 재고 접근법이 존재합니다
다중 벡터 재고 자 :
유사성 일치를 향상시키기 위해 여러 벡터 표현을 사용하십시오.
랭크 학습 (ltr) : 는 머신 러닝을 사용하여 최적의 순위를 배우는 것입니다.
Bert 기반 재고 자 : - Bert의 언어 이해 기능을 활용하십시오
강화 학습 리랑 커 : 사용자 상호 작용 데이터를 기반으로 순위 최적화.
하이브리드 재고 자 : 여러 전략을 결합합니다
재고가있는 헝겊 파이프 라인 구축 (Langchain 예제)
이 섹션에서는 Langchain 라이브러리를 사용하여 재고가있는 단순화 된 래그 파이프 라인을 보여줍니다. (Google Colab 노트에서 사용할 수있는 완전한 코드 - 간결하게 생략 된 링크). 이 예제는 텍스트 파일을 처리하고, 내장을 생성하고, OpenAI의 LLM을 사용하며, 코사인 유사성을 기반으로 사용자 정의보고 기능을 통합합니다. 코드는 재고가없는 버전과 재고가 활성화 된 정제 된 버전을 모두 보여줍니다.
추가 탐사
rag는 LLM 기술의 중요한 발전입니다. 이 기사는 Rag Pipelines를 향상시키는 데있어 재창조의 역할을 다루었습니다. 더 깊은 다이빙의 경우 Rag, 성능 향상 및 LLM 애플리케이션 개발을위한 Langchain의 기능을 탐색하십시오. (간결성을 위해 링크가 생략 됨).
위 내용은 검색 증강 생성 (RAG) 및 재고로 LLM 정확도 향상의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!