목차
1. 의미론적 메모리 제약으로 대규모 모델 제한
2. Azure Cognitive Search에 벡터 인덱스 추가
3. 콘텐츠에 대한 임베딩 벡터를 생성하고 저장할 수 있습니다
벡터는 검색 색인에 벡터 필드로 저장되며, 여기서 벡터는 차원이 있는 부동 소수점 숫자입니다. 이러한 벡터는 벡터를 유사한 벡터의 이웃으로 정렬하는 계층적 탐색 가능한 작은 세계 이웃 그래프를 통해 매핑되어 벡터 인덱스를 검색하는 실제 프로세스의 속도를 높입니다.
Microsoft는 자체 GPT-4 기반 Bing 검색 엔진은 물론 다양한 Copilot을 구축하는 데 사용한 도구와 기술을 빠르게 제품화하고 있습니다. Semantic Kernel 및 Azure AI Studio의 프롬프트 흐름과 같은 오케스트레이션 엔진은 대규모 언어 모델 작업에 대한 Microsoft 접근 방식의 핵심입니다. 이제 이러한 기반이 마련되었으므로 회사가 필요한 구현 기술을 더 많이 출시하는 것을 볼 수 있습니다. 벡터 검색과 벡터 인덱싱은 정확한 응답을 제공하는 데 핵심입니다. 이러한 서비스를 제공하는 친숙한 도구를 구축함으로써 Microsoft는 비용과 학습 곡선을 최소화하는 데 도움을 줄 것입니다
기술 주변기기 일체 포함 LLM 애플리케이션 빌드: Azure Cognitive Services의 벡터 검색 기능 활용

LLM 애플리케이션 빌드: Azure Cognitive Services의 벡터 검색 기능 활용

Aug 23, 2023 pm 10:49 PM
llm azure typechat

작성자 | Simon Bisson

선별 | Ethan

Microsoft의 Cognitive Search API는 이제 Azure OpenAI 등에서 대규모 언어 모델과 함께 사용할 수 있는 서비스로 벡터 검색을 제공합니다.

Semantic Core, TypeChat 및 LangChain과 같은 도구를 사용하면 Azure OpenAI와 같은 생성 AI 기술을 기반으로 애플리케이션을 구축할 수 있습니다. 이는 자연어 인터페이스를 구축하고 실행하기 위한 도구로 사용할 수 있는 기본 LLM(대형 언어 모델)에 제약 조건을 부과할 수 있기 때문입니다.

기본적으로 LLM은 심층 신경이 사용되는 의미 공간을 탐색하기 위한 도구입니다. 네트워크는 초기 신호부터 시작하는 토큰 체인의 다음 음절을 예측할 수 있습니다. 프롬프트가 개방형인 경우 LLM은 입력을 초과하여 합리적으로 보이지만 실제로는 완전히 넌센스인 결과를 생성할 수 있습니다.

우리 모두가 검색 엔진의 결과를 신뢰하는 경향이 있는 것처럼 LLM의 결과도 익숙한 기술의 또 다른 측면으로 보기 때문에 신뢰하는 경향이 있습니다. 그러나 Wikipedia, Stack Overflow, Reddit과 같은 사이트의 신뢰할 수 있는 데이터를 사용하여 대규모 언어 모델을 훈련하면 콘텐츠에 대한 이해가 전달되지 않고 해당 소스의 텍스트와 동일한 패턴을 따르는 텍스트를 생성할 수 있습니다. 때로는 출력이 정확할 수도 있지만 때로는 잘못될 수도 있습니다.

대규모 언어 모델의 오류와 무의미한 출력을 방지하고 사용자가 쿼리에 대해 정확하고 합리적인 답변을 얻을 수 있도록 하려면 어떻게 해야 합니까?

1. 의미론적 메모리 제약으로 대규모 모델 제한

우리가 해야 할 일은 LLM이 더 작은 데이터 세트에서만 텍스트를 생성하도록 제한하는 것입니다. 이것이 바로 Microsoft의 새로운 LLM 기반 개발 스택이 등장하는 곳입니다. 모델을 제어하고 오류 발생을 방지하는 데 필요한 도구를 제공합니다.

TypeChat과 같은 도구를 사용하여 특정 출력 형식을 강제로 적용하거나 Semantic Kernel과 같은 오케스트레이션 파이프라인을 사용하여 다른 신뢰할 수 있는 정보 소스를 처리할 수 있습니다. 이는 효과적으로 "루팅"됩니다. 알려진 의미 공간에 모델을 적용하여 LLM을 제한합니다. 여기서 LLM은 자신이 잘하는 일을 할 수 있고, 구성된 프롬프트를 요약하고, 오버슈팅 없이 해당 프롬프트를 기반으로 텍스트를 생성할 수 있습니다(또는 적어도 오버슈팅 가능성을 크게 줄입니다).

Microsoft에서 "의미 기억"이라고 부르는 것이 마지막 방법의 기초입니다. 의미론적 메모리는 벡터 검색을 사용하여 LLM의 실제 출력을 제공하는 데 사용할 수 있는 힌트를 제공합니다. 벡터 데이터베이스는 초기 프롬프트의 컨텍스트를 관리하고, 벡터 검색은 초기 사용자 쿼리와 일치하는 저장된 데이터를 찾고, LLM은 해당 데이터를 기반으로 텍스트를 생성합니다. Bing의 기본 벡터 검색 도구를 사용하여 검색 데이터베이스에서 파생된 답변을 구축하는 Bing Chat에서 이 접근 방식이 실제로 실행되는 것을 확인하세요.

의미론적 메모리를 사용하면 벡터 데이터베이스와 벡터 검색을 통해 LLM 기반 응용 프로그램 수단을 제공할 수 있습니다. 점점 늘어나는 오픈 소스 벡터 데이터베이스 중 하나를 사용하거나 익숙한 SQL 및 NoSQL 데이터베이스에 벡터 인덱스를 추가할 수 있습니다. 특히 유용해 보이는 새 제품은 Azure Cognitive Search를 확장하여 데이터에 벡터 인덱스를 추가하고 해당 인덱스를 쿼리하기 위한 새로운 API를 제공합니다.

2. Azure Cognitive Search에 벡터 인덱스 추가

Azure Cognitive Search는 Microsoft 자체 검색을 기반으로 구축되었습니다. 도구. 익숙한 Lucene 쿼리와 자체 자연어 쿼리 도구의 조합을 제공합니다. Azure Cognitive Search는 Cognitive Services API를 사용하여 개인 데이터를 호스팅하고 콘텐츠에 액세스할 수 있는 SaaS(Software-as-a-Service) 플랫폼입니다. 최근 Microsoft는 벡터 인덱스 구축 및 사용에 대한 지원도 추가했습니다. 이를 통해 유사성 검색을 사용하여 데이터에서 관련 결과의 순위를 매기고 AI 기반 애플리케이션에서 사용할 수 있습니다. 따라서 Azure Cognitive Search는 Semantic Kernel 및 Azure OpenAI로 구축된 Azure 호스팅 LLM 애플리케이션을 위한 이상적인 도구이며, C# 및 Python용 Cognitive Search용 Semantic Kernel 플러그인도 사용할 수 있습니다.

다른 Azure 서비스와 마찬가지로 Azure Cognitive Search는 관리되는 다른 Azure 서비스와 함께 작동하는 서비스입니다. 이를 통해 다양한 Azure 스토리지 서비스, 호스팅 텍스트, 이미지, 오디오 및 비디오 전반에 걸쳐 인덱싱하고 검색할 수 있습니다. 데이터는 여러 지역에 저장되어 고가용성을 제공하고 대기 시간과 응답 시간을 줄입니다. 또한 엔터프라이즈 애플리케이션의 경우 Microsoft Entra ID(Azure Active Directory의 새 이름)를 사용하여 개인 데이터에 대한 액세스를 제어할 수 있습니다

3. 콘텐츠에 대한 임베딩 벡터를 생성하고 저장할 수 있습니다

Azure Cognitive Search는 "자신만의 임베딩 벡터 가져오기" 서비스. Cognitive Search는 필요한 벡터 임베딩을 생성하지 않으므로 Azure OpenAI 또는 OpenAI 임베딩 API를 사용하여 콘텐츠에 대한 임베딩을 생성해야 합니다. 서비스의 토큰 한도 내에서 유지하려면 대용량 파일을 청크해야 할 수도 있습니다. 필요할 때 벡터 데이터를 인덱싱하기 위해 새 테이블을 만들 준비를 하세요.

Azure Cognitive Search에서 벡터 검색은 가장 가까운 이웃 모델을 사용하여 원래 쿼리와 유사한 사용자가 선택한 수의 문서를 반환합니다. 이 프로세스는 원래 쿼리의 벡터 임베딩을 사용하여 벡터 인덱싱을 호출하고 LLM 프롬프트에서 사용할 준비가 된 데이터베이스에서 유사한 벡터 및 인덱스 콘텐츠를 반환합니다

Microsoft는 이 벡터 저장소를 Azure Machine Learning을 위한 RAG(Retrieval Augmented Generation) 디자인 패턴의 일부로 프롬프트 흐름 도구와 함께 사용합니다. RAG는 ​​인지 검색에서 벡터 인덱싱을 활용하여 LLM 프롬프트의 기초를 형성하는 컨텍스트를 구축합니다. 이를 통해 쿼리에서 반환되는 유사한 문서 수를 설정하는 등 벡터 인덱스를 구축하고 사용하는 로우 코드 방법이 제공됩니다. 동일한 지역에서 Azure OpenAI 및 Cognitive Search용 리소스를 만드는 것부터 시작하세요. 이렇게 하면 지연 시간을 최소화하면서 삽입된 검색 색인을 로드할 수 있습니다. 인덱스를 로드하려면 Azure OpenAI API 및 Cognitive Search API를 호출해야 하므로 재시도를 관리하는 코드를 추가하여 코드가 서비스에서 가능한 모든 속도 제한에 응답할 수 있는지 확인하는 것이 좋습니다. 서비스 API를 사용하는 경우 비동기 호출을 사용하여 임베드를 생성하고 인덱스를 로드해야 합니다.

벡터는 검색 색인에 벡터 필드로 저장되며, 여기서 벡터는 차원이 있는 부동 소수점 숫자입니다. 이러한 벡터는 벡터를 유사한 벡터의 이웃으로 정렬하는 계층적 탐색 가능한 작은 세계 이웃 그래프를 통해 매핑되어 벡터 인덱스를 검색하는 실제 프로세스의 속도를 높입니다.

벡터 검색을 위한 인덱스 스키마를 정의한 후 인지 검색을 위해 인덱스에 데이터를 로드할 수 있습니다. 데이터는 여러 벡터와 연관될 수 있습니다. 예를 들어 인지 검색을 사용하여 회사 문서를 호스팅하는 경우 주요 문서 메타데이터 용어 및 문서 콘텐츠에 대한 별도의 벡터가 있을 수 있습니다. 데이터 세트는 JSON 문서로 저장되어야 하며, 이는 결과를 사용하여 프롬프트 컨텍스트를 구성하는 프로세스를 단순화합니다. 인덱스는 가장 일반적인 Azure 저장소 옵션 사용을 지원하므로 소스 문서를 포함할 필요가 없습니다.

쿼리를 실행하기 전에 먼저 쿼리 본문을 사용하여 선택한 포함 모델을 호출해야 합니다. 그러면 선택한 인덱스를 검색하는 데 사용할 수 있는 다차원 벡터가 반환됩니다. 벡터 검색 API를 호출할 때 대상 벡터 인덱스, 원하는 일치 항목 수, 인덱스의 관련 텍스트 필드를 지정합니다. 적절한 유사성 측정값을 선택하면 쿼리에 매우 도움이 될 수 있으며, 그 중 가장 일반적으로 사용되는 것은 코사인 메트릭입니다(

5). 단순한 텍스트 벡터를 넘어서

Azure Cognitive Search의 벡터 기능은 텍스트 일치 그 이상입니다. Cognitive Search는 다국어 임베딩과 함께 사용되어 여러 언어에 대한 문서 검색을 지원할 수 있습니다. 더 복잡한 API를 사용할 수도 있습니다. 예를 들어 하이브리드 검색에서 Bing 의미 체계 검색 도구를 혼합하여 보다 정확한 결과를 제공함으로써 LLM 기반 응용 프로그램의 출력 품질을 향상시킬 수 있습니다.

Microsoft는 자체 GPT-4 기반 Bing 검색 엔진은 물론 다양한 Copilot을 구축하는 데 사용한 도구와 기술을 빠르게 제품화하고 있습니다. Semantic Kernel 및 Azure AI Studio의 프롬프트 흐름과 같은 오케스트레이션 엔진은 대규모 언어 모델 작업에 대한 Microsoft 접근 방식의 핵심입니다. 이제 이러한 기반이 마련되었으므로 회사가 필요한 구현 기술을 더 많이 출시하는 것을 볼 수 있습니다. 벡터 검색과 벡터 인덱싱은 정확한 응답을 제공하는 데 핵심입니다. 이러한 서비스를 제공하는 친숙한 도구를 구축함으로써 Microsoft는 비용과 학습 곡선을 최소화하는 데 도움을 줄 것입니다

위 내용은 LLM 애플리케이션 빌드: Azure Cognitive Services의 벡터 검색 기능 활용의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 채팅 명령 및 사용 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

오류 코드 801c03ed: Windows 11에서 해결하는 방법 오류 코드 801c03ed: Windows 11에서 해결하는 방법 Oct 04, 2023 pm 06:05 PM

오류 801c03ed에는 일반적으로 다음 메시지가 동반됩니다. 관리자 정책에 따라 이 사용자가 장치에 참여하는 것이 허용되지 않습니다. 이 오류 메시지는 Windows 설치 및 네트워크 연결을 방해하여 컴퓨터를 사용할 수 없게 하므로 가능한 한 빨리 이 문제를 해결하는 것이 중요합니다. 오류 코드 801c03ed란 무엇입니까? 이는 다음과 같은 이유로 발생하는 Windows 설치 오류입니다. Azure 설정에서 새 사용자의 가입을 허용하지 않습니다. Azure에서는 장치 개체를 사용할 수 없습니다. Azure 패널에서 하드웨어 해시 오류가 발생했습니다. Windows 801에서 오류 코드 03c11ed를 수정하는 방법은 무엇입니까? 1. Intune 설정을 확인합니다. Azure Portal에 로그인합니다. 장치로 이동하여 장치 설정을 선택합니다. "사용자는 다음을 수행할 수 있습니다.

Groq Llama 3 70B를 로컬에서 사용하기 위한 단계별 가이드 Groq Llama 3 70B를 로컬에서 사용하기 위한 단계별 가이드 Jun 10, 2024 am 09:16 AM

번역기 | Bugatti 리뷰 | Chonglou 이 문서에서는 GroqLPU 추론 엔진을 사용하여 JanAI 및 VSCode에서 초고속 응답을 생성하는 방법을 설명합니다. 모두가 AI의 인프라 측면에 초점을 맞춘 Groq와 같은 더 나은 대규모 언어 모델(LLM)을 구축하기 위해 노력하고 있습니다. 이러한 대형 모델의 빠른 응답은 이러한 대형 모델이 더 빠르게 응답하도록 보장하는 핵심입니다. 이 튜토리얼에서는 GroqLPU 구문 분석 엔진과 API 및 JanAI를 사용하여 노트북에서 로컬로 액세스하는 방법을 소개합니다. 이 기사에서는 코드 생성, 코드 리팩터링, 문서 입력 및 테스트 단위 생성을 돕기 위해 이를 VSCode에 통합합니다. 이 기사에서는 우리만의 인공 지능 프로그래밍 도우미를 무료로 만들 것입니다. GroqLPU 추론 엔진 Groq 소개

Caltech Chinese는 AI를 사용하여 수학적 증명을 뒤집습니다! 충격적인 Tao Zhexuan의 속도 5배 향상, 수학 단계의 80%가 완전 자동화됨 Caltech Chinese는 AI를 사용하여 수학적 증명을 뒤집습니다! 충격적인 Tao Zhexuan의 속도 5배 향상, 수학 단계의 80%가 완전 자동화됨 Apr 23, 2024 pm 03:01 PM

테렌스 타오(Terence Tao)를 비롯한 많은 수학자들이 극찬한 공식 수학 도구인 LeanCopilot이 다시 진화했다고요? 방금 Caltech 교수인 Anima Anandkumar는 팀이 LeanCopilot 논문의 확장 버전을 출시하고 코드 기반을 업데이트했다고 발표했습니다. 이미지 논문 주소: https://arxiv.org/pdf/2404.12534.pdf 최신 실험에 따르면 이 Copilot 도구는 수학적 증명 단계의 80% 이상을 자동화할 수 있는 것으로 나타났습니다! 이 기록은 이전 베이스라인 이솝보다 2.3배 향상된 기록이다. 그리고 이전과 마찬가지로 MIT 라이선스에 따른 오픈 소스입니다. 사진 속 그는 중국 소년 송페이양이다.

'인간 + RPA'에서 '인간 + 생성 AI + RPA'까지 LLM은 RPA 인간-컴퓨터 상호 작용에 어떤 영향을 미치나요? '인간 + RPA'에서 '인간 + 생성 AI + RPA'까지 LLM은 RPA 인간-컴퓨터 상호 작용에 어떤 영향을 미치나요? Jun 05, 2023 pm 12:30 PM

이미지 출처@visualchinesewen|Wang Jiwei "인간 + RPA"에서 "인간 + 생성 AI + RPA"까지, LLM은 RPA 인간-컴퓨터 상호 작용에 어떤 영향을 미치나요? 또 다른 관점에서 보면 LLM은 인간-컴퓨터 상호 작용의 관점에서 RPA에 어떤 영향을 미치나요? 프로그램 개발과 프로세스 자동화에서 인간과 컴퓨터의 상호작용에 영향을 미치는 RPA도 이제 LLM으로 바뀌게 될까요? LLM은 인간과 컴퓨터의 상호 작용에 어떤 영향을 미치나요? 생성 AI는 RPA 인간과 컴퓨터의 상호 작용을 어떻게 변화시키나요? 한 기사에서 이에 대해 자세히 알아보세요. 대형 모델의 시대가 다가오고 있으며, LLM 기반 생성 AI는 RPA 인간-컴퓨터 상호 작용을 빠르게 변화시키고 있으며, 생성 AI는 인간-컴퓨터 상호 작용을 재정의하고 LLM은 RPA 소프트웨어 아키텍처의 변화에 ​​영향을 미치고 있습니다. RPA가 프로그램 개발과 자동화에 어떤 기여를 하는지 묻는다면, 그 중 하나는 인간과 컴퓨터의 상호 작용(HCI, h)을 변화시켰다는 것입니다.

Plaud, 169달러에 NotePin AI 웨어러블 레코더 출시 Plaud, 169달러에 NotePin AI 웨어러블 레코더 출시 Aug 29, 2024 pm 02:37 PM

Plaud Note AI Voice Recorder(Amazon에서 159달러에 구매 가능)를 개발한 회사인 Plaud가 신제품을 발표했습니다. NotePin이라고 불리는 이 장치는 AI 메모리 캡슐로 설명되며 Humane AI Pin과 마찬가지로 착용 가능합니다. 노트핀은

7가지 멋진 GenAI 및 LLM 기술 인터뷰 질문 7가지 멋진 GenAI 및 LLM 기술 인터뷰 질문 Jun 07, 2024 am 10:06 AM

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

지식 그래프 검색을 위해 향상된 GraphRAG(Neo4j 코드를 기반으로 구현됨) 지식 그래프 검색을 위해 향상된 GraphRAG(Neo4j 코드를 기반으로 구현됨) Jun 12, 2024 am 10:32 AM

GraphRAG(Graph Retrieval Enhanced Generation)는 점차 대중화되고 있으며 기존 벡터 검색 방법을 강력하게 보완하는 수단이 되었습니다. 이 방법은 그래프 데이터베이스의 구조적 특성을 활용하여 데이터를 노드와 관계의 형태로 구성함으로써 검색된 정보의 깊이와 맥락적 관련성을 향상시킵니다. 그래프는 다양하고 상호 연관된 정보를 표현하고 저장하는 데 자연스러운 이점을 가지며, 다양한 데이터 유형 간의 복잡한 관계와 속성을 쉽게 캡처할 수 있습니다. 벡터 데이터베이스는 이러한 유형의 구조화된 정보를 처리할 수 없으며 고차원 벡터로 표현되는 구조화되지 않은 데이터를 처리하는 데 더 중점을 둡니다. RAG 애플리케이션에서 구조화된 그래프 데이터와 구조화되지 않은 텍스트 벡터 검색을 결합하면 이 기사에서 논의할 내용인 두 가지 장점을 동시에 누릴 수 있습니다. 구조

FAISS 벡터 공간을 시각화하고 RAG 매개변수를 조정하여 결과 정확도 향상 FAISS 벡터 공간을 시각화하고 RAG 매개변수를 조정하여 결과 정확도 향상 Mar 01, 2024 pm 09:16 PM

오픈 소스 대규모 언어 모델의 성능이 지속적으로 향상됨에 따라 코드, 권장 사항, 텍스트 요약 및 QA(질문 응답) 쌍 작성 및 분석 성능이 모두 향상되었습니다. 그러나 QA와 관련하여 LLM은 훈련되지 않은 데이터와 관련된 문제가 부족한 경우가 많으며 규정 준수, 영업 비밀 또는 개인 정보 보호를 보장하기 위해 많은 내부 문서가 회사 내에 보관됩니다. 이러한 문서를 쿼리하면 LLM은 환각을 느끼고 관련이 없거나 조작되었거나 일관성이 없는 콘텐츠를 생성할 수 있습니다. 이 문제를 처리할 수 있는 기술 중 하나는 검색 증강 생성(RAG)입니다. 여기에는 생성의 품질과 정확성을 향상시키기 위해 훈련 데이터 소스를 넘어 권위 있는 지식 기반을 참조하여 응답을 향상시키는 프로세스가 포함됩니다. RAG 시스템에는 코퍼스에서 관련 문서 조각을 검색하기 위한 검색 시스템이 포함되어 있습니다.

See all articles