LLM 애플리케이션 빌드: Azure Cognitive Services의 벡터 검색 기능 활용
작성자 | Simon Bisson
선별 | Ethan
Microsoft의 Cognitive Search API는 이제 Azure OpenAI 등에서 대규모 언어 모델과 함께 사용할 수 있는 서비스로 벡터 검색을 제공합니다.
Semantic Core, TypeChat 및 LangChain과 같은 도구를 사용하면 Azure OpenAI와 같은 생성 AI 기술을 기반으로 애플리케이션을 구축할 수 있습니다. 이는 자연어 인터페이스를 구축하고 실행하기 위한 도구로 사용할 수 있는 기본 LLM(대형 언어 모델)에 제약 조건을 부과할 수 있기 때문입니다.
기본적으로 LLM은 심층 신경이 사용되는 의미 공간을 탐색하기 위한 도구입니다. 네트워크는 초기 신호부터 시작하는 토큰 체인의 다음 음절을 예측할 수 있습니다. 프롬프트가 개방형인 경우 LLM은 입력을 초과하여 합리적으로 보이지만 실제로는 완전히 넌센스인 결과를 생성할 수 있습니다.
우리 모두가 검색 엔진의 결과를 신뢰하는 경향이 있는 것처럼 LLM의 결과도 익숙한 기술의 또 다른 측면으로 보기 때문에 신뢰하는 경향이 있습니다. 그러나 Wikipedia, Stack Overflow, Reddit과 같은 사이트의 신뢰할 수 있는 데이터를 사용하여 대규모 언어 모델을 훈련하면 콘텐츠에 대한 이해가 전달되지 않고 해당 소스의 텍스트와 동일한 패턴을 따르는 텍스트를 생성할 수 있습니다. 때로는 출력이 정확할 수도 있지만 때로는 잘못될 수도 있습니다.
대규모 언어 모델의 오류와 무의미한 출력을 방지하고 사용자가 쿼리에 대해 정확하고 합리적인 답변을 얻을 수 있도록 하려면 어떻게 해야 합니까?
1. 의미론적 메모리 제약으로 대규모 모델 제한
우리가 해야 할 일은 LLM이 더 작은 데이터 세트에서만 텍스트를 생성하도록 제한하는 것입니다. 이것이 바로 Microsoft의 새로운 LLM 기반 개발 스택이 등장하는 곳입니다. 모델을 제어하고 오류 발생을 방지하는 데 필요한 도구를 제공합니다.
TypeChat과 같은 도구를 사용하여 특정 출력 형식을 강제로 적용하거나 Semantic Kernel과 같은 오케스트레이션 파이프라인을 사용하여 다른 신뢰할 수 있는 정보 소스를 처리할 수 있습니다. 이는 효과적으로 "루팅"됩니다. 알려진 의미 공간에 모델을 적용하여 LLM을 제한합니다. 여기서 LLM은 자신이 잘하는 일을 할 수 있고, 구성된 프롬프트를 요약하고, 오버슈팅 없이 해당 프롬프트를 기반으로 텍스트를 생성할 수 있습니다(또는 적어도 오버슈팅 가능성을 크게 줄입니다).
Microsoft에서 "의미 기억"이라고 부르는 것이 마지막 방법의 기초입니다. 의미론적 메모리는 벡터 검색을 사용하여 LLM의 실제 출력을 제공하는 데 사용할 수 있는 힌트를 제공합니다. 벡터 데이터베이스는 초기 프롬프트의 컨텍스트를 관리하고, 벡터 검색은 초기 사용자 쿼리와 일치하는 저장된 데이터를 찾고, LLM은 해당 데이터를 기반으로 텍스트를 생성합니다. Bing의 기본 벡터 검색 도구를 사용하여 검색 데이터베이스에서 파생된 답변을 구축하는 Bing Chat에서 이 접근 방식이 실제로 실행되는 것을 확인하세요.
의미론적 메모리를 사용하면 벡터 데이터베이스와 벡터 검색을 통해 LLM 기반 응용 프로그램 수단을 제공할 수 있습니다. 점점 늘어나는 오픈 소스 벡터 데이터베이스 중 하나를 사용하거나 익숙한 SQL 및 NoSQL 데이터베이스에 벡터 인덱스를 추가할 수 있습니다. 특히 유용해 보이는 새 제품은 Azure Cognitive Search를 확장하여 데이터에 벡터 인덱스를 추가하고 해당 인덱스를 쿼리하기 위한 새로운 API를 제공합니다.
2. Azure Cognitive Search에 벡터 인덱스 추가
Azure Cognitive Search는 Microsoft 자체 검색을 기반으로 구축되었습니다. 도구. 익숙한 Lucene 쿼리와 자체 자연어 쿼리 도구의 조합을 제공합니다. Azure Cognitive Search는 Cognitive Services API를 사용하여 개인 데이터를 호스팅하고 콘텐츠에 액세스할 수 있는 SaaS(Software-as-a-Service) 플랫폼입니다. 최근 Microsoft는 벡터 인덱스 구축 및 사용에 대한 지원도 추가했습니다. 이를 통해 유사성 검색을 사용하여 데이터에서 관련 결과의 순위를 매기고 AI 기반 애플리케이션에서 사용할 수 있습니다. 따라서 Azure Cognitive Search는 Semantic Kernel 및 Azure OpenAI로 구축된 Azure 호스팅 LLM 애플리케이션을 위한 이상적인 도구이며, C# 및 Python용 Cognitive Search용 Semantic Kernel 플러그인도 사용할 수 있습니다.
다른 Azure 서비스와 마찬가지로 Azure Cognitive Search는 관리되는 다른 Azure 서비스와 함께 작동하는 서비스입니다. 이를 통해 다양한 Azure 스토리지 서비스, 호스팅 텍스트, 이미지, 오디오 및 비디오 전반에 걸쳐 인덱싱하고 검색할 수 있습니다. 데이터는 여러 지역에 저장되어 고가용성을 제공하고 대기 시간과 응답 시간을 줄입니다. 또한 엔터프라이즈 애플리케이션의 경우 Microsoft Entra ID(Azure Active Directory의 새 이름)를 사용하여 개인 데이터에 대한 액세스를 제어할 수 있습니다
3. 콘텐츠에 대한 임베딩 벡터를 생성하고 저장할 수 있습니다
Azure Cognitive Search는 "자신만의 임베딩 벡터 가져오기" 서비스. Cognitive Search는 필요한 벡터 임베딩을 생성하지 않으므로 Azure OpenAI 또는 OpenAI 임베딩 API를 사용하여 콘텐츠에 대한 임베딩을 생성해야 합니다. 서비스의 토큰 한도 내에서 유지하려면 대용량 파일을 청크해야 할 수도 있습니다. 필요할 때 벡터 데이터를 인덱싱하기 위해 새 테이블을 만들 준비를 하세요.
Azure Cognitive Search에서 벡터 검색은 가장 가까운 이웃 모델을 사용하여 원래 쿼리와 유사한 사용자가 선택한 수의 문서를 반환합니다. 이 프로세스는 원래 쿼리의 벡터 임베딩을 사용하여 벡터 인덱싱을 호출하고 LLM 프롬프트에서 사용할 준비가 된 데이터베이스에서 유사한 벡터 및 인덱스 콘텐츠를 반환합니다
Microsoft는 이 벡터 저장소를 Azure Machine Learning을 위한 RAG(Retrieval Augmented Generation) 디자인 패턴의 일부로 프롬프트 흐름 도구와 함께 사용합니다. RAG는 인지 검색에서 벡터 인덱싱을 활용하여 LLM 프롬프트의 기초를 형성하는 컨텍스트를 구축합니다. 이를 통해 쿼리에서 반환되는 유사한 문서 수를 설정하는 등 벡터 인덱스를 구축하고 사용하는 로우 코드 방법이 제공됩니다. 동일한 지역에서 Azure OpenAI 및 Cognitive Search용 리소스를 만드는 것부터 시작하세요. 이렇게 하면 지연 시간을 최소화하면서 삽입된 검색 색인을 로드할 수 있습니다. 인덱스를 로드하려면 Azure OpenAI API 및 Cognitive Search API를 호출해야 하므로 재시도를 관리하는 코드를 추가하여 코드가 서비스에서 가능한 모든 속도 제한에 응답할 수 있는지 확인하는 것이 좋습니다. 서비스 API를 사용하는 경우 비동기 호출을 사용하여 임베드를 생성하고 인덱스를 로드해야 합니다.
벡터는 검색 색인에 벡터 필드로 저장되며, 여기서 벡터는 차원이 있는 부동 소수점 숫자입니다. 이러한 벡터는 벡터를 유사한 벡터의 이웃으로 정렬하는 계층적 탐색 가능한 작은 세계 이웃 그래프를 통해 매핑되어 벡터 인덱스를 검색하는 실제 프로세스의 속도를 높입니다.
벡터 검색을 위한 인덱스 스키마를 정의한 후 인지 검색을 위해 인덱스에 데이터를 로드할 수 있습니다. 데이터는 여러 벡터와 연관될 수 있습니다. 예를 들어 인지 검색을 사용하여 회사 문서를 호스팅하는 경우 주요 문서 메타데이터 용어 및 문서 콘텐츠에 대한 별도의 벡터가 있을 수 있습니다. 데이터 세트는 JSON 문서로 저장되어야 하며, 이는 결과를 사용하여 프롬프트 컨텍스트를 구성하는 프로세스를 단순화합니다. 인덱스는 가장 일반적인 Azure 저장소 옵션 사용을 지원하므로 소스 문서를 포함할 필요가 없습니다.
쿼리를 실행하기 전에 먼저 쿼리 본문을 사용하여 선택한 포함 모델을 호출해야 합니다. 그러면 선택한 인덱스를 검색하는 데 사용할 수 있는 다차원 벡터가 반환됩니다. 벡터 검색 API를 호출할 때 대상 벡터 인덱스, 원하는 일치 항목 수, 인덱스의 관련 텍스트 필드를 지정합니다. 적절한 유사성 측정값을 선택하면 쿼리에 매우 도움이 될 수 있으며, 그 중 가장 일반적으로 사용되는 것은 코사인 메트릭입니다(
5). 단순한 텍스트 벡터를 넘어서
Azure Cognitive Search의 벡터 기능은 텍스트 일치 그 이상입니다. Cognitive Search는 다국어 임베딩과 함께 사용되어 여러 언어에 대한 문서 검색을 지원할 수 있습니다. 더 복잡한 API를 사용할 수도 있습니다. 예를 들어 하이브리드 검색에서 Bing 의미 체계 검색 도구를 혼합하여 보다 정확한 결과를 제공함으로써 LLM 기반 응용 프로그램의 출력 품질을 향상시킬 수 있습니다.
Microsoft는 자체 GPT-4 기반 Bing 검색 엔진은 물론 다양한 Copilot을 구축하는 데 사용한 도구와 기술을 빠르게 제품화하고 있습니다. Semantic Kernel 및 Azure AI Studio의 프롬프트 흐름과 같은 오케스트레이션 엔진은 대규모 언어 모델 작업에 대한 Microsoft 접근 방식의 핵심입니다. 이제 이러한 기반이 마련되었으므로 회사가 필요한 구현 기술을 더 많이 출시하는 것을 볼 수 있습니다. 벡터 검색과 벡터 인덱싱은 정확한 응답을 제공하는 데 핵심입니다. 이러한 서비스를 제공하는 친숙한 도구를 구축함으로써 Microsoft는 비용과 학습 곡선을 최소화하는 데 도움을 줄 것입니다
위 내용은 LLM 애플리케이션 빌드: Azure Cognitive Services의 벡터 검색 기능 활용의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











오류 801c03ed에는 일반적으로 다음 메시지가 동반됩니다. 관리자 정책에 따라 이 사용자가 장치에 참여하는 것이 허용되지 않습니다. 이 오류 메시지는 Windows 설치 및 네트워크 연결을 방해하여 컴퓨터를 사용할 수 없게 하므로 가능한 한 빨리 이 문제를 해결하는 것이 중요합니다. 오류 코드 801c03ed란 무엇입니까? 이는 다음과 같은 이유로 발생하는 Windows 설치 오류입니다. Azure 설정에서 새 사용자의 가입을 허용하지 않습니다. Azure에서는 장치 개체를 사용할 수 없습니다. Azure 패널에서 하드웨어 해시 오류가 발생했습니다. Windows 801에서 오류 코드 03c11ed를 수정하는 방법은 무엇입니까? 1. Intune 설정을 확인합니다. Azure Portal에 로그인합니다. 장치로 이동하여 장치 설정을 선택합니다. "사용자는 다음을 수행할 수 있습니다.

번역기 | Bugatti 리뷰 | Chonglou 이 문서에서는 GroqLPU 추론 엔진을 사용하여 JanAI 및 VSCode에서 초고속 응답을 생성하는 방법을 설명합니다. 모두가 AI의 인프라 측면에 초점을 맞춘 Groq와 같은 더 나은 대규모 언어 모델(LLM)을 구축하기 위해 노력하고 있습니다. 이러한 대형 모델의 빠른 응답은 이러한 대형 모델이 더 빠르게 응답하도록 보장하는 핵심입니다. 이 튜토리얼에서는 GroqLPU 구문 분석 엔진과 API 및 JanAI를 사용하여 노트북에서 로컬로 액세스하는 방법을 소개합니다. 이 기사에서는 코드 생성, 코드 리팩터링, 문서 입력 및 테스트 단위 생성을 돕기 위해 이를 VSCode에 통합합니다. 이 기사에서는 우리만의 인공 지능 프로그래밍 도우미를 무료로 만들 것입니다. GroqLPU 추론 엔진 Groq 소개

테렌스 타오(Terence Tao)를 비롯한 많은 수학자들이 극찬한 공식 수학 도구인 LeanCopilot이 다시 진화했다고요? 방금 Caltech 교수인 Anima Anandkumar는 팀이 LeanCopilot 논문의 확장 버전을 출시하고 코드 기반을 업데이트했다고 발표했습니다. 이미지 논문 주소: https://arxiv.org/pdf/2404.12534.pdf 최신 실험에 따르면 이 Copilot 도구는 수학적 증명 단계의 80% 이상을 자동화할 수 있는 것으로 나타났습니다! 이 기록은 이전 베이스라인 이솝보다 2.3배 향상된 기록이다. 그리고 이전과 마찬가지로 MIT 라이선스에 따른 오픈 소스입니다. 사진 속 그는 중국 소년 송페이양이다.

이미지 출처@visualchinesewen|Wang Jiwei "인간 + RPA"에서 "인간 + 생성 AI + RPA"까지, LLM은 RPA 인간-컴퓨터 상호 작용에 어떤 영향을 미치나요? 또 다른 관점에서 보면 LLM은 인간-컴퓨터 상호 작용의 관점에서 RPA에 어떤 영향을 미치나요? 프로그램 개발과 프로세스 자동화에서 인간과 컴퓨터의 상호작용에 영향을 미치는 RPA도 이제 LLM으로 바뀌게 될까요? LLM은 인간과 컴퓨터의 상호 작용에 어떤 영향을 미치나요? 생성 AI는 RPA 인간과 컴퓨터의 상호 작용을 어떻게 변화시키나요? 한 기사에서 이에 대해 자세히 알아보세요. 대형 모델의 시대가 다가오고 있으며, LLM 기반 생성 AI는 RPA 인간-컴퓨터 상호 작용을 빠르게 변화시키고 있으며, 생성 AI는 인간-컴퓨터 상호 작용을 재정의하고 LLM은 RPA 소프트웨어 아키텍처의 변화에 영향을 미치고 있습니다. RPA가 프로그램 개발과 자동화에 어떤 기여를 하는지 묻는다면, 그 중 하나는 인간과 컴퓨터의 상호 작용(HCI, h)을 변화시켰다는 것입니다.

Plaud Note AI Voice Recorder(Amazon에서 159달러에 구매 가능)를 개발한 회사인 Plaud가 신제품을 발표했습니다. NotePin이라고 불리는 이 장치는 AI 메모리 캡슐로 설명되며 Humane AI Pin과 마찬가지로 착용 가능합니다. 노트핀은

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

GraphRAG(Graph Retrieval Enhanced Generation)는 점차 대중화되고 있으며 기존 벡터 검색 방법을 강력하게 보완하는 수단이 되었습니다. 이 방법은 그래프 데이터베이스의 구조적 특성을 활용하여 데이터를 노드와 관계의 형태로 구성함으로써 검색된 정보의 깊이와 맥락적 관련성을 향상시킵니다. 그래프는 다양하고 상호 연관된 정보를 표현하고 저장하는 데 자연스러운 이점을 가지며, 다양한 데이터 유형 간의 복잡한 관계와 속성을 쉽게 캡처할 수 있습니다. 벡터 데이터베이스는 이러한 유형의 구조화된 정보를 처리할 수 없으며 고차원 벡터로 표현되는 구조화되지 않은 데이터를 처리하는 데 더 중점을 둡니다. RAG 애플리케이션에서 구조화된 그래프 데이터와 구조화되지 않은 텍스트 벡터 검색을 결합하면 이 기사에서 논의할 내용인 두 가지 장점을 동시에 누릴 수 있습니다. 구조

오픈 소스 대규모 언어 모델의 성능이 지속적으로 향상됨에 따라 코드, 권장 사항, 텍스트 요약 및 QA(질문 응답) 쌍 작성 및 분석 성능이 모두 향상되었습니다. 그러나 QA와 관련하여 LLM은 훈련되지 않은 데이터와 관련된 문제가 부족한 경우가 많으며 규정 준수, 영업 비밀 또는 개인 정보 보호를 보장하기 위해 많은 내부 문서가 회사 내에 보관됩니다. 이러한 문서를 쿼리하면 LLM은 환각을 느끼고 관련이 없거나 조작되었거나 일관성이 없는 콘텐츠를 생성할 수 있습니다. 이 문제를 처리할 수 있는 기술 중 하나는 검색 증강 생성(RAG)입니다. 여기에는 생성의 품질과 정확성을 향상시키기 위해 훈련 데이터 소스를 넘어 권위 있는 지식 기반을 참조하여 응답을 향상시키는 프로세스가 포함됩니다. RAG 시스템에는 코퍼스에서 관련 문서 조각을 검색하기 위한 검색 시스템이 포함되어 있습니다.
