목차
소개
학습 결과
목차
큰 언어 모델 이해
Gemma, Gemini 및 Bert의 비교
젬마의 건축 이해
LLM의 맥락에서 환각은 무엇입니까?
AI 환각은 세 가지 유형 일 수 있습니다
환각을 일으키는 원인은 무엇입니까?
Datagemma는 무엇입니까?
데이터 커먼즈의 주요 기능
데이터 커먼즈의 중요성
RIG : LLM 환각을 최소화하기위한 하이브리드 접근법
Datagemma에서 장비가 어떻게 사용됩니까?
Google Colab에서 단계별 절차
1 단계 : Hugging Face 계정에 로그인하여 새 토큰을 만듭니다.
2 단계 : Datacommons API 키
3 단계 : 데이터 커먼즈 NL API 활성화
3 단계 : 필요한 라이브러리를 설치하십시오
5 단계 : 쿼리를 선택하거나 입력하십시오
6 단계 : 리그 기술을 실행하고 출력을 생성하십시오
LLM 환각을 최소화하기위한 증거 증강 세대
DataGemma에는 헝겊이 어떻게 사용됩니까?
1 단계 : Gemini API 키를 만듭니다
2 단계 : 노트북 액세스를 활성화합니다
4 단계 : 자신의 쿼리를 선택하거나 만듭니다
5 단계 : 헝겊을 실행하고 출력을 생성합니다
Datagemma가 중요한 이유는 무엇입니까?
결론
참조
자주 묻는 질문
기술 주변기기 일체 포함 Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Apr 12, 2025 am 09:46 AM

소개

대형 언어 모델은 빠르게 변화하는 산업을 변화시키고 있습니다. 대도는 뱅킹의 개인화 된 고객 서비스에서 글로벌 커뮤니케이션에서 실시간 언어 번역에 이르기까지 모든 것을 권장합니다. 그들은 자연 언어로 질문에 대답하고, 정보를 요약하고, 에세이를 작성하고, 코드를 생성하는 등 오늘날 세계에서 귀중한 도구를 만들 수 있습니다. 그러나 많은 장점에도 불구하고 그들은“환각”으로 알려진 비판적 결함으로 고통 받고 있습니다. 모델이 정확하고 사실적으로 보이지만 부분적으로 또는 완전히 거짓 인 정보를 생성하는 경우 모델에 의해 구성되며 실제 데이터의 접지가 부족한 경우입니다. 따라서이를 해결하기 위해 Google은 LLM을 실제 데이터와 연결하고 Google의 데이터 커먼즈를 사용하여 신뢰할 수있는 소스와의 반응을 확인하기위한 Datagemma라는 도구 인 오픈 모델을 개발했습니다.

학습 결과

  • 대형 언어 모델 (LLM)의 기본 사항과 응용 프로그램을 이해하십시오.
  • LLM의 환각의 원인과 유형을 탐색하십시오.
  • Google의 Datagemma가 실제 데이터를 사용하여 LLM 환각을 어떻게 해결하는지 알아보십시오.
  • RIG (Restrieval-Interleaved Generation) 및 검색 증강 생성 (RAG)과 같은 고급 기술에 대한 통찰력을 얻습니다.
  • Google의 데이터 커먼즈가 LLM 사실 정확도를 향상시키는 방법을 알아보십시오.

이 기사는 Data Science Blogathon 의 일부로 출판되었습니다 .

목차

  • 큰 언어 모델 이해
  • 젬마의 건축 이해
  • LLM의 맥락에서 환각은 무엇입니까?
  • Datagemma는 무엇입니까?
  • RIG : LLM 환각을 최소화하기위한 하이브리드 접근법
  • LLM 환각을 최소화하기위한 증거 증강 세대
  • Datagemma가 중요한 이유는 무엇입니까?
  • 자주 묻는 질문

큰 언어 모델 이해

대형 언어 모델은 기초 모델이며, 자연어를 이해하고 생성 할 수있는 수백만에서 수십억에 이르는 매개 변수를 갖춘 엄청난 양의 텍스트 데이터에 대해 교육을 받았습니다. 그들은 자연 언어를 처리하고 생성 할 수있는 변압기 아키텍처를 기반으로합니다. 맞춤형 데이터 세트를 사용하여 특정 도메인의 특정 작업에 대해 LLM 모델을 미세 조정할 수 있습니다. 예를 들어, Bert와 같은 LLM 모델은 사이버 보안 Corpora에서 미세 조정하여 LLM을 사용하여 위협 인텔리전스를 자동화 할 수 있습니다.

Gemma, Gemini 및 Bert의 비교

아체 쌍둥이 자리 버트
개발자를위한 경량 모델 더 크고 강력하고 대화적인 AI NLP 작업을위한 미리 훈련 된 모델
휴대폰 및 에지 컴퓨팅과 같은 자원 제약 조건이있는 응용 프로그램에 이상적입니다. 대규모 데이터 분석, 복잡한 AI 애플리케이션과 같은 리소스 제약 조건이없는 복잡한 작업에 이상적입니다. 텍스트 분류, 질문 답변, 감정 분석과 같은 작업에 이상적입니다.
제한된 리소스 환경에 쉽게 배포 할 수 있습니다 종종 자원이 풍부한 클라우드 환경 또는 데이터 센터에 배포됩니다. 온 프레미스 또는 클라우드 환경에 배치되었지만 더 큰 버전 (Bert-Large)에는 상당한 계산 자원이 필요합니다.
덜 계산 자원이 필요합니다 종종 더 많은 계산 자원이 필요합니다. Bert-Base와 같은 소규모 모델은 중간 하드웨어에 배치 할 수있는 반면 Bert-Large와 같은 대형 모델에는 더 많은 리소스가 필요할 수 있지만 여전히 Gemini보다 적습니다.

젬마의 건축 이해

Gemma의 아키텍처는 고급 검색 및 생성 기술을 원활하게 통합하여 시스템이 외부 데이터 소스에 지능적으로 액세스하면서 정확하고 일관된 응답을 생성 할 수 있도록 설계되어 다양한 AI 중심 응용 프로그램에 매우 효과적입니다.

Gemma는 변압기 디코더 아키텍처를 기반으로합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Gemma and Gemma 2 (2024 년에 출시 된 최신 버전)는 Gemma Family of Google의 LLM 모델에 속합니다. 맞춤형 작업을 위해 미세 조정할 수 있습니다. 예를 들어, CodeGemma 모델은 코드 완료를위한 미세 조정 된 Gemma 모델입니다.

LLM의 맥락에서 환각은 무엇입니까?

LLM의 환각은 모델이 정확하게 부정확하거나 일관성이 없거나 구성된 정보를 생성하는 사례이지만 우리에게 믿을만한 것으로 보입니다. 모델은 컨텐츠를 환영하며 그 컨텐츠는 실제로 사실이 아닙니다. 예를 들어 : 법원의 경우, 두 명의 변호사가 Chatgpt가 제공 한 출처를 인용하여 거짓으로 판명되었습니다.

AI 환각은 세 가지 유형 일 수 있습니다

  • 입력 충돌 환각 : 모델은 입력에서 사용자가 제공 한 정보에서 벗어나는 출력을 생성합니다.
  • 컨텍스트 충돌 환각 : 여기서, 모델은 이전에 생성 된 출력과 모순되는 출력을 생성합니다.
  • 사실 성분 환각 : 모델은 실제 지식이나 사실과 모순되는 허위/부정확 한 출력을 생성합니다.

환각을 일으키는 원인은 무엇입니까?

  • 제한된 교육 데이터 : 모델을 철저히 훈련시키지 않았거나 제한된 데이터에 대해 교육을받지 않은 경우, 새로운 프롬프트를 완전히 이해하지 못하더라도 교육 데이터와 다른 프롬프트가 발생하면 부정확 한 기존 교육 데이터를 기반으로 데이터를 생성 할 수 있습니다.
  • 너무 많은 기능 : 너무 많은 기능이 제공되면 모델은 기본 패턴을 이해하지 않고 모든 데이터 포인트를 캡처 한 다음 교육 데이터에 대해 100% 정확도를 얻으려고하지만 새로운 데이터에서는 일반화되지 않습니다.

보시다시피, 환각 된 LLM 컨텐츠는 사실 확인없이 사용하면 유해 할 수 있습니다. 사실 정확도가 중요하고 의학적 조언이나 법적 지침과 같은 잘못된 정보가있을 수없는 응용 분야에서 환각은 잠재적으로 심각한 결과를 낳을 수 있습니다. 환각은 정답만큼 자신있게 전달되므로 사용자가 인식하기가 어려워 질 수 있습니다. 또한 정확한 정보에 대한 AI에 대한 의존이 증가함에 따라 환각으로 인해 AI 시스템에 대한 신뢰가 줄어들 수 있으므로 LLM이 높은 지분 영역에서 수용하기가 더 어려워집니다.

따라서 모델 개발자는이 문제를 해결하고 정확성과 사실이 포함 된 경우 LLM이 잘못된 정보의 확산을 피하기 위해 정확하고 사실적인 출력을 생성해야합니다. AI 환각을 다루는 이러한 접근법 중 하나는 Google에 의해 Datagemma의 형태로 개발되었습니다.

Datagemma는 무엇입니까?

DataGemma는 Google에서 개발 한 개방형 모델로 LLM을 Google의 Datacommons에서 얻은 신뢰할 수있는 사실, 실제 실제 데이터와 연결합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Google Data Commons는 방대한 양의 공개 데이터 세트를 통합 형식으로 결합하여 액세스 및 사용을보다 쉽게 ​​사용할 수있는 개방형 저장소입니다. 정부 논문, 연구 조직 및 글로벌 데이터베이스를 포함한 다양한 소스의 데이터를 결합합니다. Data Commons의 주요 목적은 다양한 데이터 세트에 대한 공통 프레임 워크를 제공하여 사용자가 고가의 데이터 청소 또는 통합 노력없이 수많은 도메인에서 구조화 된 실제 데이터를 쿼리하고 분석 할 수 있도록하는 것입니다.

데이터 커먼즈의 주요 기능

  • 여기에는 미국 인구 조사국, 세계 은행, NOAA 등과 같은 장소에서 공급되는 인구 통계, 경제, 환경 및 건강 관리와 같은 다양한 주제에 대한 데이터가 포함됩니다.
  • 데이터는 표준화 된 스키마로 구성되므로 사용자는 다양한 데이터 형식 및 구조의 복잡성을 처리 할 필요없이 데이터 세트를 쉽게 쿼리 할 수 ​​있습니다.
  • 개발자는 API를 통해 데이터 커먼즈에 액세스 할 수 있습니다.
  • 모든 사람이 고품질의 신뢰할 수있는 데이터에 액세스 할 수 있도록 설계된 무료로 사용할 수있는 공공 서비스입니다.

데이터 커먼즈의 중요성

  • 연구원은 데이터 커머드를 사용하여 수동으로 데이터를 소스 및 정리할 필요없이 대형 구조화 된 데이터 세트를 신속하게 수집하고 분석 할 수 있습니다.
  • Google의 Gemma와 같은 대형 언어 모델 (LLMS)은 데이터 커먼즈를 사용하여 실제 데이터를 참조하고 환각을 줄이고 출력의 사실 정확도를 향상시킬 수 있습니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

링크 : 자체 데이터 커먼즈 - 데이터 커먼즈 구축

RIG : LLM 환각을 최소화하기위한 하이브리드 접근법

검색 기반 및 생성 기반 방법을 결합하여 응답의 품질과 관련성을 향상시키는 자연 언어 처리 (NLP)의 고급 기술입니다.

장비의 작동 방식에 대한 간단한 설명은 다음과 같습니다.

  • 검색 기반 방법 : 이러한 방법에는 기존 응답 또는 문서의 대규모 데이터베이스를 검색하여 가장 관련성이 높은 정보를 찾는 것이 포함됩니다. 이 접근법은 응답이 정확하고 실제 데이터에 접지되도록합니다.
  • 생성 기반 방법 : 이 방법은 모델을 사용하여 입력에 따라 처음부터 응답을 생성합니다. 이것은보다 유연하고 창의적 인 반응을 허용하지만 때로는 부정확성이나 환각으로 이어질 수 있습니다.
  • 인터리빙 : 검색 및 생성 기술을 인터리빙하거나 결합하여 RIG는 두 가지 접근 방식의 강점을 사용합니다. 이 시스템은 관련 정보를 검색 한 다음 생성 모델을 사용하여 정제 및 확장하여 정확성과 창의성을 보장합니다.

이는 대화 AI, 고객 지원 및 컨텐츠 생성과 같이 고품질의 상황에 맞는 응답이 중요한 응용 프로그램에 유용합니다.

Datagemma에서 Gemma 2는 출력을 생성하는 동안 정확한 정보를 추출 할시기를 인식하도록 미세 조정됩니다. 이에서는 출력에서 ​​생성 된 숫자를 데이터 커먼즈의보다 정확한 정보로 대체합니다. 따라서 기본적으로 모델은보다 신뢰할 수있는 소스로 출력을 다시 확인합니다.

Datagemma에서 장비가 어떻게 사용됩니까?

DataGemma에서, 검색-상영 생성 (RIG)은 검색 모델과 생성 모델의 강점을 결합하여 출력의 정확성과 관련성을 향상시키기 위해 활용되어 생성 된 컨텐츠가 데이터 커먼즈와 같은 신뢰할 수있는 소스의 신뢰할 수있는 데이터에 근거합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

  • 먼저, 사용자는 LLM 모델에 쿼리를 제출합니다. 우리의 경우, LLM 모델은 DataGemma이며, 이는 27b 매개 변수를 가진 Gemma 2 모델을 기반으로하며 RIG 용으로 미세 조정됩니다.
  • Datagemma 모델은 자연어 쿼리 형태로 응답을 생성합니다. 이것의 목적은 Data Commons의 자연어 인터페이스에서 관련 데이터를 검색하는 것입니다.
  • 데이터 커먼즈가 쿼리되고 필요한 데이터가 검색됩니다.
  • 최종 응답이 생성되어 사용자에게 표시됩니다. 응답에는 데이터, 링크와 함께 소스 정보 및 일부 메타 데이터가 포함됩니다. 이것은 원래 응답에서 잠재적으로 부정확 한 숫자를 대체합니다.

Google Colab에서 단계별 절차

환각을 최소화하기 위해 리그를 구현하겠습니다.

사전 반품 :

  • A100 GPU
  • 하이 램 런타임
  • 포옹 페이스 토큰

1 단계 : Hugging Face 계정에 로그인하여 새 토큰을 만듭니다.

Hugging Face 계정을 로그인하려면 여기를 클릭하십시오.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

새 토큰 생성 :

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

2 단계 : Datacommons API 키

  • 계정을 만들려면 여기를 클릭하십시오.
  • 데이터 커먼즈를 통합 할 새 앱을 만듭니다. API 키에 등록하십시오.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

3 단계 : 데이터 커먼즈 NL API 활성화

Colab 노트북 비밀 섹션으로 이동하십시오. 새로운 비밀을 만들고 노트북 액세스를 활성화하십시오.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

  • 포옹 페이스 토큰으로 가치를 가진 hf_token
  • DC_API_KEY 데이터 커먼즈 토큰으로 가치가 있습니다

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

4 단계 : 필요한 라이브러리를 설치하십시오

필요한 라이브러리를 설치하겠습니다.

 #다음 필요한 라이브러리를 설치하십시오 
! pip install -q git https://github.com/datacommonsorg/llm-tools
! pip install -q bitsandbytes 가속

#FINETUNED GEMMA2 27B 모델을로드하십시오 

토치 수입

data_gemma를 dg로 가져옵니다

google.colab import userData에서
변압기에서 Autotokenizer, AutomodElforcausallm, BitsandbyTesconfig에서

# 데이터 커먼즈 API 클라이언트 초기화
dc_api_key = userData.get ( 'dc_api_key')
dc = dg.datacommons (api_key = dc_api_key)


# Huggingface에서 Finetuned Gemma2 모델을 얻으십시오
hf_token = userData.get ( 'hf_token')

nf4_config = BitsandbyTesconfig (
   load_in_4bit = true,
   bnb_4bit_quant_type = "nf4",
   bnb_4bit_compute_dtype = torch.bfloat16
))

model_name = 'Google/DataGemma-Rig-27B-It'
Tokenizer = Autotokenizer.from_pretrained (model_name, token = hf_token)
DataGemma_Model = AutomodElforcausallm.from_pretrained (model_name,
                                             device_map = "자동",
                                             Quantization_Config = NF4_Config,
                                             Torch_dtype = Torch.bfloat16,
                                             토큰 = hf_token)

# 리그 흐름에 사용할 LLM 모델 스터브 구축
DataGemma_Model_wrapper = dg.hfbasic (datagemma_model, Tokenizer)
로그인 후 복사

5 단계 : 쿼리를 선택하거나 입력하십시오

이 단계에서 사용자는 사전 정의 된 쿼리를 선택하거나 사용자 정의 쿼리를 입력하여 시스템이 추가 처리를 위해 데이터 소스에서 관련 정보를 검색 할 수 있습니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

6 단계 : 리그 기술을 실행하고 출력을 생성하십시오

이 단계에서 리그 기술이 실행되어 검색 및 생성 방법을 결합하여 입력 쿼리에 기초하여 정확하고 문맥 상 관련 출력을 생성합니다.

 Ipython에서 Display 가져 오기 Markdown
TextWrap 가져 오기

def display_chat (프롬프트, 텍스트) :
  formatted_prompt = "<font size="'1'color">? ‍ 대담추 <blockquote>"Prompt "</blockquote> </font>"
  text = text.replace ( '•', ' *')
  text = textwrap.indent (text, '>', prectice = lambda _ : true)
  formatted_text = "<font size="'1'color">? \ n \ n"text "\ n </font>"
  Return Markdown (Formatted_Prompt Formatted_Text)

def to_markdown (텍스트) :
  text = text.replace ( '•', ' *')
  return markdown (textwrap.indent (text, '>', prectice = lambda _ : true))


ans = dg.rigflow (llm = datagemma_model_wrapper, data_fetcher = dc, verbose = false) .query (query = query)
Markdown (TextWrap.Indent (Ans.Answer (), '>', prectice = lambda _ : true))


display_chat (query, ans.answer ())
로그인 후 복사

출력 : (다른 쿼리의 경우)

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

결론 : Gemma2는 수치 값 만 생성하는 반면 DataGemma는 소스 정보, 소스 링크, 일부 메타 데이터 및 쿼리에 대한 결론과 함께 수치 값을 생성합니다.

출처 : Google에서 제공하는 Google Colab 노트

LLM 환각을 최소화하기위한 증거 증강 세대

검색 증강 생성은 NLP (Natural Language Processing) 및 LLM (Lange Language Model) (LLM)의 접근 방식으로, 생성 된 컨텐츠의 사실 정확도와 관련성을 향상시켜 모델이 생성 프로세스 중에 외부 지식 소스에 액세스 할 수 있도록합니다. LLM이 텍스트를 생성하기 전에 데이터 커먼즈의 관련 정보를 검색하여 응답을위한 사실적인 기초를 제공합니다.

다음은 Rag의 작동 방식에 대한 간략한 설명입니다.

  • 검색 : 사용자가 쿼리를 입력하면 모델이 수신 한 다음 지식 기반 또는 외부 소스에서 관련 데이터를 추출합니다.
  • 증강 : 이 외부 정보는 언어 모델의 입력 컨텍스트를 "보강"(또는 강화)하는 데 사용되므로 상황에 맞는 관련 응답을 생성하는 데 도움이됩니다.
  • 생성 : LLM은 원래 쿼리와 검색된 정보를 기반으로 응답을 생성합니다.

DataGemma에는 헝겊이 어떻게 사용됩니까?

DataGemma에서, RAG (Retrieval-Augmented Generation)는 외부 소스에서 관련 데이터를 검색 한 다음이 검색된 지식과 AI 생성 통찰력을 결합한 컨텐츠를 생성하여 고품질 및 상황에 맞는 출력을 보장함으로써 응답 정확도를 향상시키기 위해 사용됩니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Rag의 작동 방식은 다음과 같습니다.

  • 먼저, 사용자는 LLM 모델에 쿼리를 제출합니다. 우리의 경우, LLM 모델은 DataGemma이며, 이는 27b 매개 변수의 Gemma 2 모델을 기반으로하며 RAG 작업을 위해 미세 조정됩니다.
  • Datagemma 모델은 입력 쿼리를 분석 한 후 자연어 쿼리 형태로 응답을 생성합니다. 이것의 목적은 Data Commons의 자연어 인터페이스에서 관련 데이터를 검색하는 것입니다.
  • 데이터 커먼즈가 쿼리되고 필요한 정보가 검색됩니다.
  • 최종 응답이 생성되어 사용자에게 표시됩니다. 여기에는 데이터 테이블, 링크와 함께 소스 정보 및 일부 메타 데이터가 포함됩니다. 이것은 원래 응답에서 잠재적으로 부정확 한 숫자를 대체합니다.
  • 이 검색된 정보는 원래 사용자 쿼리에 추가되어 향상 또는 증강 프롬프트를 만듭니다.
  • 더 큰 LLM (우리의 경우 Gemini 1.5 Pro)는 검색된 데이터를 포함 하여이 향상된 프롬프트를 사용하여 더 나은 정확하고 사실적인 응답을 생성합니다.

Google Colab에서 단계별 절차

우리는 이제 환각을 최소화하기 위해 Rag의 단계별 절차를 살펴볼 것입니다.

사전 반품 :

  • A100 GPU
  • 하이 램 런타임
  • 포옹 페이스 토큰
  • 데이터 커먼즈 API 토큰
  • Gemini 1.5 Pro API 키

1 단계 : Gemini API 키를 만듭니다

Google AI Studio로 이동하여 Gemini API 키를 만듭니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

2 단계 : 노트북 액세스를 활성화합니다

Google Colab Notebook Secrets 섹션으로 이동하여 Hugging Face, Data Commons 및 Gemini 1.5 Pro API 키를 입력하십시오. 노트북 액세스를 활성화합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

3 단계 : 필요한 라이브러리를 설치하십시오

이 단계에서는 리그 기술을 구현하고 Datagemma 시스템의 원활한 작동을 보장하는 필요한 라이브러리를 설치합니다.

 #Stall 라이브러리
! pip install -q git https://github.com/datacommonsorg/llm-tools
! pip install -q bitsandbytes 가속

#미세 조정 된 Gemma2 27b 모델로드
토치 수입

data_gemma를 dg로 가져옵니다

google.colab import userData에서
변압기에서 Autotokenizer, AutomodElforcausallm, BitsandbyTesconfig에서

# 데이터 커먼즈 API 클라이언트 초기화
dc_api_key = userData.get ( 'dc_api_key')
dc = dg.datacommons (api_key = dc_api_key)

# Gemini 1.5 프로 모델을 얻으십시오
gemini_api_key = userData.get ( 'gemini_api_key')
gemini_model = dg.googleaistudio (model = 'gemini-1.5-pro', api_keys = [gemini_api_key]))


# Huggingface에서 Finetuned Gemma2 모델을 얻으십시오
hf_token = userData.get ( 'hf_token')

nf4_config = BitsandbyTesconfig (
   load_in_4bit = true,
   bnb_4bit_quant_type = "nf4",
   bnb_4bit_compute_dtype = torch.bfloat16
))

model_name = 'Google/DataGemma-rag-27b-it'
Tokenizer = Autotokenizer.from_pretrained (model_name, token = hf_token)
DataGemma_Model = AutomodElforcausallm.from_pretrained (model_name,
                                             device_map = "자동",
                                             Quantization_Config = NF4_Config,
                                             Torch_dtype = Torch.bfloat16,
                                             토큰 = hf_token)

# RAG 흐름에 사용할 LLM 모델 스터브 구축
DataGemma_Model_wrapper = dg.hfbasic (datagemma_model, Tokenizer)
로그인 후 복사

4 단계 : 자신의 쿼리를 선택하거나 만듭니다

원하는 출력을 검색하고 생성하기위한 리그 기술의 입력 역할을하는 사용자 정의 쿼리를 선택하거나 생성합니다.

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

5 단계 : 헝겊을 실행하고 출력을 생성합니다

이제 RAG 시스템을 실행하여 관련 데이터를 검색하고 제공 한 쿼리에 따라 최종 출력을 생성합니다.

 Ipython에서 Display 가져 오기 Markdown
TextWrap 가져 오기

def display_chat (프롬프트, 텍스트) :
  formatted_prompt = "<font size="'1'color">? ‍ 대담추 <blockquote>"Prompt "</blockquote> </font>"
  text = text.replace ( '•', ' *')
  text = textwrap.indent (text, '>', prectice = lambda _ : true)
  formatted_text = "<font size="'1'color">? \ n \ n"text "\ n </font>"
  Return Markdown (Formatted_Prompt Formatted_Text)

def to_markdown (텍스트) :
  text = text.replace ( '•', ' *')
  return markdown (textwrap.indent (text, '>', prectice = lambda _ : true))

ans = dg.ragflow (llm_question = datagemma_model_wrapper, llm_answer = gemini_model, data_fetcher = dc) .query (query = query)
Markdown (TextWrap.Indent (Ans.Answer (), '>', prectice = lambda _ : true))


display_chat (query, ans.answer ())
로그인 후 복사

산출:

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya

결론 : 쿼리를 요청하면 쿼리와 관련된 관련 데이터 테이블을 검색 한 다음이 데이터는 의미있는 정보와 통찰력으로 최종 응답을 작성하는 데 사용됩니다. 소스 링크, 테이블 및 결론과 함께 쿼리 응답은 출력으로 생성됩니다.

링크 : 데이터 젬마 래그

Datagemma가 중요한 이유는 무엇입니까?

Datagemma는 실제 데이터의 LLM 출력을 근거로하여 모델이 사실 기반 응답을 생성하도록합니다. Google의 데이터 커먼즈에서 검증 된 데이터로 모델의 응답을 확인함으로써 Datagemma는 잘못 또는 제작 된 답변의 수를 줄이는 데 도움이됩니다. Google의 연구원들은 RIG 및 RAG 접근 방식을 사용하여 모델에서 생성 된 출력의 정확도, 특히 수치 출력이 필요한 쿼리를 다루는 데 크게 개선되었습니다.

그들은 사용자가 기준선 출력보다 리그와 래그에 의해 생성 된 출력을 선호한다는 것을 관찰했습니다. 이 접근법은 AI 환각을 줄이고 잘못된 정보의 생성을 줄일 수 있습니다. 또한 Google 은이 Gemma 모델 변형 개방형 모델을 만들었으므로 개발자와 연구원 이이 접근법을 탐색하고 LLM을보다 신뢰할 수 있고 신뢰할 수있는 공통 목표를 달성하기 위해 더욱 향상시킬 수 있습니다.

결론

LLM은 산업 전반에 걸쳐 중요한 도구가되었지만 설득력이 있지만 잘못된 정보를 생성하는“환각”경향은 중요한 문제를 제기합니다. Google의 Datagemma는 Google 데이터 커먼즈의 방대한 실제 데이터와 결합하면이 문제에 대한 가능한 솔루션을 제공합니다. DataGemma의 기술은 검증 된 통계 데이터에 LLM 출력을 기반으로하여 특히 수치 정보를 사용하여 정확도를 향상시킵니다. 또한 잘못된 정보를 줄입니다. 초기 결과는이 전략이 AI 응답의 신뢰성을 상당히 증가 시킨다는 것을 보여 주며, 소비자는 시스템이 제공하는보다 사실적인 출력을 선호합니다. Datagemma는 개방형 모델이기 때문에 연구원과 개발자는 IT를 사용하여 개선 할 수있어 LLM이 실제 응용 프로그램을위한 신뢰할 수있는 도구가되기 위해 더 가깝게 제공 할 수 있습니다. 협력은 환각을 줄이고 신뢰성을 높이는 데 도움이 될 수 있습니다.

참조

  • Datagemma : AI Open 모델 LLMS를 Google 데이터 커먼즈에 연결합니다 (Blog.google)
  • Data Commons (Research.google)의 약간의 도움으로 실제로 AI 근거 AI

자주 묻는 질문

Q 1. 기초 모델이란 무엇입니까?

A. 기초 모델은 다양한 양의 다양한 데이터에 대해 교육을받은 대규모 기계 학습 모델로 광범위한 작업에 걸쳐 일반화 할 수 있습니다. LLM은 방대한 양의 텍스트 데이터에 대해 훈련 된 파운데이션 모델의 한 유형입니다.

Q 2. AI 환각은 무엇입니까?

A. AI 환각은 AI 모델이 정확하지만 부정확하거나 제작 된 정보를 생성하는 현상을 말합니다. 이 모델은 실제 데이터 또는 사실에 근거가없는 응답을 생성합니다.

Q3. LLMS는 왜 환각됩니까?

A. llms는 훈련 된 데이터의 패턴을 기반으로 출력을 생성하기 때문에 환각됩니다. 쿼리에 응답하기에 충분한 맥락이나 관련 데이터가 없으면 기존 지식 기반에서 발견 된 유사한 데이터를 기반으로 불확실성을 인정하는 대신 그럴듯한 정보를 제작할 수 있습니다.

Q 4. Google Gemma는 무엇입니까?

A. Google Gemma는 Google Gemini의 연구를 기반으로 한 Google의 가벼운 LLM 모델입니다. Gemma의 변형은 LLM을 Google 데이터 커먼즈의 실제 통계 데이터와 연결하도록 개발 된 개방형 모델 인 Datagemma입니다.

Q 5. 리그와 헝겊의 차이점은 무엇입니까?

A. RIG는 Google Data Commons와 같은 외부 데이터 소스에 대한 생성 된 응답을 확인하여 실제 통계 데이터를 모델의 출력에 직접 통합합니다. 따라서 기본적으로 응답이 생성 된 다음 외부 소스로 사실 확인됩니다. 그러나 Rag에서는 외부 데이터베이스 또는 지식 소스에서 관련 정보를 검색 한 다음이 정보를 기반으로 응답을 생성합니다.

이 기사에 표시된 미디어는 분석 Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다.

위 내용은 Datagemma : 환각에 대한 LLM 접지 - 분석 Vidhya의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

창의적인 프로젝트를위한 최고의 AI 아트 발전기 (무료 & amp; 유료) 창의적인 프로젝트를위한 최고의 AI 아트 발전기 (무료 & amp; 유료) Apr 02, 2025 pm 06:10 PM

이 기사는 최고의 AI 아트 생성기를 검토하여 자신의 기능, 창의적인 프로젝트에 대한 적합성 및 가치에 대해 논의합니다. Midjourney를 전문가에게 최고의 가치로 강조하고 고품질의 사용자 정의 가능한 예술에 Dall-E 2를 추천합니다.

Meta Llama 3.2- 분석 Vidhya를 시작합니다 Meta Llama 3.2- 분석 Vidhya를 시작합니다 Apr 11, 2025 pm 12:04 PM

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

최고의 AI 챗봇 비교 (Chatgpt, Gemini, Claude & amp; more) 최고의 AI 챗봇 비교 (Chatgpt, Gemini, Claude & amp; more) Apr 02, 2025 pm 06:09 PM

이 기사는 Chatgpt, Gemini 및 Claude와 같은 최고의 AI 챗봇을 비교하여 고유 한 기능, 사용자 정의 옵션 및 자연어 처리 및 신뢰성의 성능에 중점을 둡니다.

컨텐츠 생성을 향상시키기 위해 AI를 쓰는 최고 AI 작문 컨텐츠 생성을 향상시키기 위해 AI를 쓰는 최고 AI 작문 Apr 02, 2025 pm 06:11 PM

이 기사는 Grammarly, Jasper, Copy.ai, Writesonic 및 Rytr와 같은 최고의 AI 작문 조수에 대해 논의하여 콘텐츠 제작을위한 독특한 기능에 중점을 둡니다. Jasper는 SEO 최적화가 뛰어나고 AI 도구는 톤 구성을 유지하는 데 도움이된다고 주장합니다.

AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 Apr 11, 2025 pm 12:01 PM

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

직원에게 AI 전략 판매 : Shopify CEO의 선언문 직원에게 AI 전략 판매 : Shopify CEO의 선언문 Apr 10, 2025 am 11:19 AM

Shopify CEO Tobi Lütke의 최근 메모는 AI 숙련도가 모든 직원에 대한 근본적인 기대를 대담하게 선언하여 회사 내에서 중요한 문화적 변화를 표시합니다. 이것은 도망가는 트렌드가 아닙니다. 그것은 p에 통합 된 새로운 운영 패러다임입니다

10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. 10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. Apr 13, 2025 am 01:14 AM

이봐, 코딩 닌자! 하루 동안 어떤 코딩 관련 작업을 계획 했습니까? 이 블로그에 더 자세히 살펴보기 전에, 나는 당신이 당신의 모든 코딩 관련 문제에 대해 생각하기를 원합니다. 완료? - &#8217

최고의 AI 음성 생성기 선택 : 최고 옵션 검토 최고의 AI 음성 생성기 선택 : 최고 옵션 검토 Apr 02, 2025 pm 06:12 PM

이 기사는 Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson 및 Destript와 같은 최고의 AI 음성 생성기를 검토하여 기능, 음성 품질 및 다양한 요구에 대한 적합성에 중점을 둡니다.

See all articles