목차
연구 소개
실험 결과
기술 주변기기 일체 포함 프롬프트 최적화 문제 재검토, 예측 편향으로 인해 언어 모델 컨텍스트 학습이 더욱 강력해집니다.

프롬프트 최적화 문제 재검토, 예측 편향으로 인해 언어 모델 컨텍스트 학습이 더욱 강력해집니다.

Apr 04, 2023 am 11:40 AM
연구

LLM은 상황 내 학습에서 좋은 성과를 거두었지만, 다른 예를 선택하면 완전히 다른 성과로 이어집니다. 최근 연구에서는 예측 편향의 관점에서 신속한 검색 전략을 제안하고, 예시의 최적 조합을 대략적으로 찾아냅니다.

프롬프트 최적화 문제 재검토, 예측 편향으로 인해 언어 모델 컨텍스트 학습이 더욱 강력해집니다.

  • 논문 링크: https://arxiv.org/abs/2303.13217
  • 코드 링크: https://github.com/MaHuanAAA/g_fair_searching

연구 소개

문맥 학습의 대형 언어 모델 시연 놀라운 능력을 갖춘 이러한 모델은 몇 가지 입력 및 출력 예제를 통해 구축된 컨텍스트에서 학습할 수 있으며 미세 조정 최적화 없이 많은 다운스트림 작업에 직접 적용할 수 있습니다. 그러나 이전 연구에 따르면 상황별 학습은 훈련 예제, 예제 순서 및 프롬프트 형식의 변경으로 인해 높은 수준의 불안정성을 나타낼 수 있는 것으로 나타났습니다. 따라서 상황별 학습 성과를 향상시키기 위해서는 적절한 프롬프트를 구성하는 것이 중요합니다.

이전 연구에서는 일반적으로 이 문제를 (1) 인코딩 공간의 프롬프트 튜닝(프롬프트 튜닝), (2) 원래 공간에서 검색(프롬프트 검색)이라는 두 가지 방향에서 연구했습니다.

Prompt Tuning의 핵심 아이디어는 작업별 임베딩을 히든 레이어에 삽입한 다음 그라데이션 기반 최적화를 사용하여 이러한 임베딩을 조정하는 것입니다. 그러나 이러한 방법을 사용하려면 모델의 원래 추론 프로세스를 수정하고 모델 그라데이션을 얻어야 하는데, 이는 GPT-3 및 ChatGPT와 같은 블랙박스 LLM 서비스에서는 실용적이지 않습니다. 또한 힌트 조정으로 인해 추가 계산 및 저장 비용이 발생하는데, 이는 일반적으로 LLM에 비용이 많이 듭니다.

더 실현 가능하고 효율적인 접근 방식은 원본 텍스트 공간에서 대략적인 데모 샘플 및 시퀀스를 검색하여 프롬프트를 최적화하는 것입니다. 일부 작업 건물은 "전역 보기" 또는 "로컬 보기"에서 프롬프트를 표시합니다. 전역 보기 기반 방법은 일반적으로 더 나은 성능을 달성하기 위해 프롬프트의 다양한 요소를 전체적으로 최적화합니다. 예를 들어 다양성 기반 [1] 접근 방식은 검색을 위해 데모의 전체 다양성을 활용하거나 더 나은 성능을 달성하기 위해 전체 샘플 조합 순서 [2]를 최적화하려고 시도합니다. 글로벌 보기와 달리 로컬 보기 기반 방법은 KATE [3]와 같은 다양한 경험적 선택 기준을 설계하여 작동합니다.

그러나 이러한 방법에는 고유한 한계가 있습니다. (1) 대부분의 최근 연구는 주로 예시 선택이나 순서와 같은 단일 요소에 따라 단서를 검색하는 데 중점을 둡니다. 그러나 각 요소가 성과에 미치는 전반적인 영향은 불분명합니다. (2) 이러한 방법은 일반적으로 경험적 기준을 기반으로 하며 이러한 방법이 어떻게 작동하는지 설명하려면 통일된 관점이 필요합니다. (3) 더 중요한 것은 기존 방법이 힌트를 전체적으로 또는 로컬로 최적화하므로 성능이 만족스럽지 않을 수 있다는 것입니다.

이 글에서는 NLP 분야의 프롬프트 최적화 문제를 '예측 편향'의 관점에서 재검토하고 핵심 현상을 발견합니다. 주어진 프롬프트의 품질은 고유한 편향에 따라 달라집니다. 이러한 현상을 바탕으로 이 기사에서는 예측 편향을 기반으로 프롬프트의 품질을 평가하는 대체 기준을 제안합니다. 이 측정항목은 추가 개발 세트 없이도 단일 전달 프로세스를 통해 프롬프트를 평가할 수 있습니다.

구체적으로, 주어진 프롬프트에서 "콘텐츠 없음" 테스트를 입력함으로써 모델은 균일한 예측 분포를 출력할 것으로 예상됩니다("콘텐츠 없음" 입력에는 유용한 정보가 포함되지 않음). 따라서 본 논문에서는 예측 분포의 균일성을 사용하여 주어진 프롬프트의 예측 편차를 나타냅니다. 이는 이전 사후 교정 방법[4]에서 사용된 메트릭과 유사하지만 고정 프롬프트 하에서 확률적 사후 교정에 이 메트릭을 사용하는 사후 교정과 달리 이 논문에서는 대략적인 프롬프트를 자동으로 검색하는 응용 프로그램을 추가로 탐색합니다. 그리고 광범위한 실험을 통해 주어진 프롬프트의 고유한 편향과 주어진 테스트 세트에서의 평균 작업 성능 간의 상관 관계를 확인했습니다.

프롬프트 최적화 문제 재검토, 예측 편향으로 인해 언어 모델 컨텍스트 학습이 더욱 강력해집니다.

또한 이 편향 기반 측정법을 사용하면 "로컬에서 글로벌로" 방식으로 적합한 프롬프트를 검색할 수 있습니다. 그러나 현실적으로 문제는 복잡도가 O(N!)을 초과하기 때문에 모든 조합을 순회하여 최적의 해를 찾는 것이 불가능하다는 점이다.

이 연구에서는 효율적인 방식으로 고품질 프롬프트를 검색하기 위한 두 가지 새로운 전략을 제안합니다. (1) T-fair-Prompting (2) G-fair-Prompting. T-fair-Prompting은 직관적인 접근 방식을 사용하여 먼저 프롬프트를 구성하는 각 예시의 편차를 계산한 다음 가장 공정한 Top-k 예시를 선택하여 최종 프롬프트로 결합합니다. 이 전략은 복잡도가 O(N)로 매우 효율적입니다. 그러나 T-fair-Prompting은 일반적으로 최적의 프롬프트가 편향이 가장 적은 사례로부터 구성된다는 가정에 기반을 두고 있다는 점에 유의해야 합니다. 그러나 이는 실제 상황에서는 적용되지 않을 수 있으며 종종 로컬 최적 솔루션으로 이어집니다. 따라서 기사에서는 검색 품질을 향상시키기 위해 G-fair-Prompting을 추가로 도입합니다. G-fair-Prompting은 각 단계에서 지역적 최적 선택을 통해 최적의 솔루션을 찾기 위한 탐욕스러운 검색의 일반적인 프로세스를 따릅니다. 알고리즘의 각 단계에서 업데이트된 프롬프트가 최악의 시간 복잡도 O(N^2)로 최적의 공정성을 달성하도록 예제가 선택되어 검색 품질이 크게 향상됩니다. G-fair-Prompting은 초기 단계에서 개별 표본의 편향이 고려되는 반면, 후기 단계에서는 전역 예측 편향을 줄이는 데 초점을 맞추는 로컬-투-글로벌 관점에서 작동합니다.

실험 결과

본 연구는 다양한 하위 작업에 적용할 수 있는 언어 모델의 상황 학습 성능을 향상시키기 위한 효과적이고 해석 가능한 방법을 제안합니다. 이 기사에서는 다양한 LLM(GPT 시리즈 모델 및 최근 출시된 LMaMA 시리즈 포함)에서 이 두 가지 전략의 효과를 확인합니다. SOTA 방법과 비교하여 G-fair-Prompting은 다양한 다운스트림 작업에서 10% 이상의 상대적 개선을 달성했습니다. .

프롬프트 최적화 문제 재검토, 예측 편향으로 인해 언어 모델 컨텍스트 학습이 더욱 강력해집니다.

이 연구에 가장 가까운 것은 Calibration-before-use [4] 방법으로, 둘 다 모델 성능을 향상시키기 위해 "콘텐츠 없는" 입력을 사용합니다. 그러나 사용 전 교정 방법은 이 표준을 사용하여 출력을 교정하도록 설계되었으며, 이는 여전히 사용된 예제의 품질에 영향을 받기 쉽습니다. 대조적으로, 이 논문은 모델 출력의 후처리 없이 모델의 성능을 향상시키기 위한 거의 최적의 프롬프트를 찾기 위해 원본 공간을 검색하는 것을 목표로 합니다. 또한, 이 논문은 아직 사용 전 교정 방법에서 연구되지 않은 예측 편향과 최종 작업 성능 사이의 연관성을 광범위한 실험을 통해 입증한 최초의 논문입니다.

프롬프트 최적화 문제 재검토, 예측 편향으로 인해 언어 모델 컨텍스트 학습이 더욱 강력해집니다.

보정 없이도 이 글에서 제안한 방법으로 선택한 프롬프트가 보정된 무작위로 선택된 프롬프트보다 더 나을 수 있다는 것도 실험을 통해 알 수 있습니다. 이는 이 방법이 실제 응용 분야에서 실용적이고 효과적일 수 있으며 향후 자연어 처리 연구에 영감을 줄 수 있음을 보여줍니다.

위 내용은 프롬프트 최적화 문제 재검토, 예측 편향으로 인해 언어 모델 컨텍스트 학습이 더욱 강력해집니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

모델, 데이터 및 프레임워크에 대한 심층 분석: 효율적인 대규모 언어 모델에 대한 철저한 54페이지 검토 모델, 데이터 및 프레임워크에 대한 심층 분석: 효율적인 대규모 언어 모델에 대한 철저한 54페이지 검토 Jan 14, 2024 pm 07:48 PM

대규모 언어 모델(LLM)은 자연어 이해, 언어 생성, 복잡한 추론을 비롯한 여러 중요한 작업에서 강력한 기능을 입증했으며 사회에 지대한 영향을 미쳤습니다. 그러나 이러한 뛰어난 기능을 사용하려면 상당한 교육 리소스(왼쪽 참조)와 긴 추론 시간(오른쪽 참조)이 필요합니다. 따라서 연구자들은 효율성 문제를 해결하기 위한 효과적인 기술적 수단을 개발해야 합니다. 또한 그림의 오른쪽에서 볼 수 있듯이 Mistral-7B와 같은 일부 효율적인 LLM(LanguageModel)이 LLM의 설계 및 배포에 성공적으로 사용되었습니다. 이러한 효율적인 LLM은 LLaMA1-33B와 유사한 정확도를 유지하면서 추론 메모리를 크게 줄일 수 있습니다.

확산 + 초해상도 모델의 강력한 조합, Google 이미지 생성기의 기술 Imagen 확산 + 초해상도 모델의 강력한 조합, Google 이미지 생성기의 기술 Imagen Apr 10, 2023 am 10:21 AM

최근에는 다중모달 학습이 많은 주목을 받고 있는데, 특히 텍스트-이미지 합성과 이미지-텍스트 대조 학습이라는 두 가지 방향에서 더욱 그렇습니다. OpenAI에서 출시한 텍스트 이미지 모델 DALL・E 및 DALL-E 2, NVIDIA의 GauGAN 및 GauGAN2와 같은 일부 AI 모델은 창의적인 이미지 생성 및 편집에 적용되어 광범위한 대중의 관심을 끌었습니다. 이에 뒤처지지 않기 위해 Google은 5월 말 자체 텍스트-이미지 모델 Imagen을 출시했는데, 이는 캡션 조건부 이미지 생성의 범위를 더욱 확장하는 것으로 보입니다. 장면에 대한 설명만 주어지면 Imagen은 고품질, 고해상도를 생성할 수 있습니다.

Nvidia의 차세대 GPU, H100을 깨다 공개! 2024년에 공개된 최초의 3nm 멀티칩 모듈 디자인 Nvidia의 차세대 GPU, H100을 깨다 공개! 2024년에 공개된 최초의 3nm 멀티칩 모듈 디자인 Sep 30, 2023 pm 12:49 PM

3nm 공정, H100을 능가하는 성능! 최근 외신 디지타임스는 엔비디아가 차세대 GPU인 B100(코드명 '블랙웰')을 인공지능(AI)과 고성능컴퓨팅(HPC) 애플리케이션용 제품으로 개발 중이라는 소식을 전했다. B100은 TSMC의 3nm 공정 공정과 더욱 복잡한 MCM(멀티 칩 모듈) 설계를 사용하며 2024년 4분기에 출시될 예정입니다. 인공지능 GPU 시장의 80% 이상을 독점하고 있는 엔비디아의 경우, B100을 이용해 철이 뜨거울 때 공격할 수 있고, 이번 AI 배치 물결에서 AMD, 인텔 등 도전자들을 더욱 공격할 수 있다. NVIDIA 추정에 따르면, 2027년까지 이 분야의 출력 가치는 대략적으로 도달할 것으로 예상됩니다.

다중 모드 대형 모델에 대한 가장 포괄적인 리뷰가 여기에 있습니다! 마이크로소프트 연구원 7명 적극 협력, 5개 주요 주제, 119페이지 분량의 문서 다중 모드 대형 모델에 대한 가장 포괄적인 리뷰가 여기에 있습니다! 마이크로소프트 연구원 7명 적극 협력, 5개 주요 주제, 119페이지 분량의 문서 Sep 25, 2023 pm 04:49 PM

다중 모드 대형 모델에 대한 가장 포괄적인 리뷰가 여기에 있습니다! Microsoft의 중국 연구원 7명이 집필한 이 책은 119페이지로 구성되어 있습니다. 이는 이미 완성되어 현재까지 선두에 있는 두 가지 유형의 다중 모드 대형 모델 연구 방향에서 시작하여 시각적 이해와 시각적 생성이라는 5가지 구체적인 연구 주제를 포괄적으로 요약합니다. 통합 시각적 모델 LLM이 지원하는 다중 모드 대형 모델 다중 모드 에이전트는 현상에 초점을 맞춥니다. 다중 모드 기본 모델은 전문화된 모델에서 범용 모델로 이동했습니다. Ps. 그래서 저자는 논문 서두에 도라에몽의 이미지를 직접 그렸습니다. 이 리뷰(보고서)를 누가 읽어야 합니까? Microsoft의 원래 말로: 전문 연구원이든 학생이든 다중 모달 기본 모델의 기본 지식과 최신 진행 상황을 배우는 데 관심이 있는 한 이 콘텐츠는 함께 모이는 데 매우 적합합니다.

SD 커뮤니티의 I2V 어댑터: 구성이 필요하지 않으며 플러그 앤 플레이, Tusheng 비디오 플러그인과 완벽하게 호환됩니다. SD 커뮤니티의 I2V 어댑터: 구성이 필요하지 않으며 플러그 앤 플레이, Tusheng 비디오 플러그인과 완벽하게 호환됩니다. Jan 15, 2024 pm 07:48 PM

이미지-비디오 생성(I2V) 작업은 정적 이미지를 동적 비디오로 변환하는 것을 목표로 하는 컴퓨터 비전 분야의 과제입니다. 이 작업의 어려움은 이미지 콘텐츠의 신뢰성과 시각적 일관성을 유지하면서 단일 이미지에서 시간 차원의 동적 정보를 추출하고 생성하는 것입니다. 기존 I2V 방법에는 이 목표를 달성하기 위해 복잡한 모델 아키텍처와 많은 양의 교육 데이터가 필요한 경우가 많습니다. 최근 Kuaishou가 주도한 새로운 연구 결과 "I2V-Adapter: AGeneralImage-to-VideoAdapter for VideoDiffusionModels"가 발표되었습니다. 본 연구에서는 혁신적인 이미지-비디오 변환 방법을 소개하고 경량 어댑터 모듈을 제안합니다.

2022 볼츠만상 발표: Hopfield Network 창립자가 수상 2022 볼츠만상 발표: Hopfield Network 창립자가 수상 Aug 13, 2023 pm 08:49 PM

2022년 볼츠만상을 수상한 두 명의 과학자가 발표되었습니다. 이 상은 IUPAP 통계물리학위원회(C3)가 통계물리학 분야에서 뛰어난 업적을 이룬 연구자를 표창하기 위해 제정한 것입니다. 우승자는 이전에 볼츠만상이나 노벨상을 수상한 적이 없는 과학자여야 합니다. 이 상은 1975년에 시작되었으며 통계 물리학의 창시자인 루트비히 볼츠만(Ludwig Boltzmann)을 기념하기 위해 3년마다 수여됩니다. 수상 이유: 자기 조직화의 정확한 해결을 포함하여 통계 물리학 분야에 대한 Deepak Dharistheoriginalstatement의 선구적인 공헌을 인정하여 수여됩니다. 중요 모델, 인터페이스 성장, 장애

VPR 2024 만점 시험지! Meta는 EfficientSAM을 제안합니다: 모든 것을 빠르게 분할하세요! VPR 2024 만점 시험지! Meta는 EfficientSAM을 제안합니다: 모든 것을 빠르게 분할하세요! Mar 02, 2024 am 10:10 AM

EfficientSAM의 이 작업은 CVPR2024에 5/5/5점 만점으로 포함되었습니다! 작가는 그 결과를 아래 사진처럼 소셜미디어에 공유했습니다. 르쿤 튜링상 수상자도 이 작품을 강력 추천했습니다! 최근 연구에서 Meta 연구진은 SAM을 사용한 SAMI(Mask Image Pre-training)라는 새로운 개선된 방법을 제안했습니다. 이 방법은 MAE 사전 훈련 기술과 SAM 모델을 결합하여 고품질 사전 훈련된 ViT 인코더를 달성합니다. SAMI를 통해 연구자들은 모델의 성능과 효율성을 개선하고 비전 작업을 위한 더 나은 솔루션을 제공하려고 노력합니다. 이 방법의 제안은 컴퓨터 비전 및 딥 러닝 분야를 더욱 탐구하고 개발할 수 있는 새로운 아이디어와 기회를 제공합니다. 서로 다른 것을 결합하여

Google AI 라이징 스타가 피카로 전환: 비디오 세대 뤼미에르, 창립 과학자 역할 Google AI 라이징 스타가 피카로 전환: 비디오 세대 뤼미에르, 창립 과학자 역할 Feb 26, 2024 am 09:37 AM

영상 생성이 본격화되고 있으며, 피카는 위대한 장군, 즉 피카의 창립 과학자인 구글 연구원 오메르 바르탈(Omer Bar-Tal)을 맞이했습니다. 한 달 전, 구글이 영상 생성 모델인 뤼미에르(Lumiere)를 공동저자로 출시했는데, 그 효과는 놀라웠다. 당시 네티즌들은 “구글이 영상 세대 전쟁에 합류했는데, 또 한 번 볼만한 좋은 쇼가 있다”고 말했다. StabilityAI CEO와 Google의 전 동료들을 포함하여 업계 관계자들이 축복을 보냈습니다. 뤼미에르의 첫 작품, 막 석사 학위를 취득한 오메르 바르탈(Omer Bar-Tal)은 2021년 텔아비브 대학교 수학과 컴퓨터과학과를 졸업한 뒤 와이즈만 과학원에서 컴퓨터 석사 과정을 공부했다. 주로 이미지 및 비디오 합성 분야의 연구에 중점을 두고 있습니다. 그의 논문 결과는 여러 차례 발표되었습니다

See all articles