기술 주변기기 일체 포함 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다.

Jun 24, 2024 pm 03:04 PM
프로젝트 정렬 알고리즘 TDPO

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.
AIxiv 칼럼은 본 사이트에 학술적, 기술적 내용을 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

인공지능 분야의 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였습니다. 이러한 모델이 인류 사회에 강력하고 안전하게 봉사할 수 있도록 보장합니다. 초기 노력은 인간 피드백을 이용한 강화 학습 방법(RLHF)을 통해 이러한 모델을 관리하는 데 중점을 두었으며, 인상적인 결과는 더욱 인간과 유사한 AI를 향한 핵심 단계를 나타냅니다.

큰 성공에도 불구하고 RLHF는 훈련 중에 자원 집약적입니다. 따라서 최근 학자들은 RLHF가 구축한 탄탄한 기반을 기반으로 보다 간단하고 효율적인 정책 최적화 경로를 지속적으로 탐색하여 직접 선호 최적화(DPO)가 탄생했습니다. DPO는 수학적 추론을 통해 보상 함수와 최적의 전략 사이의 직접적인 매핑을 얻고, 보상 모델의 학습 과정을 없애고, 선호도 데이터에 직접 전략 모델을 최적화하고, "전략으로의 피드백"에서 직관적인 도약을 달성합니다. 이는 복잡성을 줄일 뿐만 아니라 알고리즘의 견고성을 향상시켜 빠르게 업계에서 새로운 인기를 누리고 있습니다.

그러나 DPO는 주로 역 KL 발산 제약 조건 하에서 정책 최적화에 중점을 둡니다. DPO는 역 KL 발산의 모드 탐색 속성으로 인해 정렬 성능을 향상시키는 데 탁월하지만 이 속성은 생성 과정에서 다양성을 감소시키는 경향이 있어 잠재적으로 모델의 기능을 제한합니다. 반면, DPO는 문장 수준 관점에서 KL 발산을 제어하지만 모델 생성 프로세스는 기본적으로 토큰별로 진행됩니다. 문장 수준에서 KL 발산을 제어하는 ​​것은 DPO가 세밀한 제어에 한계가 있고 KL 발산을 조정하는 능력이 약하다는 것을 직관적으로 보여줍니다. 이는 DPO 훈련 중 LLM의 생성적 다양성이 급격히 감소하는 주요 요인 중 하나일 수 있습니다.

이를 위해 중국과학원과 University College London의 Wang Jun과 Zhang Haifeng 팀은 토큰 수준 관점에서 모델링한 대규모 모델 정렬 알고리즘인 TDPO를 제안했습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

  • 논문 제목: Token-level Direct Preference Optimization

  • 논문 주소: https://arxiv.org/abs/2404.11999

  • 코드 주소: https://github.com/Vance0124 /Token-level-Direct-Preference-Optimization

모델 생성의 다양성이 크게 저하되는 문제를 해결하기 위해 TDPO는 전체 정렬 프로세스의 목적 함수를 토큰 수준 관점에서 재정의하고 변형했습니다. Bradley-Terry 모델을 Advantage 함수의 형태로 변환하면 전체 정렬 프로세스를 Token 수준에서 최종적으로 분석하고 최적화할 수 있습니다. DPO와 비교하여 TDPO의 주요 기여는 다음과 같습니다.

  • 토큰 수준 모델링 방법: TDPO는 토큰 수준 관점에서 문제를 모델링하고 RLHF에 대한 보다 자세한 분석을 수행합니다.

  • 세밀한 KL 발산 제약 조건: 순방향 KL 발산 제약 조건은 이론적으로 각 토큰에 도입되어 모델 최적화를 더 효과적으로 제한할 수 있습니다.

  • 분명한 성능 이점: DPO에 비해 TDPO는 더 나은 정렬 성능을 달성하고 다양한 파레토 전선을 생성할 수 있습니다.

DPO와 TDPO의 주요 차이점은 아래 그림에 나와 있습니다. :

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

DPO는 문장 수준의 관점에서 모델링되었습니다

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

그림 2: TDPO의 정렬 최적화 방법. TDPO는 토큰 수준 관점에서 모델을 만들고 그림의 빨간색 부분에 표시된 것처럼 각 토큰에 추가적인 순방향 KL 발산 제약 조건을 도입합니다. 이는 모델 오프셋 정도를 제어할 뿐만 아니라 모델 정렬을 위한 기준으로도 사용됩니다. 두 가지 방법의 구체적인 도출 과정을 아래에 소개합니다.

배경: DPO(직접 선호 최적화)

DPO는 수학적 유도를 통해 보상 함수와 최적 정책 간의 직접적인 매핑을 획득하여 RLHF 프로세스에서 보상 모델링 단계를 제거합니다.

공식(1) DPO(직접 정책 최적화) 손실 함수를 얻기 위해 BT(Bradley-Terry) 기본 설정 모델로 대체되었습니다.RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

여기서 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.는 선호도 데이터 세트 D의 프롬프트, 승리 응답 및 패배 응답으로 구성된 선호 쌍입니다.

TDPO

기호 주석

언어 모델의 순차 및 자동 회귀 생성 프로세스를 모델링하기 위해 TDPO는 생성된 응답을 T tokensRLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.으로 구성된 형식으로 표현합니다. 여기서 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다., RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.는 알파벳(용어집).

텍스트 생성이 마르코프 결정 프로세스로 모델링될 때 상태는 프롬프트와 현재 단계까지 생성된 토큰의 조합으로 정의되며(RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.로 표시됨) 작업은 다음으로 생성된 토큰에 해당합니다. by는 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.이며, 토큰 수준 보상은 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.로 정의됩니다.

위에 제공된 정의를 기반으로 TDPO는 정책 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.에 대한 상태-행동 함수 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다., 상태 가치 함수 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다. 및 이점 함수 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.를 설정합니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

여기서 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.는 할인 요소를 나타냅니다.

토큰 수준 관점에서 본 인간 피드백 강화 학습

TDPO는 이론적으로 RLHF의 보상 모델링 단계와 RL 미세 조정 단계를 수정하여 토큰 수준 관점에서 고려한 최적화 목표로 확장합니다.

보상 모델링 단계에서 TDPO는 Bradley-Terry 모델과 장점 함수 간의 상관 관계를 설정했습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

RL 미세 조정 단계에서 TDPO는 다음과 같은 목적 함수를 정의했습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

파생

목표 (4)에서 시작하여 TDPO는 각 토큰의 최적 전략 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.과 상태-작업 기능 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다. 간의 매핑 관계를 도출합니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

여기서 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.는 파티션 기능을 나타냅니다.

방정식 (5)를 방정식 (3)에 대입하면 다음을 얻습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

여기서 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.는 정책 모델 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.과 참조 모델 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.으로 표현되는 암시적 보상 함수의 차이를 나타내며

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

으로 표현됩니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.에 의해 가중치가 부여된 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.의 시퀀스 수준 순방향 KL 발산 차이를 나타내는 동안

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

로 표현됩니다. 방정식 (8)을 기반으로 TDPO 최대 가능성 손실 함수는 다음과 같이 모델링될 수 있습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

실제로는 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다. 손실이 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다. 증가하는 경향이 있어 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.의 차이가 증폭됩니다. TDPO는 방정식 (9)를 다음과 같이 수정할 것을 제안합니다. 여기서

는 하이퍼파라미터이고

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.여기서

는 기울기 전파 연산자 중지를 의미합니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.TDPO와 DPO의 손실 함수를 다음과 같이 요약합니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

TDPO는 각 토큰에 이러한 순방향 KL 발산 제어를 도입하여 정렬 성능에 영향을 주지 않고 최적화 프로세스 변경 중에 KL을 더 잘 제어할 수 있음을 알 수 있습니다. , 이를 통해 더 나은 파레토 전선을 달성합니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.실험 설정

TDPO는 IMDb, Anthropic/hh-rlhf, MT-Bench 데이터 세트에 대한 실험을 수행했습니다.

IMDb

IMDb 데이터 세트에서 팀은 GPT-2를 기본 모델로 사용한 다음 siebert/sentiment-roberta-large-english를 보상 모델로 사용하여 정책 모델 출력을 평가했습니다. 실험 결과는 그림 3에 나와 있습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

그림 3(a)에서 볼 수 있듯이 TDPO(TDPO1, TDPO2)는 DPO보다 더 나은 보상-KL 파레토 프론트를 달성할 수 있는 반면, 그림 3(b)~(d)에서는 TDPO는 KL 발산 제어에서 매우 뛰어난 성능을 발휘하며 이는 DPO 알고리즘의 KL 발산 제어 기능보다 훨씬 뛰어납니다.

Anthropic HH

팀은 Anthropic/hh-rlhf 데이터 세트에서 Pythia 2.8B를 기본 모델로 사용하고 두 가지 방법을 사용하여 모델 생성 품질을 평가했습니다. 1) 기존 지표 사용 2) 다음을 사용하여 평가했습니다. GPT-4.

첫 번째 평가 방법으로 팀은 표 1과 같이 서로 다른 알고리즘으로 훈련된 모델의 정렬 성능(정확도)과 세대 다양성(엔트로피)의 균형을 평가했습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

TDPO 알고리즘은 정렬 성능(정확도)에서 DPO 및 f-DPO보다 우수할 뿐만 아니라 응답의 핵심 지표인 세대 다양성(엔트로피)에서도 장점이 있음을 알 수 있습니다. 이 두 가지 대형 모델에 의해 생성된 더 나은 절충안이 달성되었습니다.

두 번째 평가 방법으로 팀은 그림 4와 같이 서로 다른 알고리즘과 인간 선호도로 훈련된 모델 간의 일관성을 평가하고 이를 데이터 세트의 승리 응답과 비교했습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

DPO, TDPO1 및 TDPO2 알고리즘은 모두 0.75의 온도 계수에서 승리 응답에 대해 50%보다 높은 승률을 달성할 수 있으며 이는 인간 선호도에 더 적합합니다.

MT-Bench

논문의 마지막 실험에서 팀은 Anthropic HH 데이터 세트에서 훈련된 Pythia 2.8B 모델을 사용하여 MT-Bench 데이터 세트 평가에 직접 사용했습니다. 결과는 그림에 나와 있습니다. 5 보여줍니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

MT-Bench에서 TDPO는 다른 알고리즘보다 더 높은 승리 확률을 달성할 수 있으며, 이는 TDPO 알고리즘으로 훈련된 모델이 생성하는 더 높은 품질의 응답을 완벽하게 보여줍니다.

이 밖에도 DPO, TDPO, SimPO 알고리즘을 비교한 관련 연구가 있습니다. https://www.zhihu.com/question/651021172/answer/3513696851

에서 제공하는 평가 스크립트를 기반으로 합니다. eurus, 평가 기본 모델 qwen-4b, mistral-0.1 및 deepseek-math-base의 성능은 다양한 정렬 알고리즘 DPO, TDPO 및 SimPO를 기반으로 한 미세 조정 훈련을 통해 얻었습니다. 실험 결과는 다음과 같습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 토큰 수준입니다.

표 2: DPO, TDPO와 SimPO 알고리즘의 성능 비교

자세한 결과는 원본 논문을 참조하세요.

위 내용은 RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 Jul 17, 2024 am 01:56 AM

역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. 오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. Jul 17, 2024 pm 10:02 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. Jun 24, 2024 pm 03:04 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. Aug 01, 2024 pm 05:18 PM

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. 리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. Aug 05, 2024 pm 03:32 PM

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. Jul 19, 2024 am 01:29 AM

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. Jul 15, 2024 pm 03:59 PM

시계열 예측에 언어 모델을 실제로 사용할 수 있나요? Betteridge의 헤드라인 법칙(물음표로 끝나는 모든 뉴스 헤드라인은 "아니오"로 대답할 수 있음)에 따르면 대답은 아니오여야 합니다. 사실은 사실인 것 같습니다. 이렇게 강력한 LLM은 시계열 데이터를 잘 처리할 수 없습니다. 시계열, 즉 시계열은 이름에서 알 수 있듯이 시간 순서대로 배열된 데이터 포인트 시퀀스 집합을 나타냅니다. 시계열 분석은 질병 확산 예측, 소매 분석, 의료, 금융 등 다양한 분야에서 중요합니다. 시계열 분석 분야에서는 최근 많은 연구자들이 LLM(Large Language Model)을 사용하여 시계열의 이상 현상을 분류, 예측 및 탐지하는 방법을 연구하고 있습니다. 이 논문에서는 텍스트의 순차적 종속성을 잘 처리하는 언어 모델이 시계열로도 일반화될 수 있다고 가정합니다.

최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. 최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. Jul 17, 2024 am 02:46 AM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.

See all articles