> 기술 주변기기 > 일체 포함 > 이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

WBOY
풀어 주다: 2023-09-20 15:05:01
앞으로
1071명이 탐색했습니다.
트랜스포머의 성능이 왜 이렇게 좋은가요? 많은 대규모 언어 모델에 제공되는 상황 내 학습 기능은 어디에서 왔습니까? 인공지능 분야에서는 트랜스포머가 딥러닝의 지배적인 모델로 자리 잡았지만, 그 뛰어난 성능에 대한 이론적 근거는 충분히 연구되지 않았습니다.

최근 Google AI, ETH Zurich 및 Google DeepMind 연구원들의 새로운 연구에서는 미스터리에 대한 답을 밝히려고 시도했습니다. 새로운 연구에서 그들은 변압기를 역설계하고 몇 가지 최적화 방법을 찾았습니다. 논문 "Transformers에서 메사 최적화 알고리즘 발견": 이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.
                                                            논문 링크: https://arxiv.org/abs/2309.05858

저자는 일반적인 자기회귀 손실을 최소화하는 것이 Transformer의 순방향 전달에서 발생함을 증명했습니다. 에서 실행되는 보조 그래디언트 기반 최적화 알고리즘입니다. 이 현상은 최근 "메사 최적화"라고 불립니다. 또한 연구진은 결과적인 메사 최적화 알고리즘이 모델 크기와 관계없이 상황에 맞는 소규모 학습 기능을 나타냄을 발견했습니다. 따라서 새로운 결과는 이전에 대규모 언어 모델에서 나타난 소규모 학습의 원칙을 보완합니다.

연구원들은 Transformers의 성공이 순방향 패스에서 메사 최적화 알고리즘을 구현하는 아키텍처적 편견, 즉 (i) 내부 학습 목표 정의 및 (ii) 최적화에 기반을 두고 있다고 믿습니다. ㅋㅋㅋ                                               . 입력 시퀀스로 s_1, . . , s_t는 시간 단계 t로 처리되고, Transformer는 (i) 입력-대상 연관 쌍으로 구성된 내부 훈련 세트를 생성하고, (ii) 결과 데이터 세트를 통해 내부 목적 함수를 정의하며, 이는 내부 모델의 성능을 측정하는 데 사용됩니다. 가중치 W 사용, (iii) 이 목표를 최적화하고 학습된 모델을 사용하여 미래 예측을 생성합니다

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

. 이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.이 연구의 기여는 다음과 같습니다.

von Oswald 등의 이론을 일반화하고 Transformer가 회귀 예측의 그라데이션 기반 방법을 사용하여 내부적으로 구성된 목표를 이론적으로 최적화할 수 있는 방법을 보여줍니다. 시퀀스의 다음 요소입니다.

실험적으로 역설계된 Transformer는 간단한 시퀀스 모델링 작업에 대해 교육을 받았으며 순방향 전달이 2단계 알고리즘을 구현한다는 강력한 증거를 발견했습니다. (i) 그룹화 및 복사 마커를 통한 초기 self-attention 레이어는 내부 교육 데이터 세트를 구축하므로 내부 훈련 데이터 세트를 암시적으로 구축합니다. 내부 목적 함수를 정의하고 (ii) 더 깊은 수준에서 이러한 목표를 최적화하여 예측을 생성합니다.
  • LLM과 유사하게 실험에 따르면 간단한 자동 회귀 훈련 모델도 상황 학습자가 될 수 있으며 즉각적인 조정은 LLM의 상황 학습을 개선하는 데 중요하며 특정 환경에서도 성능을 향상할 수 있습니다.
  • Attention 레이어가 내부 목적 함수를 암시적으로 최적화하려고 한다는 발견에서 영감을 받아 저자는 단일 그래디언트 단계를 수행하는 대신 최소 제곱 최적화 문제를 효과적으로 해결할 수 있는 새로운 유형의 Attention 레이어인 메사 레이어를 소개합니다. 최적성을 달성하기 위해. 실험에 따르면 단일 메사 레이어는 간단한 순차 작업에서 심층 선형 및 소프트맥스 셀프 어텐션 트랜스포머보다 성능이 뛰어나면서도 더 많은 해석 가능성을 제공하는 것으로 나타났습니다.
  • 예비 언어 모델링 실험 후, 표준 self-attention 레이어를 메사 레이어로 대체하여 유망한 결과를 얻었으며 이 레이어가 강력한 상황별 학습 기능을 가지고 있음을 입증했습니다.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

  • 상황에 맞게 소규모 작업을 해결하도록 명시적으로 훈련된 변환기가 경사하강법(GD) 알고리즘을 구현할 수 있음을 보여주는 최근 연구를 기반으로 합니다. 여기에서 저자는 이러한 결과가 LLM 교육에 대한 일반적인 접근 방식인 자동 회귀 시퀀스 모델링으로 일반화됨을 보여줍니다.

먼저 각 시퀀스가 ​​서로 다른 W*에 의해 생성되는 단순 선형 역학에 대해 훈련된 변환기를 분석하여 교차 시퀀스 기억을 방지합니다. 이 간단한 설정에서 저자는 메사 데이터 세트를 생성한 다음 사전 처리된 GD를 사용하여 메사 대상을 최적화하는 변환기를 시연합니다.
이 연구는 인접한 시퀀스 요소를 집계하는 토큰 구조에서 심층 변환기를 훈련합니다. 흥미롭게도 이 간단한 전처리로 인해 매우 희박한 가중치 행렬이 생성되어(가중치의 1% 미만이 0이 아님) 역설계된 알고리즘이 생성됩니다.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

단층 선형 셀프 어텐션의 경우 가중치는 하나의 GD 단계에 해당합니다. 심층 변압기의 경우 해석이 어려워집니다. 이 연구는 선형 조사에 의존하고 숨겨진 활성화가 자기회귀 목표 또는 전처리된 입력을 예측하는지 여부를 조사합니다.

흥미롭게도 두 가지 탐지 방법의 예측 가능성은 네트워크 깊이가 증가함에 따라 점차 향상됩니다. 이 발견은 전처리된 GD가 모델에 숨겨져 있음을 시사합니다. 그림 2: 훈련된 선형 self-attention 레이어의 역엔지니어링.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

연구에 따르면 학습된 학습률 θ뿐만 아니라 학습된 초기 가중치 W_0 세트를 포함하여 모든 자유도를 구성에 사용할 때 훈련 레이어가 완벽하게 맞춰질 수 있다는 사실이 밝혀졌습니다. 중요한 것은 그림 2에서 볼 수 있듯이 학습된 1단계 알고리즘이 여전히 단일 메사 레이어보다 훨씬 더 나은 성능을 발휘한다는 것입니다.

간단한 가중치 설정 하에서 이 레이어가 여기서 연구한 작업을 최적으로 해결할 수 있다는 것을 기본 최적화를 통해 쉽게 찾을 수 있음을 알 수 있습니다. 이 결과는 메사 최적화에 유리한 하드 코딩된 유도 바이어스의 이점을 보여줍니다.

다층 사례에 대한 이론적 통찰을 바탕으로 먼저 Transformer에만 주목하여 심층 선형 및 소프트맥스를 분석합니다. 저자는 W_0 = 0 선택에 해당하는 4채널 구조
에 따라 입력 형식을 지정합니다.

단일 레이어 모델과 마찬가지로 저자는 훈련된 모델의 가중치에서 명확한 구조를 확인합니다. 첫 번째 리버스 엔지니어링 분석으로 이 연구는 이 구조를 활용하고 레이어 헤더당(3200 대신) 16개의 매개변수를 포함하는 알고리즘(RevAlg-d, 여기서 d는 레이어 수를 나타냄)을 구축합니다. 저자는 이 압축되었지만 복잡한 표현이 훈련된 모델을 설명할 수 있다는 것을 발견했습니다. 특히 실제 Transformer와 RevAlg-d 가중치 사이를 거의 무손실 방식으로 보간할 수 있습니다.
이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

RevAlg-d 표현식은 소수의 자유 매개변수를 사용하여 훈련된 다층 변환기를 설명하지만 이를 메사 최적화 알고리즘으로 해석하기는 어렵습니다. 따라서 저자는 가설화된 메사 최적화 알고리즘의 특성을 찾기 위해 선형 회귀 프로빙 분석(Alain & Bengio, 2017; Akyürek et al., 2023)을 사용했습니다.

그림 3에 표시된 Deep Linear Self-Attention Transformer에서 두 프로브 모두 선형적으로 디코딩할 수 있으며 시퀀스 길이와 네트워크 깊이가 증가함에 따라 디코딩 성능이 향상되는 것을 볼 수 있습니다. 따라서 기본 최적화는 메사 최적화 문제의 조건수를 개선하면서 원래의 메사 목적 Lt(W)에서 계층별로 하강하는 하이브리드 알고리즘을 발견합니다. 이로 인해 메사 대물렌즈 Lt(W)가 급격히 감소합니다. 또한 깊이가 증가함에 따라 성능이 크게 향상되는 것을 볼 수 있습니다.

따라서 자동 회귀 메사 목표 Lt(W)의 급격한 감소는 더 나은 전처리된 데이터에 대한 단계적(교차 계층) 메사 최적화에 의해 달성된다고 간주할 수 있습니다. 그림 3: 리버스 엔지니어링 내장 입력을 위한 다층 변환기 교육.
이는 변환기가 내장된 토큰에 대해 교육을 받으면 메사 최적화를 통해 예측한다는 것을 보여줍니다. 흥미롭게도 시퀀스 요소가 직접 주어지면 변환기는 요소를 그룹화하여 자체적으로 토큰을 구성하는데, 연구팀은 이를 "메사 데이터 세트 생성"이라고 부릅니다.
결론

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

이 연구는 Transformer 모델이 표준 자동 회귀 목표 하에 시퀀스 예측 작업을 훈련할 때 경사 기반 추론 알고리즘을 개발할 수 있음을 보여줍니다. 따라서 다중 작업, 메타 학습 설정에서 얻은 최첨단 결과를 기존의 자가 감독 LLM 교육 설정으로 전송할 수도 있습니다.

또한 연구에 따르면 학습된 자동 회귀 추론 알고리즘의 용도를 변경하여 재교육 없이 지도 상황별 학습 작업을 해결하고 단일 통합 프레임워크 내에서 결과를 설명할 수 있다는 사실이 밝혀졌습니다.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

그렇다면 이것이 상황 내 학습과 어떤 관련이 있나요? 이 연구에서는 자동 회귀 시퀀스 작업에 대한 변환기를 훈련한 후 적절한 메사 최적화를 달성하고 따라서 미세 조정 없이 몇 번의 상황 학습을 수행할 수 있다고 믿습니다.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

본 연구에서는 LLM에도 메사 최적화가 존재한다고 가정하여 상황별 학습 능력을 향상시킵니다. 흥미롭게도 이 연구에서는 LLM에 대한 프롬프트를 효과적으로 적용하면 상황별 학습 능력이 크게 향상될 수 있다는 점도 관찰했습니다.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.

관심 있는 독자는 논문의 원문을 읽고 연구 내용에 대해 자세히 알아볼 수 있습니다.

참조 콘텐츠:
https://www.reddit.com/r/MachineLearning/comments/16jc2su/r_uncovering_mesaoptimization_algorithms_in/
https://twitter.com/ 오스왈드조/status/1701873029100241241

위 내용은 이론적 기반을 바탕으로 심층적인 최적화를 수행할 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:jiqizhixin.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿