Transformer는 미리 생각할 수도 있지만 실제로는 그렇게 하지 않습니다.

PHPz
풀어 주다: 2024-04-22 17:22:07
앞으로
373명이 탐색했습니다.

향후 토큰에 대한 언어 모델 계획이 있나요? 이 논문은 당신에게 답을 제공합니다.

"Yann LeCun이 보지 못하게 하세요."

Transformer는 미리 생각할 수도 있지만 실제로는 그렇게 하지 않습니다.

Yann LeCun은 너무 늦었다고 말했습니다. 그는 이미 그것을 보았습니다. 오늘 소개할 "르쿤 필독서" 논문에서 논의되는 질문은 '트랜스포머는 사려깊은 언어 모델인가?'이다. 특정 위치에서 추론을 수행할 때 다음 위치를 예상합니까?

이 연구의 결론은 다음과 같습니다. Transformer에는 이러한 기능이 있지만 실제로는 그렇지 않습니다.

인간은 말하기 전에 생각한다는 것을 우리 모두는 알고 있습니다. 10년간의 언어학 연구에 따르면 인간은 언어를 사용할 때 다가오는 언어 입력, 단어 또는 문장을 정신적으로 예측합니다.

인간과 달리 현재 언어 모델은 "말"할 때 각 토큰에 고정된 계산량을 할당합니다. 그래서 우리는 묻지 않을 수 없습니다: 언어 모델이 인간처럼 미리 생각할 것인가?

최근 연구에 따르면 언어 모델의 숨겨진 상태를 조사하여 다음 토큰을 예측할 수 있는 것으로 나타났습니다. 흥미롭게도 모델의 숨겨진 상태에 대한 선형 프로브를 사용하면 미래 토큰에 대한 모델의 출력을 어느 정도 예측할 수 있으며 미래 출력을 예측 가능하게 수정할 수 있습니다. 최근 일부 연구에서는 언어 모델의 숨겨진 상태를 조사하여 다음 토큰을 예측하는 것이 가능하다는 사실을 보여주었습니다. 흥미롭게도 모델의 숨겨진 상태에 대한 선형 프로브를 사용하면 미래 토큰에 대한 모델의 출력을 어느 정도 예측할 수 있으며 미래 출력을 예측 가능하게 수정할 수 있습니다.

이러한 결과는 특정 시간 단계에서 모델 활성화가 미래 출력을 적어도 부분적으로 예측한다는 것을 시사합니다.

그러나 우리는 아직 그 이유를 모릅니다. 이것은 단지 데이터의 우연한 속성입니까, 아니면 모델이 의도적으로 미래 시간 단계에 대한 정보를 준비하기 때문입니까(그러나 이는 현재 위치에서 모델의 성능에 영향을 미칩니다).

이 질문에 답하기 위해 콜로라도 볼더 대학교와 코넬 대학교의 연구자 3명이 최근 "Will Language Models Plan for Future Tokens?"라는 제목의 기사를 발표했습니다. "명제.

Transformer는 미리 생각할 수도 있지만 실제로는 그렇게 하지 않습니다.

논문 제목: Do Language Models Plan for Future Tokens?

논문 주소: https://arxiv.org/pdf/2404.00859.pdf

연구 개요

그들은 훈련 중에 그라데이션이 현재 토큰 위치 손실에 대비해 가중치를 최적화할 뿐만 아니라 나중에 시퀀스에서 토큰도 최적화합니다. 그들은 추가로 질문했습니다: 현재 변환기 가중치가 현재 토큰과 미래 토큰에 리소스를 어느 비율로 할당합니까?

그들은 두 가지 가능성, 즉 사전 캐싱 가설과 탐색경로 가설을 고려했습니다.

Transformer는 미리 생각할 수도 있지만 실제로는 그렇게 하지 않습니다.

사전 캐싱 가설은 변환기가 현재 시간 단계의 추론 작업과 관련이 없지만 향후 시간 단계 t + τ에 유용할 수 있는 시간 단계 t의 특징을 계산한다는 것을 의미하는 반면, 이동 경로 가설은 는 시간 단계 t와 가장 관련성이 높은 기능이 시간 단계 t + τ에서 가장 유용한 기능과 이미 동일하다는 것을 의미합니다.

어떤 가설이 맞는지 평가하기 위해 팀은 현재 위치의 손실 기울기를 이전 위치의 숨겨진 상태로 전파하지 않는 근시 훈련 방식을 제안했습니다.

위 가정과 해법에 대한 수학적 정의와 이론적 설명은 원본 논문을 참조하세요.

실험 결과

언어 모델이 사전 캐싱을 직접 구현하는 것이 가능한지 이해하기 위해 명시적 사전 캐싱을 통해서만 작업을 수행할 수 있는 합성 시나리오를 설계했습니다. 그들은 모델이 다음 토큰에 대한 정보를 미리 계산해야 하는 작업을 구성했습니다. 그렇지 않으면 단일 패스에서 정답을 정확하게 계산할 수 없습니다. 팀이 구성한 합성 데이터 세트의 정의.

Transformer는 미리 생각할 수도 있지만 실제로는 그렇게 하지 않습니다.

이 합성 장면에서 팀은 변환기가 사전 캐시를 학습할 수 있다는 명확한 증거를 발견했습니다. 변환기 기반 시퀀스 모델은 손실을 최소화하기 위해 정보를 미리 계산해야 할 때 이를 수행합니다.

그런 다음 자연어 모델(사전 훈련된 GPT-2 변형)이 이동 경로 가설을 나타낼지 사전 캐싱 가설을 나타낼지 조사했습니다. 근시 훈련 계획에 대한 실험에서는 이 설정에서 사전 캐싱이 훨씬 덜 자주 발생하므로 결과가 탐색경로 가설에 더 편향되어 있음을 보여줍니다.

ㅋㅋ                                                                                                    토큰 위치에 따른 원래 GPT-2 모델과 근시안적인 GPT-2 모델의 손실과 차이점을 살펴보겠습니다. 하라 GPT-2 원시적이고 짧은 크기의 훈련을 통해 얻은 교차 엔트로피 손실을 검증합니다.

그래서 팀은 다음과 같이 주장합니다. 실제 언어 데이터에서 언어 모델은 미래 정보를 상당 부분 준비하지 않습니다. 대신, 다음 토큰을 예측하는 데 유용한 컴퓨팅 기능이며, 이는 향후 단계에도 유용할 것으로 입증됩니다.

Transformer는 미리 생각할 수도 있지만 실제로는 그렇게 하지 않습니다.

팀은 "언어 데이터에서 다음 토큰 손실을 탐욕스럽게 최적화하는 것과 미래 예측 성능을 보장하는 것 사이에는 큰 상충 관계가 없다는 것을 관찰했습니다."라고 말했습니다. Transformer가 선견지명을 가질 수 있는지에 대한 질문은 본질적으로 데이터 질문인 것 같습니다.

미래에는 적절한 데이터 처리 방법을 사용하여 언어 모델에 인간처럼 미리 생각할 수 있는 능력을 부여할 수 있을 것이라고 생각됩니다.

위 내용은 Transformer는 미리 생각할 수도 있지만 실제로는 그렇게 하지 않습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:jiqizhixin.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!