목차
Recurrent Memory Transformer
계산 효율성
기억 작업
실험 결과
기술 주변기기 일체 포함 ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

May 13, 2023 pm 02:07 PM
chatgpt 모델 rmt

ChatGPT 또는 Transformer 클래스 모델에는 잊어버리기가 너무 쉽다는 치명적인 결함이 있습니다. 입력 시퀀스의 토큰이 컨텍스트 창 임계값을 초과하면 후속 출력 콘텐츠가 이전 논리와 일치하지 않습니다.

ChatGPT는 4000개 토큰(약 3000단어)의 입력만 지원할 수 있습니다. 새로 출시된 GPT-4도 최대 32000개의 토큰 창만 지원합니다. 입력 시퀀스의 길이를 계속 늘리면 계산 복잡도가 높아집니다. 이차 성장.

최근 DeepPavlov, AIRI 및 London Institute of Mathematical Sciences의 연구원들은 RMT(Recurrent Memory Transformer)를 사용하여 높은 메모리 검색을 유지하면서 BERT의 유효 컨텍스트 길이를 "전례 없는 200만 토큰"으로 늘리는 기술 보고서를 발표했습니다. 정확성.

문서 링크: https://www.php.cn/link/459ad054a6417248a1166b30f6393301

이 방법은 로컬 및 전역 정보를 저장 및 처리할 수 있으며 루프를 사용하여 입력 시퀀스의 세그먼트 간에 정보가 흐르도록 할 수 있습니다.

실험 섹션에서는 자연어 이해 및 생성 작업에서 장기적인 종속성 처리를 향상하여 메모리 집약적인 애플리케이션에 대한 대규모 컨텍스트 처리를 가능하게 하는 놀라운 잠재력을 가진 이 접근 방식의 효율성을 보여줍니다.

그러나 세상에 공짜 점심은 없습니다. RMT는 메모리 소비를 늘리지 않고 거의 무한한 시퀀스 길이로 확장할 수 있지만 RNN에는 여전히 메모리 감소 문제가 있으며 추론 시간이 더 길어집니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

그러나 일부 네티즌들이 해결책을 제안했는데, 장기 기억에는 RMT를 사용하고 단기 기억에는 Large context를 사용하고 밤/유지 보수 중에 모델 훈련을 수행하는 것입니다.

Recurrent Memory Transformer

팀은 2022년에 RMT(Recurrent Memory Transformer) 모델을 제안했습니다. 입력 또는 출력 시퀀스에 특수 메모리 토큰을 추가한 후 모델을 학습시켜 메모리 연산 및 시퀀스 표현 처리를 제어하는 ​​방식입니다. 원래 Transformer 모델을 변경하지 않고도 새로운 메모리 메커니즘을 구현할 수 있습니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

논문 링크: https://arxiv.org/abs/2207.06881

출판 컨퍼런스: NeurIPS 2022

Transformer-XL에 비해 RMT는 메모리가 덜 필요하고 더 긴 시퀀스의 작업을 처리할 수 있습니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

구체적으로 RMT는 m개의 실수 값을 갖는 학습 가능한 벡터로 구성됩니다. 너무 긴 입력 시퀀스는 여러 세그먼트로 나누어집니다. 메모리 벡터는 첫 번째 세그먼트 임베딩으로 사전 설정되어 세그먼트 토큰과 함께 처리됩니다. .

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

2022년에 제안된 원래 RMT 모델과 달리 BERT와 같은 순수 인코더 모델의 경우 메모리는 세그먼트 시작 부분에 한 번만 추가되며 디코딩 모델은 메모리를 읽기 부분과 쓰기 부분으로 나눕니다.

각 시간 단계와 세그먼트에서 다음과 같이 루프합니다. 여기서 N은 Transformer의 레이어 수, t는 시간 단계, H는 세그먼트입니다

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

입력 시퀀스의 세그먼트를 순서대로 처리한 후, 재귀적 연결을 달성하기 위해 연구원들은 현재 세그먼트의 메모리 토큰 출력을 다음 세그먼트의 입력으로 전달합니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

RMT의 메모리와 루프는 전역 메모리 토큰에만 기반을 두고 있습니다. 백본 Transformer 모델을 변경하지 않고 유지하여 RMT 메모리 향상 기능이 모든 Transformer 모델과 호환되도록 합니다.

계산 효율성

공식에 따라 다양한 크기와 시퀀스 길이의 RMT 및 Transformer 모델에 필요한 FLOP를 추정할 수 있습니다.

어휘 크기, 레이어 수, 은닉 크기, 중간 은닉 크기 및 매개변수 구성에 대한 연구 우리는 OPT 모델의 구성을 따르고 RMT 주기의 영향을 고려하여 순방향 전달 후 FLOP 수를 계산했습니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

선형 확장은 입력 시퀀스를 여러 세그먼트로 나누고 세그먼트 경계 내에서만 모든 주의 행렬을 계산함으로써 달성됩니다. 결과는 세그먼트 길이가 고정되면 RMT의 추론 속도가 더 좋아진다는 것을 알 수 있습니다. 모든 모델 크기에 대해 모두 선형으로 성장합니다.

FFN 레이어의 계산량이 많기 때문에 더 큰 Transformer 모델은 시퀀스 길이에 비해 2차 성장 속도가 느린 경향이 있습니다. 그러나 길이가 32,000보다 큰 매우 긴 시퀀스에서는 FLOP가 2차 성장 상태로 돌아갑니다. .

2개 이상의 세그먼트(이 연구에서는 512개보다 큼)가 있는 시퀀스의 경우 RMT는 비순환 모델보다 FLOP가 낮습니다. 작은 모델에서는 FLOP의 효율성이 최대 295배 증가할 수 있습니다. OPT-175B와 같은 성능은 29배 향상될 수 있습니다.

기억 작업

기억 능력을 테스트하기 위해 연구원들은 모델이 간단한 사실과 기본 추론을 기억해야 하는 합성 데이터세트를 구축했습니다.

과제 입력은 하나 이상의 사실과 이 모든 사실로만 답할 수 있는 질문으로 구성됩니다.

작업의 난이도를 높이기 위해 질문이나 답변과 관련이 없는 자연어 텍스트도 작업에 추가됩니다. 이러한 텍스트는 노이즈로 간주될 수 있으므로 실제로 모델의 작업은 사실과 사실을 분리하는 것입니다. 관련 없는 텍스트를 선택하고 사실 텍스트를 사용하여 질문에 답하세요.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

사실 메모리

장기간 메모리에 정보를 쓰고 저장하는 RMT의 능력을 테스트합니다. 가장 간단한 경우 사실은 입력의 시작 부분에 있고 질문은 모델이 모든 입력을 한 번에 받아들일 수 없을 때까지 질문과 답변 사이에 관련 없는 텍스트의 양을 점차적으로 늘립니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

사실 탐지 및 메모리

사실 탐지는 사실을 입력의 임의 위치로 이동하여 작업의 난이도를 높이고, 모델이 먼저 관련 없는 텍스트와 사실을 구별하여 메모리에 기록하도록 요구합니다. 그럼 마지막에 질문에 대답해 보세요.

기억된 사실에 기초한 추론

기억의 또 다른 중요한 작동은 기억된 사실과 현재의 맥락을 활용하여 추론하는 것입니다.

이 기능을 평가하기 위해 연구원들은 두 가지 사실이 생성되어 입력 시퀀스에 무작위로 배치되는 더 복잡한 작업을 도입했습니다. 올바른 사실로 질문에 대답하려면 시퀀스 끝에 묻는 질문을 선택해야 합니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

실험 결과

연구원들은 모든 실험에서 HuggingFace Transformers의 사전 훈련된 Bert 기반 케이스 모델을 RMT의 백본으로 사용했으며 모든 모델은 메모리 크기 10으로 향상되었습니다.

4~8개의 NVIDIA 1080Ti GPU에서 훈련하고 평가하세요. 더 긴 시퀀스의 경우 단일 40GB NVIDIA A100으로 전환하여 평가를 가속화하세요.

Curriculum Learning

연구원들은 교육 일정을 사용하면 솔루션의 정확성과 안정성이 크게 향상될 수 있음을 관찰했습니다.

훈련이 수렴된 후 세그먼트를 추가하여 작업 길이를 늘리고 이상적인 입력 길이에 도달할 때까지 과정 학습 과정을 계속하세요.

단일 세그먼트에 맞는 시퀀스로 실험을 시작하세요. BERT의 특수 토큰 3개와 메모리 자리 표시자 10개가 모델 입력에서 유지되어 총 크기가 512가 되므로 실제 세그먼트 크기는 499입니다.

짧은 작업을 훈련한 후 RMT는 더 적은 훈련 단계를 사용하여 완벽한 솔루션으로 수렴하기 때문에 긴 작업을 해결하기가 더 쉽다는 것을 알 수 있습니다.

외삽 능력

다양한 시퀀스 길이에 대한 RMT의 일반화 능력을 관찰하기 위해 연구원들은 더 긴 길이의 작업을 해결하기 위해 다양한 수의 세그먼트에 대해 훈련된 모델을 평가했습니다.

ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨

모델이 짧은 작업에서는 잘 작동하는 경우가 많지만 긴 시퀀스에서 모델을 훈련한 후에는 단일 세그먼트 추론 작업을 처리하기가 어려워집니다.

가능한 설명은 작업 크기가 한 세그먼트를 초과하기 때문에 모델이 첫 번째 세그먼트에서 문제 예측을 중단하여 결과적으로 품질이 저하된다는 것입니다.

흥미롭게도 훈련 세그먼트 수가 증가함에 따라 RMT의 더 긴 시퀀스에 대한 일반화 능력도 나타납니다. 5개 이상의 세그먼트를 훈련한 후 RMT는 작업을 거의 두 배 더 오래 수행할 수 있습니다. 완벽한 일반화.

일반화의 한계를 테스트하기 위해 연구원들은 검증 작업의 크기를 4096개 세그먼트(예: 2,043,904개 토큰)로 늘렸습니다.

RMT는 "감지 및 기억" 작업이 가장 간단하고 추론 작업이 가장 복잡한 긴 시퀀스에서 놀라울 정도로 잘 유지됩니다.

참조: https://www.php.cn/link/459ad054a6417248a1166b30f6393301

위 내용은 ChatGPT 기억상실증을 완전히 해결해보세요! Transformer 입력 제한 돌파: 200만 개의 유효 토큰을 지원하는 것으로 측정됨의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

이제 ChatGPT를 사용하면 무료 사용자가 일일 한도가 있는 DALL-E 3를 사용하여 이미지를 생성할 수 있습니다. 이제 ChatGPT를 사용하면 무료 사용자가 일일 한도가 있는 DALL-E 3를 사용하여 이미지를 생성할 수 있습니다. Aug 09, 2024 pm 09:37 PM

DALL-E 3는 이전 모델보다 대폭 개선된 모델로 2023년 9월 공식 출시되었습니다. 복잡한 디테일의 이미지를 생성할 수 있는 현재까지 최고의 AI 이미지 생성기 중 하나로 간주됩니다. 그러나 출시 당시에는 제외되었습니다.

세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. May 07, 2024 pm 04:13 PM

기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. Jun 01, 2024 pm 10:03 PM

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! 공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! May 06, 2024 pm 04:13 PM

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라

FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 Apr 26, 2024 am 11:37 AM

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.

Yolov10: 자세한 설명, 배포, 적용이 모두 한곳에! Yolov10: 자세한 설명, 배포, 적용이 모두 한곳에! Jun 07, 2024 pm 12:05 PM

1. 소개 지난 몇 년 동안 YOLO는 계산 비용과 감지 성능 간의 효과적인 균형으로 인해 실시간 객체 감지 분야에서 지배적인 패러다임이 되었습니다. 연구원들은 YOLO의 아키텍처 설계, 최적화 목표, 데이터 확장 전략 등을 탐색하여 상당한 진전을 이루었습니다. 동시에 사후 처리를 위해 NMS(비최대 억제)에 의존하면 YOLO의 엔드투엔드 배포가 방해되고 추론 대기 시간에 부정적인 영향을 미칩니다. YOLO에서는 다양한 구성 요소의 설계에 포괄적이고 철저한 검사가 부족하여 상당한 계산 중복이 발생하고 모델 기능이 제한됩니다. 이는 최적이 아닌 효율성을 제공하며 성능 향상을 위한 상대적으로 큰 잠재력을 제공합니다. 이 작업의 목표는 사후 처리와 모델 아키텍처 모두에서 YOLO의 성능 효율성 경계를 더욱 향상시키는 것입니다. 이를 위해

단일 카드는 듀얼 카드보다 Llama를 70B 더 빠르게 실행합니다. Microsoft는 A100에 FP6을 넣었습니다 | 단일 카드는 듀얼 카드보다 Llama를 70B 더 빠르게 실행합니다. Microsoft는 A100에 FP6을 넣었습니다 | Apr 29, 2024 pm 04:55 PM

FP8 이하의 부동 소수점 수량화 정밀도는 더 이상 H100의 "특허"가 아닙니다! Lao Huang은 모든 사람이 INT8/INT4를 사용하기를 원했고 Microsoft DeepSpeed ​​팀은 NVIDIA의 공식 지원 없이 A100에서 FP6을 실행하기 시작했습니다. 테스트 결과에 따르면 A100에 대한 새로운 방법 TC-FPx의 FP6 양자화는 INT4에 가깝거나 때로는 더 빠르며 후자보다 정확도가 더 높은 것으로 나타났습니다. 또한 오픈 소스로 제공되고 DeepSpeed와 같은 딥 러닝 추론 프레임워크에 통합된 엔드투엔드 대규모 모델 지원도 있습니다. 이 결과는 대형 모델 가속화에도 즉각적인 영향을 미칩니다. 이 프레임워크에서는 단일 카드를 사용하여 Llama를 실행하면 처리량이 듀얼 카드보다 2.65배 더 높습니다. 하나

See all articles