> 기술 주변기기 > 일체 포함 > 다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

王林
풀어 주다: 2023-04-14 16:10:03
앞으로
1093명이 탐색했습니다.

최근 몇 년 동안 인공 지능 분야의 대부분의 혁신은 자기 지도 학습에 의해 주도되었습니다. 예를 들어 BERT에서 제안된 MLM(Masked Language Model)은 텍스트의 일부 단어를 마스킹한 다음 이를 다시 수행합니다. - 레이블이 지정되지 않은 대규모 텍스트 데이터를 예측할 수 있습니다. 이는 모델을 훈련하는 데 사용될 수 있으며, 이는 이후 대규모 사전 훈련 모델의 새로운 시대를 열었습니다. 그러나 자기 지도 학습 알고리즘에는 일반적으로 단일 형식(예: 이미지, 텍스트, 음성 등)의 데이터에만 적합하며 대규모 데이터에서 학습하려면 많은 컴퓨팅 성능이 필요합니다. 대조적으로, 인간은 현재 AI 모델보다 훨씬 더 효율적으로 학습하며 다양한 유형의 데이터로부터 학습할 수 있습니다.

Meta AI는 2022년 1월 데이터의 세 가지 양식(음성, 비전, 텍스트)을 하나의 프레임워크로 통합하는 자기 지도 학습 프레임워크 data2vec을 출시했습니다. 다중양식을 통합하려는 경향. 최근 Meta AI 출시 data2cec 버전 2.0 . 이는 주로 성능 측면에서 이전 세대를 향상시켰습니다. 동일한 정확도로 훈련 속도를 다른 세대와 비교합니다. 알고리즘이 최대 16배 향상되었습니다!

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

논문 링크: ​https://ai.facebook.com/research/publications/e 효율적 -자기 감독 학습-상황에 맞는 대상 표현-비전-언어 및 언어

코드 링크:​https://github.com /facebookresearch/fairseq/tree/main/examples/data2vec

data2vec 1.0

현재 대부분의 기계 학습 모델은 여전히 ​​지도 학습 모델을 기반으로 하고 있습니다. 주석자는 대상 데이터에 레이블을 지정하지만 일부 작업(예: 지구상에 존재하는 수천 개의 인간 언어)에서는 레이블이 지정된 데이터를 수집하는 것이 불가능합니다.

반면, 자기주도 학습은 모델에게 무엇이 옳고 그른지 알려줄 필요가 없고, 기계가 세상을 관찰함으로써 이미지, 음성, 텍스트의 구조를 학습할 수 있게 해줍니다. 관련 연구 결과는 음성(예: wave2vec 2.0), 컴퓨터 비전(예: 마스크 자동 인코더) 및 자연어 처리(예: BERT)의 개발을 촉진했습니다.

data2vec의 주요 아이디어는 먼저 교사 네트워크를 구축하고 먼저 이미지, 텍스트 또는 음성에서 대상 표현을 계산하는 것입니다. 그런 다음 데이터는 입력의 일부를 모호하게 하기 위해 마스킹되고, 교사 모델에서 얻은 표현을 예측하기 위해 학생 네트워크에서 프로세스가 반복됩니다.

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

즉, 학생 모델은 "불완전한 입력 정보"를 수용하면서 "완전한 입력 데이터"의 표현만 예측할 수 있습니다. 두 모델의 일관성을 보장하기 위해 두 모델의 매개변수가 공유되지만 Teacher 모델의 매개변수는 학습 초기 단계에서 더 빠르게 업데이트됩니다. 실험 결과 측면에서 data2vec은 음성, 시각, 텍스트 및 기타 작업에서 기본 모델에 비해 성능이 크게 향상되었습니다.

data2vec 2.0

data2vec은 음성, 시각, 언어의 세 가지 모달 데이터 학습을 통합하는 일반적인 자기 지도 학습 프레임워크를 제안하며, data2vec2.0은 주로 문제점을 해결합니다. 즉, 자기 지도 모델을 구축하려면 훈련을 완료하기 위해 많은 양의 GPU 컴퓨팅 성능이 필요합니다. 원래 data2vec 알고리즘과 유사하게 data2vec 2.0은 이미지의 픽셀, 텍스트 세그먼트의 단어 또는 음성을 예측하는 대신 데이터의 상황별 표현 또는 신경망의 레이어를 예측합니다.

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

일반적인 다른 알고리즘과 달리 이러한 소위 대상 표현은 상황에 따라 다릅니다. 즉, 알고리즘은 전체 훈련 예제를 고려해야 합니다.

예를 들어, 모델은 Bank가 포함된 전체 문장을 기반으로 Bank라는 단어의 표현을 학습하므로, 구체적으로 "financial"을 지칭하는지 구별하는 등 단어의 올바른 의미를 더 쉽게 추론할 수 있습니다. 기관"또는 "강 옆 땅"”. 연구원들은 상황에 맞는 목표가 더 풍부한 학습 작업을 촉진하고 data2vec 2.0이 다른 알고리즘보다 더 빠르게 학습할 수 있게 해줄 것이라고 믿습니다.

data2vec 2.0은 다음 세 가지 방법으로 원본 data2vec 알고리즘의 효율성을 향상합니다.

1. 특정 훈련 예제에 대한 대상 표현을 구축하고 마스크에서 이 표현을 재사용합니다. 버전. 마스크 버전에서는 학습 예제의 여러 부분이 무작위로 숨겨집니다. 그런 다음 두 버전에서 학습된 표현은 학생 모델에 공급되어 서로 다른 마스크 버전에 대해 동일한 상황화된 목표 표현을 예측하여 목표 표현을 생성하는 데 필요한 계산 노력을 효과적으로 상각합니다.

2. MAE(Masked Autoencoder)와 유사하게 학생 모델의 인코더 네트워크는 훈련 예제의 공백 부분을 작동하지 않습니다. 이미지 실험에서는 섹션의 약 80%가 비어 있어 계산 주기가 크게 절약되었습니다.

3. 더 이상 Transformer 네트워크에 의존하지 않고 다층 컨볼루셔널 네트워크에 의존하는 보다 효과적인 디코더 모델이 사용됩니다.

실험 섹션

data2vec 2.0이 data2vec 및 기타 유사한 알고리즘보다 얼마나 더 효율적인지 더 직관적으로 이해하기 위해 연구원들은 컴퓨터 비전, 음성 및 텍스트 작업과 관련된 벤치마크에 대한 광범위한 실험을 수행했습니다. 실험에서는 모델의 사전 학습에 소요되는 최종 정확도와 시간을 주로 고려하여 알고리즘의 실행 속도를 측정하기 위해 실험 환경은 모두 동일한 하드웨어(GPU 모델, 수량 등)에 있었습니다.

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

연구원들은 컴퓨터 비전 작업에서 모델이 이미지 표현을 학습하는 데이터세트인 표준 ImageNet-1K 이미지 분류 벤치마크에서 data2vec 2.0을 평가했습니다. 실험 결과에 따르면 data2vec 2.0은 MAE(Masked Autoencoder)의 정확도와 동일할 수 있지만 16배 더 빠릅니다.

data2vec 2.0 알고리즘에 계속해서 더 많은 실행 시간을 제공하면 MAE보다 더 높은 정확도를 달성하면서도 여전히 더 빠를 수 있습니다.

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

음성 작업에 대해 연구진은 LibriLanguage 음성 인식 벤치마크에서 테스트한 결과 wave2vec 2.0보다 11배 이상 정확했습니다.

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!

자연어 처리 작업의 경우 연구원들은 GLUE(General Language Understanding Evaluation) 벤치마크에서 data2vec 2.0을 평가하여 훈련 시간의 절반만에 BERT를 재구현한 RoBERTa와 동일한 정확도를 달성했습니다.

다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!


위 내용은 다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿