다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!
최근 몇 년 동안 인공 지능 분야의 대부분의 혁신은 자기 지도 학습에 의해 주도되었습니다. 예를 들어 BERT에서 제안된 MLM(Masked Language Model)은 텍스트의 일부 단어를 마스킹한 다음 이를 다시 수행합니다. - 레이블이 지정되지 않은 대규모 텍스트 데이터를 예측할 수 있습니다. 이는 모델을 훈련하는 데 사용될 수 있으며, 이는 이후 대규모 사전 훈련 모델의 새로운 시대를 열었습니다. 그러나 자기 지도 학습 알고리즘에는 일반적으로 단일 형식(예: 이미지, 텍스트, 음성 등)의 데이터에만 적합하며 대규모 데이터에서 학습하려면 많은 컴퓨팅 성능이 필요합니다. 대조적으로, 인간은 현재 AI 모델보다 훨씬 더 효율적으로 학습하며 다양한 유형의 데이터로부터 학습할 수 있습니다.
Meta AI는 2022년 1월 데이터의 세 가지 양식(음성, 비전, 텍스트)을 하나의 프레임워크로 통합하는 자기 지도 학습 프레임워크 data2vec을 출시했습니다. 다중양식을 통합하려는 경향. 최근 Meta AI 출시 data2cec 버전 2.0 . 이는 주로 성능 측면에서 이전 세대를 향상시켰습니다. 동일한 정확도로 훈련 속도를 다른 세대와 비교합니다. 알고리즘이 최대 16배 향상되었습니다!
논문 링크: https://ai.facebook.com/research/publications/e 효율적 -자기 감독 학습-상황에 맞는 대상 표현-비전-언어 및 언어
코드 링크:https://github.com /facebookresearch/fairseq/tree/main/examples/data2vec
data2vec 1.0
현재 대부분의 기계 학습 모델은 여전히 지도 학습 모델을 기반으로 하고 있습니다. 주석자는 대상 데이터에 레이블을 지정하지만 일부 작업(예: 지구상에 존재하는 수천 개의 인간 언어)에서는 레이블이 지정된 데이터를 수집하는 것이 불가능합니다.
반면, 자기주도 학습은 모델에게 무엇이 옳고 그른지 알려줄 필요가 없고, 기계가 세상을 관찰함으로써 이미지, 음성, 텍스트의 구조를 학습할 수 있게 해줍니다. 관련 연구 결과는 음성(예: wave2vec 2.0), 컴퓨터 비전(예: 마스크 자동 인코더) 및 자연어 처리(예: BERT)의 개발을 촉진했습니다.
data2vec의 주요 아이디어는 먼저 교사 네트워크를 구축하고 먼저 이미지, 텍스트 또는 음성에서 대상 표현을 계산하는 것입니다. 그런 다음 데이터는 입력의 일부를 모호하게 하기 위해 마스킹되고, 교사 모델에서 얻은 표현을 예측하기 위해 학생 네트워크에서 프로세스가 반복됩니다.
즉, 학생 모델은 "불완전한 입력 정보"를 수용하면서 "완전한 입력 데이터"의 표현만 예측할 수 있습니다. 두 모델의 일관성을 보장하기 위해 두 모델의 매개변수가 공유되지만 Teacher 모델의 매개변수는 학습 초기 단계에서 더 빠르게 업데이트됩니다. 실험 결과 측면에서 data2vec은 음성, 시각, 텍스트 및 기타 작업에서 기본 모델에 비해 성능이 크게 향상되었습니다.
data2vec 2.0
data2vec은 음성, 시각, 언어의 세 가지 모달 데이터 학습을 통합하는 일반적인 자기 지도 학습 프레임워크를 제안하며, data2vec2.0은 주로 문제점을 해결합니다. 즉, 자기 지도 모델을 구축하려면 훈련을 완료하기 위해 많은 양의 GPU 컴퓨팅 성능이 필요합니다. 원래 data2vec 알고리즘과 유사하게 data2vec 2.0은 이미지의 픽셀, 텍스트 세그먼트의 단어 또는 음성을 예측하는 대신 데이터의 상황별 표현 또는 신경망의 레이어를 예측합니다.
일반적인 다른 알고리즘과 달리 이러한 소위 대상 표현은 상황에 따라 다릅니다. 즉, 알고리즘은 전체 훈련 예제를 고려해야 합니다.
예를 들어, 모델은 Bank가 포함된 전체 문장을 기반으로 Bank라는 단어의 표현을 학습하므로, 구체적으로 "financial"을 지칭하는지 구별하는 등 단어의 올바른 의미를 더 쉽게 추론할 수 있습니다. 기관"또는 "강 옆 땅"”. 연구원들은 상황에 맞는 목표가 더 풍부한 학습 작업을 촉진하고 data2vec 2.0이 다른 알고리즘보다 더 빠르게 학습할 수 있게 해줄 것이라고 믿습니다.
data2vec 2.0은 다음 세 가지 방법으로 원본 data2vec 알고리즘의 효율성을 향상합니다.
1. 특정 훈련 예제에 대한 대상 표현을 구축하고 마스크에서 이 표현을 재사용합니다. 버전. 마스크 버전에서는 학습 예제의 여러 부분이 무작위로 숨겨집니다. 그런 다음 두 버전에서 학습된 표현은 학생 모델에 공급되어 서로 다른 마스크 버전에 대해 동일한 상황화된 목표 표현을 예측하여 목표 표현을 생성하는 데 필요한 계산 노력을 효과적으로 상각합니다.
2. MAE(Masked Autoencoder)와 유사하게 학생 모델의 인코더 네트워크는 훈련 예제의 공백 부분을 작동하지 않습니다. 이미지 실험에서는 섹션의 약 80%가 비어 있어 계산 주기가 크게 절약되었습니다.
3. 더 이상 Transformer 네트워크에 의존하지 않고 다층 컨볼루셔널 네트워크에 의존하는 보다 효과적인 디코더 모델이 사용됩니다.
실험 섹션
data2vec 2.0이 data2vec 및 기타 유사한 알고리즘보다 얼마나 더 효율적인지 더 직관적으로 이해하기 위해 연구원들은 컴퓨터 비전, 음성 및 텍스트 작업과 관련된 벤치마크에 대한 광범위한 실험을 수행했습니다. 실험에서는 모델의 사전 학습에 소요되는 최종 정확도와 시간을 주로 고려하여 알고리즘의 실행 속도를 측정하기 위해 실험 환경은 모두 동일한 하드웨어(GPU 모델, 수량 등)에 있었습니다.
연구원들은 컴퓨터 비전 작업에서 모델이 이미지 표현을 학습하는 데이터세트인 표준 ImageNet-1K 이미지 분류 벤치마크에서 data2vec 2.0을 평가했습니다. 실험 결과에 따르면 data2vec 2.0은 MAE(Masked Autoencoder)의 정확도와 동일할 수 있지만 16배 더 빠릅니다.
data2vec 2.0 알고리즘에 계속해서 더 많은 실행 시간을 제공하면 MAE보다 더 높은 정확도를 달성하면서도 여전히 더 빠를 수 있습니다.
음성 작업에 대해 연구진은 LibriLanguage 음성 인식 벤치마크에서 테스트한 결과 wave2vec 2.0보다 11배 이상 정확했습니다.
자연어 처리 작업의 경우 연구원들은 GLUE(General Language Understanding Evaluation) 벤치마크에서 data2vec 2.0을 평가하여 훈련 시간의 절반만에 BERT를 재구현한 RoBERTa와 동일한 정확도를 달성했습니다.
위 내용은 다중 양식이 다시 통합되었습니다! Meta, 자체 감독 알고리즘 data2vec 2.0 출시: 훈련 효율성이 최대 16배 향상되었습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











표준 JSON 문자열의 경우 vue.js의 객체로 문자열을 변환 할 때 JSON.PARSE ()가 선호됩니다. 비표준 JSON 문자열의 경우, 정규 표현식을 사용하여 문자열을 처리하고 형식 또는 디코딩 된 URL 인코딩에 따라 방법을 줄일 수 있습니다. 문자열 형식에 따라 적절한 방법을 선택하고 버그를 피하기 위해 보안 및 인코딩 문제에주의를 기울이십시오.

요약 : vue.js 문자열 배열을 객체 배열로 변환하는 다음 방법이 있습니다. 기본 메소드 : 정기적 인 형식의 데이터에 맞게 맵 함수를 사용하십시오. 고급 게임 플레이 : 정규 표현식을 사용하면 복잡한 형식을 처리 할 수 있지만 신중하게 작성하고 고려해야합니다. 성능 최적화 : 많은 양의 데이터를 고려하면 비동기 작업 또는 효율적인 데이터 처리 라이브러리를 사용할 수 있습니다. 모범 사례 : 명확한 코드 스타일, 의미있는 변수 이름과 주석을 사용하여 코드를 간결하게 유지하십시오.

MySQL 시작이 실패하는 데는 여러 가지 이유가 있으며 오류 로그를 확인하여 진단 할 수 있습니다. 일반적인 원인에는 포트 충돌 (포트 점유 체크 및 구성 수정), 권한 문제 (서비스 실행 사용자 권한 실행), 구성 파일 오류 (파라미터 설정 확인), 데이터 디렉토리 손상 (데이터 복원 또는 테이블 공간 재건), IBDATA 테이블 공간 문제 (IBDATA1 파일 확인), 플러그로드 (확인 오류 로그)가 포함됩니다. 문제를 해결할 때 오류 로그를 기반으로 문제를 분석하고 문제의 근본 원인을 찾고 문제를 방지하고 해결하기 위해 정기적으로 데이터를 백업하는 습관을 개발해야합니다.

이 기사는 MySQL 데이터베이스의 작동을 소개합니다. 먼저 MySQLworkBench 또는 명령 줄 클라이언트와 같은 MySQL 클라이언트를 설치해야합니다. 1. MySQL-Uroot-P 명령을 사용하여 서버에 연결하고 루트 계정 암호로 로그인하십시오. 2. CreateABase를 사용하여 데이터베이스를 작성하고 데이터베이스를 선택하십시오. 3. CreateTable을 사용하여 테이블을 만들고 필드 및 데이터 유형을 정의하십시오. 4. InsertInto를 사용하여 데이터를 삽입하고 데이터를 쿼리하고 업데이트를 통해 데이터를 업데이트하고 DELETE를 통해 데이터를 삭제하십시오. 이러한 단계를 마스터하고 일반적인 문제를 처리하는 법을 배우고 데이터베이스 성능을 최적화하면 MySQL을 효율적으로 사용할 수 있습니다.

vue axios의 타임 아웃을 설정하려면 axios 인스턴스를 생성하고 시간 초과 옵션을 지정할 수 있습니다. 글로벌 설정에서 : vue.prototype. $ axios = axios.create ({timeout : 5000}); 단일 요청 : this. $ axios.get ( '/api/user', {timeout : 100000}).

7 백만 레코드를 효율적으로 처리하고 지리 공간 기술로 대화식지도를 만듭니다. 이 기사는 Laravel과 MySQL을 사용하여 7 백만 개 이상의 레코드를 효율적으로 처리하고 대화식지도 시각화로 변환하는 방법을 살펴 봅니다. 초기 챌린지 프로젝트 요구 사항 : MySQL 데이터베이스에서 7 백만 레코드를 사용하여 귀중한 통찰력을 추출합니다. 많은 사람들이 먼저 프로그래밍 언어를 고려하지만 데이터베이스 자체를 무시합니다. 요구 사항을 충족시킬 수 있습니까? 데이터 마이그레이션 또는 구조 조정이 필요합니까? MySQL이 큰 데이터로드를 견딜 수 있습니까? 예비 분석 : 주요 필터 및 속성을 식별해야합니다. 분석 후, 몇 가지 속성만이 솔루션과 관련이 있음이 밝혀졌습니다. 필터의 타당성을 확인하고 검색을 최적화하기위한 제한 사항을 설정했습니다. 도시를 기반으로 한지도 검색

원격 선임 백엔드 엔지니어 구직 회사 : 원 위치 : 원격 사무실 직무 유형 : 전임 급여 : $ 130,000- $ 140,000 직무 설명 전체 소프트웨어 개발 라이프 사이클을 다루는 Circle Mobile 애플리케이션 및 공개 API 관련 기능의 연구 및 개발에 참여합니다. 주요 책임은 독립적으로 Rubyonrails를 기반으로 개발 작업을 완료하고 React/Redux/Relay 프론트 엔드 팀과 협력합니다. 웹 애플리케이션의 핵심 기능 및 개선을 구축하고 기능 설계 프로세스 전반에 걸쳐 설계자 및 리더십과 긴밀히 협력하십시오. 긍정적 인 개발 프로세스를 촉진하고 반복 속도를 우선시하십시오. 6 년 이상의 복잡한 웹 애플리케이션 백엔드가 필요합니다.

MySQL 성능 최적화는 설치 구성, 인덱싱 및 쿼리 최적화, 모니터링 및 튜닝의 세 가지 측면에서 시작해야합니다. 1. 설치 후 innodb_buffer_pool_size 매개 변수와 같은 서버 구성에 따라 my.cnf 파일을 조정해야합니다. 2. 과도한 인덱스를 피하기 위해 적절한 색인을 작성하고 Execution 명령을 사용하여 실행 계획을 분석하는 것과 같은 쿼리 문을 최적화합니다. 3. MySQL의 자체 모니터링 도구 (showprocesslist, showstatus)를 사용하여 데이터베이스 건강을 모니터링하고 정기적으로 백업 및 데이터베이스를 구성하십시오. 이러한 단계를 지속적으로 최적화함으로써 MySQL 데이터베이스의 성능을 향상시킬 수 있습니다.
