자기 지도 학습 알고리즘은 자연어 처리, 컴퓨터 비전과 같은 분야에서 상당한 발전을 이루었습니다. 이러한 자기 지도 학습 알고리즘은 개념적으로는 일반적이지만 특정 작업은 특정 데이터 양식을 기반으로 합니다. 이는 다양한 데이터 양식에 맞게 다양한 자기 지도 학습 알고리즘을 개발해야 함을 의미합니다. 이를 위해 본 논문에서는 모든 데이터 양식에 적용할 수 있는 일반적인 데이터 증대 기법을 제안한다. 기존 범용 자기 지도 학습과 비교하여 이 방법은 상당한 성능 향상을 달성할 수 있으며, 특정 양식을 위해 설계된 일련의 복잡한 데이터 향상 방법을 대체하고 유사한 성능을 달성할 수 있습니다. ㅋㅋㅋ 소개
재작성된 콘텐츠: 현재 샴 표현 학습/대조 학습에서는 데이터 증강 기술을 사용하여 동일한 데이터의 서로 다른 샘플을 구성하고 이를 두 개의 병렬 네트워크 구조에 입력하여 충분히 강력한 감독 신호를 생성해야 합니다. 그러나 이러한 데이터 증대 기술은 일반적으로 양식별 사전 지식에 크게 의존하므로 종종 수동 설계가 필요하거나 현재 양식에 적합한 최상의 조합을 검색해야 합니다. 시간이 많이 걸리고 노동 집약적일 뿐만 아니라, 발견된 최고의 데이터 증대 방법은 다른 영역으로 이전하기도 어렵습니다. 예를 들어 자연 RGB 이미지의 일반적인 색상 지터링은 자연 이미지를 제외한 다른 데이터 형식에 적용할 수 없습니다.양자화란 일련의 이산 값을 사용하여 연속적인 데이터를 표현함으로써 데이터의 효율적인 저장, 운영 및 전송을 용이하게 하는 것을 말합니다. 그러나 양자화 작업의 일반적인 목표는 정확도를 잃지 않고 데이터를 압축하는 것입니다. 따라서 프로세스는 결정론적이며 원본 데이터에 최대한 가깝게 설계되었습니다. 이는 향상 수단으로서의 강점과 출력의 데이터 풍부성을 제한합니다.
이 기사에서는 각 입력 채널 데이터를 겹치지 않는 여러 개의 무작위 간격(
)으로 독립적으로 나누고, 각 간격 내에 속하는 원래 입력을 무작위로 샘플링된 상수 로 나누는 무작위 양자화 작업을 제안합니다. 간격부터.
구체적으로, 랜덤 프로세스는 더 풍부한 샘플을 가져오고, 동일한 데이터라도 랜덤 양자화 작업이 수행될 때마다 다른 데이터 샘플을 생성할 수 있습니다. 동시에 무작위 프로세스는 원본 데이터를 더 크게 향상시킵니다. 예를 들어 큰 데이터 간격을 무작위로 나누거나 매핑 지점이 간격의 중앙 지점에서 벗어나면 원본 입력 및 출력이 다음과 같이 발생할 수 있습니다. 간격 사이에 더 큰 차이가 있습니다.
분할 간격을 적절하게 줄여 강화 강도를 쉽게 높일 수 있습니다. 이와 같이 Siamese 표현 학습에 적용하면 두 네트워크 분기는 충분한 정보 차이가 있는 입력 데이터를 수신할 수 있어 특징 학습을 촉진하는 강력한 학습 신호를 구성할 수 있습니다
아래 그림은 서로 다른 데이터 모델을 시각화한 것입니다. 이 데이터 증대 방법 사용:
다시 작성된 내용은 다음과 같습니다. 모드 1: Image
이 기사는 ImageNet-1K 데이터 세트에서 평가됩니다. MoCo-v3 및 BYOL, 평가 지표는 선형 평가입니다. 유일한 데이터 증대 방법으로 단독으로 사용할 경우, 즉 본 논문의 증대는 원본 이미지의 중앙 크롭에 적용되며, 일반적인 RRC(Random Resize Crop)와 함께 사용하면 이 방법이 더 나은 결과를 얻었습니다. 기존의 일반적인 자기주도 학습 방식보다 더 나은 결과를 얻을 수 있습니다.
CJ(컬러 지터링)와 같은 이미지 데이터용으로 개발된 기존 데이터 향상 방법과 비교할 때 이 문서의 방법은 분명한 성능 이점을 가지고 있습니다. 동시에 이 방법은 색상 지터링, 무작위 그레이 스케일, 무작위 가우시안 블러, 무작위 노출(태양광화)을 포함하여 MoCo-v3/BYOL의 일련의 복잡한 데이터 향상 방법(전체)을 대체하고 다음과 유사한 효과를 얻을 수도 있습니다. 복잡한 데이터 향상 방법.
다시 작성해야 하는 내용은 다음과 같습니다. 모드 2: 3D 포인트 클라우드
ModelNet40 데이터 세트의 분류 작업과 ShapeNet Part 데이터 세트의 분할 작업에서 본 연구에서는 무작위로 검증했습니다. 양자화 기존 자체 감독 방법보다 우수합니다. 특히 다운스트림 훈련 세트의 데이터 양이 작은 경우 이 연구 방법은 기존 포인트 클라우드 자체 지도 알고리즘을 크게 초과합니다
재작성된 내용: 세 번째 양식: 음성
이 기사의 방법은 음성 데이터 세트에 대한 기존 자기 지도 학습 방법보다 더 나은 성능을 달성합니다. 본 논문에서는 6개의 다운스트림 데이터 세트에서 이 방법의 우수성을 검증했습니다. 그 중 가장 어려운 데이터 세트인 VoxCeleb1(가장 많은 카테고리를 포함하고 다른 데이터 세트의 수를 훨씬 초과함)에서 이 방법은 상당한 성능 향상을 달성했습니다. (5.6점).
다시 작성된 콘텐츠는 다음과 같습니다. 모드 4: DABS
DABS는 자연 이미지, 텍스트, 음성, 센서를 포함한 다양한 모달 데이터를 다루는 일반적인 자기 지도 학습 벤치마크입니다. 데이터, 의료영상, 그래픽 등 우리의 방법은 DABS
관심 있는 독자는 원본 논문을 읽고 연구 내용을 이해할 수 있습니다. 세부 정보
위 내용은 범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!