CNN을 기본 모델로 사용하여 변형 가능한 컨볼루션 InternImage가 탐지 및 분할 분야에서 새로운 기록을 달성했습니다!
최근 몇 년간 대규모 비주얼 트랜스포머의 급속한 발전으로 컴퓨터 비전 분야의 성능 경계가 더욱 넓어졌습니다. Vision Transformer 모델은 모델 매개변수와 훈련 데이터의 수를 확장하여 컨벌루션 신경망을 무력화합니다. Shanghai Artificial Intelligence Laboratory, Tsinghua University, Nanda, SenseTime 및 Hong Kong Chinese의 연구원들은 컨볼루션 신경망과 시각적 변환기 사이의 격차를 요약했습니다. 운영자 수준에서 기존 CNN 운영자는 구조적 수준에서 볼 때 장거리 종속성과 적응형 공간 집계 기능이 부족하고 기존 CNN 구조에는 고급 구성 요소가 부족합니다.
위의 기술적 문제를 고려하여, 칭화대학교 푸장 연구소 및 기타 기관의 연구원들은 희소 동적 컨볼루션을 핵심 계산 하위로 사용하는 InternImage라는 컨볼루션 신경망 기반 대규모 모델을 혁신적으로 제안했습니다. , 관련 정보를 조건으로 입력하여 적응형 공간 집합을 달성합니다. InternImage를 사용하면 기존 CNN의 엄격한 귀납적 편향을 줄여 대규모 데이터에서 더욱 강력하고 견고한 대규모 매개변수 패턴을 학습할 수 있습니다. 이미지 분류, 객체 감지, 의미 분할 등 시각적 작업에 대한 효율성이 검증되었습니다. ImageNet, COCO 및 ADE20K를 포함한 까다로운 벤치마크 데이터 세트에서 경쟁력 있는 결과를 얻었으며, 동일한 매개변수 수준에서 시각적 Transformer 구조를 뛰어넘어 대형 이미지 모델에 대한 새로운 방향을 제시했습니다.
- 문서 링크: https://arxiv.org/abs/2211.05778
- 오픈 소스 코드: https://github.com/OpenGVLab/InternImage
기존 컨볼루션 신경망의 한계
모델의 규모를 확장하는 것은 특징 표현의 품질을 향상시키는 중요한 전략입니다. 컴퓨터 비전 분야에서 모델 매개변수 수를 늘리는 것은 효과적으로 향상시킬 수 있을 뿐만 아니라 딥 모델의 표현 학습 능력뿐만 아니라, 대규모 데이터로부터 학습 및 지식 습득도 달성합니다. ViT와 Swin Transformer는 처음으로 깊이 모델을 20억 및 30억 매개변수 수준으로 확장했습니다. ImageNet 데이터 세트에서 단일 모델의 분류 정확도도 기존 CNN 네트워크 및 소규모 모델을 훨씬 뛰어넘는 90%를 초과했습니다. 기술적인 병목 현상을 돌파합니다. 그러나 장거리 종속성 및 공간 관계 모델링 기능이 부족하기 때문에 기존 CNN 모델은 Transformer 구조와 유사한 모델 규모 확장 기능을 달성할 수 없습니다. 연구원들은 전통적인 컨벌루션 신경망과 시각적 Transformer의 차이점을 요약했습니다.
(1) 운영자 수준에서 시각적 Transformer의 다중 헤드 주의 메커니즘은 장거리 종속성과 적응형 공간 집계 기능을 갖추고 있어 다음과 같은 이점을 제공합니다. 여기에서 시각적 변환기는 CNN 네트워크보다 대규모 데이터로부터 더 강력하고 견고한 표현을 학습할 수 있습니다.
(2) 모델 아키텍처의 관점에서 볼 때, 시각적 변환기에는 다중 헤드 주의 메커니즘 외에도 레이어 정규화(LN), 피드포워드 신경망과 같이 CNN 네트워크에 없는 고급 모듈이 있습니다. FFN, GELU 등
최근 일부 작품에서는 장거리 종속성을 얻기 위해 대규모 커널 컨볼루션을 사용하려고 시도하지만 모델 규모와 정확성 측면에서 여전히 최첨단 시각적 변환기와는 거리가 멀습니다.
변형 가능한 컨벌루션 네트워크의 추가 확장
InternImage는 (1) DCNv2 연산자 기반의 DCNv3 연산자를 포함하여 연산자 및 모델 구조를 재설계하여 컨벌루션 모델의 확장성을 개선하고 귀납적 편향을 완화합니다. 그룹 메커니즘 및 샘플 포인트 변조. (2) 기본 모듈, 모델 구축을 위한 기본 모듈 단위로 고급 모듈을 통합합니다. (3) 모듈 스택 규칙, 모델 확장 시 모델의 너비, 깊이, 그룹 수 및 기타 하이퍼 매개변수를 표준화합니다.
이 작업은 대규모 매개변수로 효율적으로 확장할 수 있는 CNN 모델을 구축하는 데 중점을 둡니다. 첫째, 변형 가능한 컨볼루션 연산자 DCNv2는 장거리 종속성에 적응하고 유도 바이어스를 약화시키도록 재설계되었습니다. 그런 다음 조정된 컨볼루션 연산자를 고급 구성 요소와 결합하여 기본 단위 모듈을 설정하고 모듈의 스태킹 및 확장 규칙을 탐색하고 구현합니다. 대규모 매개변수와 강력한 표현을 갖춘 기본 모델을 구축하는 방법은 대규모 데이터에서 학습할 수 있습니다.
연산자 수준에서 이 연구는 먼저 컨볼루션 연산자와 다른 주류 연산자 간의 주요 차이점을 요약합니다. 현재 주류 Transformer 시리즈 모델은 주로 다중 헤드 Self-Attention 메커니즘을 사용하여 대규모 모델 구축을 달성합니다. 해당 운영자는 장거리 기능 간의 연결 관계를 구축하는 데 충분한 장거리 종속성을 가지며 공간 적응형 집계도 갖추고 있습니다. 픽셀 수준의 관계를 달성하는 기능. 그러나 이 글로벌 어텐션 메커니즘은 엄청난 컴퓨팅 및 저장 요구 사항을 갖고 있어 효율적인 훈련과 신속한 수렴을 달성하기 어렵습니다. 마찬가지로, 국소 주의 메커니즘에는 장거리 기능 의존성이 부족합니다. 라지 코어 밀집 컨볼루션은 공간적 집합 능력이 없기 때문에 컨볼루션의 자연스러운 유도 편향을 극복하기 어렵고, 이는 모델 확장에 도움이 되지 않습니다. 따라서 InternImage는 너무 많은 컴퓨팅 및 저장 리소스를 낭비하지 않고 전역 주의 효과를 달성하고 효율적인 교육을 달성하기 위해 동적 희소 컨벌루션 연산자를 설계합니다.
연구진은 DCNv2 연산자를 기반으로 DCNv3 연산자를 재설계, 조정 및 제안했습니다. 구체적인 개선 사항은 다음과 같습니다.
(1) 투사 무게를 공유합니다. 기존 컨볼루션과 유사하게 DCNv2의 다양한 샘플링 지점은 독립적인 투영 가중치를 가지므로 해당 매개변수 크기는 총 샘플링 지점 수와 선형적으로 관련됩니다. 매개변수 및 메모리 복잡성을 줄이기 위해 분리 가능한 컨볼루션 아이디어를 활용하고 그룹화 가중치를 대체하기 위해 위치 독립적 가중치를 사용하며 투영 가중치는 서로 다른 샘플링 지점 간에 공유되며 모든 샘플링 위치 종속성은 유지됩니다.
(2) 여러 메커니즘 세트를 소개합니다. 다중 그룹 설계는 그룹화 컨볼루션에서 처음 도입되었으며 Transformer의 다중 헤드 셀프 어텐션에 널리 사용됩니다. 적응형 공간 집합과 결합하여 기능의 다양성을 효과적으로 향상시킬 수 있습니다. 이에 영감을 받아 연구원들은 공간 집계 프로세스를 여러 그룹으로 나누었고 각 그룹은 독립적인 샘플링 오프셋을 갖습니다. 그 이후로 단일 DCNv3 레이어의 서로 다른 그룹은 서로 다른 공간 집계 패턴을 가지게 되어 풍부한 기능 다양성을 가져옵니다.
(3) 샘플링 포인트 변조 스칼라 정규화. 연구진은 모델 용량 확장 시 발생하는 불안정성 문제를 완화하기 위해 정규화 모드를 샘플별로 Softmax 정규화로 설정했습니다. 이는 대규모 모델의 학습 과정을 더욱 안정적으로 만들 뿐만 아니라 구성도 가능합니다. 모든 샘플링 지점 연결 관계의 모델입니다.
DCNv3 연산자를 구축한 후 먼저 기본 모듈과 모델의 다른 레이어의 전반적인 세부 사항을 정규화한 다음 이러한 기본 모듈의 스택 전략을 탐색하여 InternImage를 구축해야 합니다. 마지막으로 제안된 모델의 확장 규칙에 따라 다양한 매개변수 양을 갖는 모델을 구성한다.
기본 모듈. 본 연구에서는 기존 CNN에서 널리 사용되는 병목 구조와 달리 ViT에 더 가까운 기본 모듈을 채택하고 GELU, LN(Layer Normalization), FFN(Feed-Forward Network) 등 고급 구성요소를 탑재한 것으로 입증되었습니다. 다양한 비전 작업에서 더욱 효율적입니다. 기본 모듈의 세부 사항은 위 그림에 나와 있습니다. 여기서 핵심 연산자는 DCNv3입니다. DCNv3은 가벼운 분리 가능한 컨볼루션을 통해 입력 기능을 전달하여 샘플링 바이어스 및 변조 규모를 예측합니다. 다른 구성 요소는 일반 Transformer와 동일한 설계를 따릅니다.
스태킹 규칙. 블록 스태킹 과정을 명확히 하기 위해 본 연구에서는 두 가지 모듈 스태킹 규칙을 제안합니다. 첫 번째 규칙은 마지막 세 단계의 채널 수이며, 이는 첫 번째 단계의 채널 수
에 따라 결정됩니다. 즉,
; 두 번째 규칙은 각 모듈의 그룹 번호가 각 단계의 채널 수에 해당한다는 것입니다. 즉,
세 번째, 스태킹 모드가 "AABA"로 고정됩니다. 1단계, 2단계, 4단계의 모듈 스택 수는 동일
이며 3단계
보다 크지 않습니다. 따라서 매개변수 볼륨이 30M인 모델이 기본으로 선택되었습니다. 구체적인 매개변수는 다음과 같습니다. Steam 출력 채널 수
는 64개입니다. 그룹 수는 각 단계의 입력 채널 수의 1/16입니다. , 1, 2, 4단계 모듈 스택 수
는 4개, 3단계의 모듈 스택 수
는 18개, 모델 매개변수는 30M입니다.
모델 확장 규칙. 위의 제약 조건에 따른 최적 모델을 기반으로 본 연구에서는 제한 요소 및
를 사용하여 네트워크 모델의 두 가지 스케일링 차원인 깊이 D(모듈 스택 수)와 너비 C(채널 수)를 정규화했습니다. 따라 복합 계수
는 깊이와 너비, 즉
의 크기를 조정합니다. 여기서
는 실험에 따르면 최적 설정은
입니다.
이 규칙에 따라 본 연구에서는 InternImage-T, S, B, L, XL라는 다양한 규모의 모델을 구축했습니다. 구체적인 매개변수는 다음과 같습니다:
실험 결과
이미지 분류 실험: 427M 공개 데이터 세트를 사용하여: Laion-400M, YFCC15M, CC12M, InternImage-H는 ImageNet-1K에서 89.2%의 정확도를 달성했습니다.
객체 감지: 가장 큰 InternImage-H를 백본 네트워크로 사용하고 DINO를 기본 감지 프레임워크로 사용하여 Objects365 데이터 세트에서 DINO 감지기를 사전 훈련한 다음 실행합니다. COCO에서 미세 조정을 해보세요. 모델은 표적 탐지 작업에서 65.4%의 최적 결과를 달성하여 COCO 표적 탐지의 성능 한계를 돌파했습니다.
Semantic Segmentation: InternImage-H도 좋은 성능을 달성했으며 Mask2Former와 결합하여 ADE20K에서 현재 최고 62.9%를 달성했습니다.
결론
이 연구는 이미지 분류, 객체 감지, 의미론적 분할과 같은 다양한 비전 작업에 대한 강력한 표현을 제공할 수 있는 새로운 대규모 CNN 기반 기본 모델인 InternImage를 제안합니다. 연구원들은 기본 모델의 요구 사항을 충족하도록 유연한 DCNv2 연산자를 조정하고 핵심 연산자를 기반으로 일련의 차단, 스태킹 및 확장 규칙을 개발했습니다. 객체 감지 및 의미론적 분할 벤치마크에 대한 광범위한 실험을 통해 InternImage가 대량의 데이터에 대해 훈련된 잘 설계된 대규모 시각적 변환기와 동등하거나 더 나은 성능을 달성할 수 있음이 확인되었으며, 이는 CNN이 대규모 시각적 기본 모델에서도 상당한 단계임을 나타냅니다. 연구하다. 그럼에도 불구하고 대규모 CNN은 아직 개발 초기 단계에 있으며 연구원들은 InternImage가 좋은 출발점이 될 수 있기를 바랍니다.
위 내용은 CNN을 기본 모델로 사용하여 변형 가능한 컨볼루션 InternImage가 탐지 및 분할 분야에서 새로운 기록을 달성했습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

AI는 실제로 수학을 변화시키고 있습니다. 최근 이 문제에 주목하고 있는 타오저쉬안(Tao Zhexuan)은 '미국수학회지(Bulletin of the American Mathematical Society)' 최신호를 게재했다. '기계가 수학을 바꿀 것인가?'라는 주제를 중심으로 많은 수학자들이 그들의 의견을 표현했습니다. 저자는 필즈상 수상자 Akshay Venkatesh, 중국 수학자 Zheng Lejun, 뉴욕대학교 컴퓨터 과학자 Ernest Davis 등 업계의 유명 학자들을 포함해 강력한 라인업을 보유하고 있습니다. AI의 세계는 극적으로 변했습니다. 이 기사 중 상당수는 1년 전에 제출되었습니다.

Google이 추진하는 JAX의 성능은 최근 벤치마크 테스트에서 Pytorch와 TensorFlow를 능가하여 7개 지표에서 1위를 차지했습니다. 그리고 JAX 성능이 가장 좋은 TPU에서는 테스트가 이루어지지 않았습니다. 개발자들 사이에서는 여전히 Tensorflow보다 Pytorch가 더 인기가 있습니다. 그러나 앞으로는 더 큰 모델이 JAX 플랫폼을 기반으로 훈련되고 실행될 것입니다. 모델 최근 Keras 팀은 기본 PyTorch 구현을 사용하여 세 가지 백엔드(TensorFlow, JAX, PyTorch)와 TensorFlow를 사용하는 Keras2를 벤치마킹했습니다. 첫째, 그들은 주류 세트를 선택합니다.

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.

본 논문에서는 자율 주행에서 다양한 시야각(예: 원근 및 조감도)에서 객체를 정확하게 감지하는 문제, 특히 원근(PV) 공간에서 조감(BEV) 공간으로 기능을 효과적으로 변환하는 방법을 탐구합니다. VT(Visual Transformation) 모듈을 통해 구현됩니다. 기존 방법은 크게 2D에서 3D로, 3D에서 2D로 변환하는 두 가지 전략으로 나뉩니다. 2D에서 3D로의 방법은 깊이 확률을 예측하여 조밀한 2D 특징을 개선하지만, 특히 먼 영역에서는 깊이 예측의 본질적인 불확실성으로 인해 부정확성이 발생할 수 있습니다. 3D에서 2D로의 방법은 일반적으로 3D 쿼리를 사용하여 2D 기능을 샘플링하고 Transformer를 통해 3D와 2D 기능 간의 대응에 대한 주의 가중치를 학습하므로 계산 및 배포 시간이 늘어납니다.
