이미지 검색을 효율적이고 정확하게 수행하는 방법은 무엇입니까? 경량 비전 사전 훈련 모델을 살펴보세요
이미지 검색에 어려움을 겪은 적이 있나요?
방대한 양의 이미지 중에서 원하는 이미지를 정확하게 찾기가 어렵거나, 텍스트 기반 검색에서는 만족스럽지 못한 결과를 얻을 수 있습니다. 이 문제와 관련하여 Microsoft Research Asia와 Microsoft 클라우드 컴퓨팅 및 인공 지능 부서의 연구원은 경량 시각적 모델에 대한 심층적인 연구를 수행하고 시각적 Transformer 경량 배포 요구 사항을 실현하기 위한 시각적 사전 훈련 모델에 대한 일련의 설계 및 압축 방법을 제안했습니다. .
현재 이 방법과 모델은 Microsoft의 Bing 검색 엔진에 성공적으로 적용되어 수백억 개의 이미지에 대해 정확하고 빠른 추론과 검색을 달성하고 있습니다. 이 기사에서는 경량 시각적 사전 훈련 모델의 개발, 핵심 기술, 응용 프로그램 및 잠재력뿐만 아니라 향후 기회와 과제에 대한 심층적인 설명을 제공할 것입니다. 관련 기술 개발을 공동으로 추진한다.
최근 Transformer 기반 시각적 사전 훈련 모델은 많은 컴퓨터 비전 작업에서 뛰어난 성능을 달성했으며 광범위한 관심을 받았습니다. 그러나 시각적 Transformer 사전 훈련 모델은 일반적으로 매개변수가 크고 복잡성이 높기 때문에 실제 애플리케이션, 특히 리소스가 제한된 장치 또는 실시간 요구 사항이 높은 시나리오에서의 배포 및 사용이 제한됩니다. 따라서 대규모 시각적 사전 훈련 모델에 대한 "경량" 연구가 학계와 산업계에서 새로운 핫스팟이 되었습니다.
이와 관련하여 Microsoft Research Asia와 Microsoft 클라우드 컴퓨팅 및 인공 지능 부서의 연구원들은 대형 시각적 모델의 구조 설계 및 훈련 추론에 대한 심층적인 연구를 수행하는 동시에, 경량화 및 실시간 성능에 중점을 두었습니다. 그리고 클라우드 배포로 인해 혁신적인 애플리케이션도 만들어졌습니다. 이 기사에서는 경량 시각적 사전 훈련 모델 개발에서 시작하여 모델 경량화 연구의 핵심 기술, 실제 제품에서의 경량 시각적 Transformer 모델의 적용 및 잠재력을 탐색하고 마지막으로 향후 개발 기회와 전망을 기대합니다. 가벼운 시각적 모델에 도전합니다.
대형 시각적 모델이 속속 등장하고 있지만, 가벼운 사전 훈련 모델은 관심이 부족합니다
최근 ImageNet 이미지 분류 작업에서 딥러닝의 발전은 주로 용량의 실질적인 확장에 힘입었습니다. 시각적 모델의 그림 1에서 볼 수 있듯이 불과 몇 년 만에 시각적 사전 훈련 모델의 용량은 4,450만 개의 매개변수를 가진 ResNet-101 모델에서 150억 개의 매개변수를 가진 V-MoE 모델로 300배 이상 확장되었습니다. 대규모 시각적 사전 학습 모델 학습 모델은 이미지 이해 및 시각적 콘텐츠 생성과 같은 작업에서 큰 발전을 이루었습니다.
그림 1: 시각적 사전 훈련 모델 매개변수의 변화 추세 차트
Microsoft의 30억 매개변수 Swin-V2 모델이든 Google에서 출시한 18억 매개변수 ViT-G/14 모델이든, 대규모 시각적 모델은 많은 작업에서 뛰어난 성능을 보여 주었으며, 특히 일반 지능을 달성하는 데 중요한 강력한 소형 샷(few-shot) 및 제로 샷(zero-shot) 일반화 기능을 보여주었습니다.
그러나 많은 실제 시나리오에서는 스토리지 및 컴퓨팅 리소스의 제한으로 인해 대형 모델을 직접 배포하기 어렵거나 실시간 요구 사항을 충족할 수 없습니다. 따라서 경량의 시각적 사전 훈련 모델에 대한 연구가 점점 더 중요해지고 있으며 실질적인 적용 가치가 높습니다. 현재 경량 모델을 탐색하는 일부 작업이 있지만 이러한 방법의 대부분은 특정 작업 및 특정 구조를 위해 설계되었습니다. 모델의 다양성은 설계 및 교육 과정에서 고려되지 않으며 데이터 영역 및 작업 제한에 걸쳐 일반화가 있습니다.
경량 시각적 모델 핵심 기술 연구
경량 시각적 사전 훈련 모델을 구현하기 위해 Microsoft 연구원들은 두 가지 핵심 문제를 발견했습니다. 1) 보다 다양한 경량 모델 구조를 설계하는 방법은 무엇입니까? 2) 경량의 시각적 사전 훈련 모델의 제한된 용량에 따라 작은 모델이 대규모 데이터에서 효과적인 정보를 학습할 수 있도록 효율적인 사전 훈련 방법을 설계하는 방법은 무엇입니까? 이러한 문제에 직면한 연구자들은 끊임없는 연구와 탐색을 통해 몇 가지 초기 결과를 달성했습니다.
경량 사전 학습 모델의 다양성을 향상시키는 핵심은 제한된 리소스(매개변수 양, 지연 등) 조건에서 모델의 학습 능력을 어떻게 강화하여 더 잘 학습할 수 있는지에 있기 때문입니다. 대규모 데이터의 보편적 특성에 대해 연구자들은 다음 세 가지 관점에서 심층적인 탐구를 진행했습니다.
1. 경량 모듈 설계
경량 및 저지연 모듈은 경량 모델의 중요한 부분입니다. 컨벌루션 신경망에서 대표적인 경량 모듈로는 MobileNet의 Inverted Residual Block과 ShuffleNet의 채널 랜덤 크로스오버 유닛(Shuffle Unit)이 있습니다. 시각적 Transformer 구조에서는 이미지 블록 간의 주의 계산이 상대 위치 인코딩 정보를 잘 고려하지 않기 때문에 연구자들은 플러그 앤 플레이 방식의 경량 2차원 이미지 상대 위치 인코딩 방법 iRPE를 설계했습니다. 훈련 하이퍼파라미터를 수정하지 않고도 모델의 성능을 향상시킬 수 있습니다. 또한 시각적 Transformer 매개변수 중복 문제를 해결하기 위해 연구자들은 Weight Multiplexing 모듈을 설계했습니다[2]. 그림 2에서 볼 수 있듯이 이 방법은 다층 가중치 재사용을 통해 모델 매개변수의 중복성을 줄이고 매개변수 다양성을 높이기 위해 비공유 선형 변환을 도입합니다.
그림 2: Transformer의 가중치 다중화 모듈
2. 경량 모델 검색
신경 아키텍처 검색은 모델 설계 공간에서 자동으로 찾을 수 있습니다. 더 가볍고 더 나은 모델 구조 성능 [3]. 컨벌루션 신경망의 대표적인 작품으로는 NASNet과 EfficientNet이 있습니다. 시각적 Transformer 구조 검색에서 연구자들은 시각적 모델의 채널 폭, 네트워크 깊이, 헤드 수와 같은 다차원에 대해 AutoFormer [4] 및 S3 [5]를 연속적으로 제안하여 시각적 모델의 동적 확장 가능한 훈련 및 확장성을 실현했습니다. . 구조 검색. 동일한 모델 정확도 하에서 검색을 통해 얻은 새로운 모델은 더 적은 수의 매개변수 및 계산을 갖습니다. S3에서 연구자들은 검색 공간을 안내하고 개선하기 위해 E-T Error [5]와 가중치 공유 슈퍼넷을 사용하여 보다 효율적인 모델 구조를 얻는 동시에 그림과 같이 검색 공간의 진화 과정도 분석했다는 점에 주목할 필요가 있습니다. 3개 표시. 동시에 모델 구조 검색 프로세스는 경량 모델 설계에 대한 효과적인 설계 경험과 참조를 제공합니다.
그림 3: 경량 모델 검색 공간 진화 프로세스
3. 시각적 대형 모델 압축 및 지식 전달
경량 사전 학습 모델의 또 다른 어려움은 모델 용량이 제한되어 있다는 것입니다. 대규모 데이터에 담긴 풍부한 정보와 지식을 직접적으로 학습하기는 어렵습니다. 이러한 문제를 해결하기 위해 연구자들은 대형 모델의 지식을 경량 소형 모델로 전달하는 빠른 사전 훈련 증류 방식을 제안했습니다[6]. 그림 4에서 볼 수 있듯이 기존의 단일 단계 지식 증류와 달리 빠른 사전 학습 증류는 1) 대규모 모델 학습 과정에서 사용되는 데이터 증강 정보 및 예측 정보를 압축하고 저장합니다. 2) 로드 및 복원합니다. 대형 모델의 예측 정보와 데이터가 증강된 후, 대형 모델은 교사로 사용되어 사전 훈련 증류를 통해 경량 학생 모델의 학습과 훈련을 안내합니다. 가지치기 및 양자화와 달리 이 방법은 가중치 공유를 기반으로 위에서 언급한 가중치 재사용을 사용합니다. 경량 가중치 변환 및 증류를 도입하여 대규모 시각적 사전 훈련 모델을 성공적으로 압축하고 보다 강력한 경량 모델을 얻습니다. 이 방법을 사용하면 성능 저하 없이 원본 대형 모델을 수십 번 압축할 수 있습니다.
그림 4: 빠른 사전 훈련 지식 증류
이 일련의 연구 결과는 컴퓨터 비전에 관한 최고의 학술 컨퍼런스(CVPR, ICCV, ECCV, NeurIPS 등)에서 많은 논문을 발표했을 뿐만 아니라 [1-6] 역시 Microsoft Bing과의 협력을 통해 경량 사전 학습 모델을 이미지 검색 제품에 성공적으로 적용하여 실제 비즈니스에서 이미지 및 비디오 콘텐츠에 대한 이해 능력을 향상시켰습니다.
경량 시각적 사전 훈련 모델 적용
경량 시각적 사전 훈련 모델은 특히 실시간 렌더링 및 클라우드 비디오 향상, 엔드투엔드 이미지 테스트 및 비디오 콘텐츠 이해와 같이 실시간 요구 사항이 높거나 리소스 제약이 있는 시나리오에서 많은 실제 용도를 갖습니다. . 경량의 시각적 모델은 스마트 소매, 첨단 제조 및 기타 분야에서 폭넓은 응용 가능성을 보여 주었으며 향후 메타버스 및 자율 주행과 같은 신흥 산업에서 중요한 역할을 할 것입니다. 다음은 Microsoft Bing 제품의 이미지 콘텐츠 검색을 예로 들어 경량 시각적 모델의 실제 적용 및 배포를 보여줍니다.
현재 콘텐츠 기반 이미지 검색은 이미지의 카테고리 속성을 이해하는 데 비교적 성숙했지만, 복잡한 장면의 콘텐츠를 이해하는 데는 여전히 큰 어려움이 있습니다. 복잡한 장면의 사진은 일반적으로 넓은 피사계 심도, 어수선한 배경, 많은 캐릭터, 복잡한 개체 관계와 같은 특성을 가지므로 콘텐츠 이해의 어려움이 크게 증가하므로 사전 학습 모델의 견고성과 일반화에 대한 요구 사항이 더 높아집니다.
예를 들어, 애니메이션 사진의 검색 품질은 오랫동안 효과적으로 향상될 수 없습니다. 주요 과제는 다음과 같습니다. 선과 색상이 실제 장면 사진보다 더 과장되어 있고, 더 많은 액션과 장면이 포함되어 있으며, 다양한 만화가 있습니다. 스타일과 내용의 큰 차이. 그림 5~7은 각각 "슬램덩크", "피카츄", "캡틴"의 세 가지 다른 만화 캐릭터와 행동을 보여줍니다. 각각의 만화 스타일과 내용은 매우 다릅니다. 만화 그림의 내용을 효과적으로 이해하는 방법은 시각적 사전 훈련 모델에 대한 더 높은 요구 사항을 제시합니다.
그림 5: Microsoft Bing 검색 엔진에서 슬램덩크 마스터의 행동에 대한 이해에는 덩크, 드리블, 도루, 슈팅 등이 포함됩니다.
그림 6: Microsoft Bing에서 검색 엔진에서 피카츄의 행동에 대한 이해는 사과 먹기, 수박 먹기, 아이스크림 먹기 등입니다.
그림 7: Microsoft Bing 검색 엔진에서 축구 선수의 슈팅 동작을 클로즈업한 모습
위에서 언급한 경량의 시각적 일반 모델과 빠른 사전 훈련 증류 알고리즘은 Microsoft의 Bing 검색 엔진에서 성공적으로 사용되었습니다. Microsoft Research Asia에서 제공하는 시각적 언어 다중 모달 사전 학습 모델의 도움으로 Microsoft의 Bing 이미지 검색 기능은 만화 콘텐츠에 대한 이해를 높이고 사용자 요구에 더 잘 맞는 이미지 콘텐츠를 반환할 수 있습니다.
동시에 Microsoft Bing 검색 엔진의 거대한 인덱스 라이브러리는 검색 효율성에 대한 요구 사항이 매우 높습니다. Microsoft Research Asia에서 제공하는 신속한 사전 훈련 증류 방법은 사전 훈련된 대형 모델의 인덱싱 기능을 경량 모델로 효과적으로 마이그레이션하여 기존 모델의 인식 정확도를 14% 향상시키고 모델 계산 효율성을 크게 최적화합니다. , 수백억 개의 이미지에 대한 빠른 추론을 달성합니다.
미래의 기회와 과제
모델 경량화는 미래 인공 지능 응용의 핵심입니다. 비전 기술, 알고리즘, 컴퓨팅 성능 및 데이터가 지속적으로 향상됨에 따라 모델의 복잡성이 극적으로 증가했으며 신경망 계산의 에너지 소비 비용이 점점 더 높아졌습니다. 경량의 시각적 모델의 높은 계산 효율성과 낮은 배포 및 애플리케이션 비용은 향후 더 많은 실제 제품에서 큰 이점을 제공할 수 있습니다. 또한 현지화된 경량의 사전 훈련된 시각적 모델은 더 많은 서비스를 지원하는 동시에 사용자 데이터와 개인 정보를 더 효과적으로 보호할 수 있습니다. 사용자의 데이터는 더 이상 장치 외부로 나갈 필요가 없으므로 모델 서비스와 같은 기능을 원격으로 업그레이드할 수 있습니다.
물론 연구자들은 사전 훈련된 가벼운 시각적 모델이 직면한 과제도 알고 있습니다. 한편으로는 모델 구조 설계 측면에서 모델 수의 제약 하에서 모델의 최적 학습 능력을 달성하는 방법을 알고 있습니다. 매개 변수 및 추론 지연은 항상 있어 왔습니다. 이는 학계와 업계가 세심한 주의를 기울이는 문제입니다. 많은 효과적인 모델 구조가 축적되고 UAT(Universal Approximation Theorem), NAS(Neural Network Structure Search) 등의 분야에서 큰 진전이 있었지만, 기존의 경량 사전 학습된 시각적 모델과 시각적 대규모 모델에는 여전히 격차가 있습니다. 더욱 최적화되고 개선되어야 하는 모델 간. 한편, 훈련 방법 측면에서 학계와 업계에서는 대형 시각적 모델에 대한 자기 감독, 이미지 분류, 다중 모드 등 다양한 훈련 방법을 제안하여 모델의 전반적인 성능을 크게 향상시켰습니다. 용량이 제한된 경량 모델에 대해 보다 효과적인 훈련 방법을 설계하는 방법은 추가 연구와 탐색이 필요합니다. Microsoft Research Asia의 연구원들은 사전 훈련된 가벼운 시각적 모델의 과학적 연구 진행을 지속적으로 홍보하고 이 분야의 관련 기술에 대해 소통하고 탐색할 더 많은 기술 동료를 환영할 것입니다.
위 내용은 이미지 검색을 효율적이고 정확하게 수행하는 방법은 무엇입니까? 경량 비전 사전 훈련 모델을 살펴보세요의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

세상은 미친 듯이 큰 모델을 만들고 있습니다. 인터넷의 데이터만으로는 충분하지 않습니다. 훈련 모델은 '헝거게임'처럼 생겼고, 전 세계 AI 연구자들은 이러한 데이터를 탐식하는 사람들에게 어떻게 먹이를 줄지 고민하고 있습니다. 이 문제는 다중 모드 작업에서 특히 두드러집니다. 아무것도 할 수 없던 시기에, 중국 인민대학교 학과의 스타트업 팀은 자체 새로운 모델을 사용하여 중국 최초로 '모델 생성 데이터 피드 자체'를 현실화했습니다. 또한 이해 측면과 생성 측면의 두 가지 접근 방식으로 양측 모두 고품질의 다중 모드 새로운 데이터를 생성하고 모델 자체에 데이터 피드백을 제공할 수 있습니다. 모델이란 무엇입니까? Awaker 1.0은 중관촌 포럼에 최근 등장한 대형 멀티모달 모델입니다. 팀은 누구입니까? 소폰 엔진. 런민대학교 힐하우스 인공지능대학원 박사과정 학생인 Gao Yizhao가 설립했습니다.

AI는 실제로 수학을 변화시키고 있습니다. 최근 이 문제에 주목하고 있는 타오저쉬안(Tao Zhexuan)은 '미국수학회지(Bulletin of the American Mathematical Society)' 최신호를 게재했다. '기계가 수학을 바꿀 것인가?'라는 주제를 중심으로 많은 수학자들이 그들의 의견을 표현했습니다. 저자는 필즈상 수상자 Akshay Venkatesh, 중국 수학자 Zheng Lejun, 뉴욕대학교 컴퓨터 과학자 Ernest Davis 등 업계의 유명 학자들을 포함해 강력한 라인업을 보유하고 있습니다. AI의 세계는 극적으로 변했습니다. 이 기사 중 상당수는 1년 전에 제출되었습니다.

무엇? 주토피아는 국내 AI로 현실이 되는 걸까? 영상과 함께 노출된 것은 '켈링'이라는 국산 대형 영상세대 신형 모델이다. Sora는 유사한 기술 경로를 사용하고 자체 개발한 여러 기술 혁신을 결합하여 크고 합리적인 움직임뿐만 아니라 물리적 세계의 특성을 시뮬레이션하고 강력한 개념적 결합 능력과 상상력을 갖춘 비디오를 제작합니다. 데이터에 따르면 Keling은 최대 1080p의 해상도로 30fps에서 최대 2분의 초장 영상 생성을 지원하며 다양한 화면비를 지원합니다. 또 다른 중요한 점은 Keling이 실험실에서 공개한 데모나 비디오 결과 시연이 아니라 단편 비디오 분야의 선두주자인 Kuaishou가 출시한 제품 수준 애플리케이션이라는 점입니다. 더욱이 백지 작성이 아닌 실용성에 중점을 두고, 출시되자마자 온라인에 진출하는 데 중점을 두고 있다. 콰이잉에서는 커링의 대형 모델이 출시됐다.

최근 군계는 미군 전투기가 이제 AI를 활용해 완전 자동 공중전을 완수할 수 있다는 소식에 충격을 받았다. 네, 얼마 전 미군의 AI 전투기가 최초로 공개되면서 그 미스터리가 드러났습니다. 이 전투기의 정식 명칭은 VISTA(Variable Stability Flight Simulator Test Aircraft)로 미 공군 장관이 직접 조종해 일대일 공중전을 모의 실험한 것이다. 5월 2일, 미 공군 장관 프랭크 켄달(Frank Kendall)이 X-62AVISTA를 타고 에드워드 공군 기지에서 이륙했습니다. 1시간의 비행 동안 모든 비행 작업은 AI에 의해 자동으로 완료되었습니다. Kendall은 "지난 수십 년 동안 우리는 자율 공대공 전투의 무한한 잠재력에 대해 생각해 왔지만 항상 도달할 수 없는 것처럼 보였습니다."라고 말했습니다. 그러나 지금은,

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.
