최근 Yuncong Technology의 대규모 모델은 비전 분야에서 다시 중요한 진전을 이루었습니다. 비전의 기본 대규모 모델을 기반으로 하는 타겟 탐지기는 Microsoft의 탐지 분야에서 유명한 벤치마크 COCO 데이터 세트에서 큰 성공을 거두었습니다. 연구(MSR), 상하이 인공지능 연구소, 지능형 지능 위안 인공지능 연구소(Yuan Artificial Intelligence Research Institute) 등 많은 유명 기업과 연구 기관이 눈에 띄며 새로운 세계 기록을 세웠습니다.
COCO 테스트 세트에서 Yuncong Technology의 대형 모델의 평균 정확도(이하 mAP, 평균 정밀도라고 함)가 0.662에 도달하여 목록에서 1위를 차지했습니다(아래 그림 참조). 검증 세트에서 단일 스케일은 0.656의 mAP를 달성했고, 다중 스케일 TTA 이후의 mAP는 0.662에 도달하여 둘 다 세계 최고의 수준에 도달했습니다.
빅데이터와 자기주도학습을 결합해 핵심 시각기술 탄생
GPT로 대표되는 빅데이터 자기 지도 사전 훈련은 자연어 이해(NLP) 분야에서 눈부신 발전을 이루었습니다. 시각적 분야에서도 자기 지도 학습과 결합된 빅 데이터는 기본 모델 훈련에서도 중요한 진전을 이루었습니다.
광범위한 시각적 데이터는 모델이 일반적인 기본 기능을 학습하는 데 도움이 됩니다. YunCong Vision의 대규모 기본 모델은 레이블이 지정되지 않은 대량의 데이터 세트와 다중 모드 이미지 및 텍스트 데이터 세트를 포함하여 20억 개 이상의 데이터를 사용하여 모델이 강력한 특징을 추출할 수 있게 하여 복잡성을 크게 줄입니다. 다운스트림 작업의 개발 비용.
반면, 자기 지도 학습에는 수동 주석이 필요하지 않으므로 레이블이 지정되지 않은 대규모 데이터로 시각적 모델을 훈련할 수 있습니다. Yuncong은 COCO 감지 작업에 대한 좋은 결과에서 알 수 있듯이 자기 지도 학습 알고리즘을 많이 개선하여 감지 및 분할과 같은 세분화된 작업에 더 적합하게 만들었습니다.
개방형 타겟 감지 + 제로타임 학습 감지 기능으로 R&D 비용 대폭 절감
비주얼 기본 모델의 탁월한 성능 덕분에 Yuncong Rongrong의 대형 모델은 대규모 이미지 및 텍스트 다중 모달 데이터를 기반으로 학습하여 수천 개의 제로샷 학습(이하 제로샷) 감지를 지원할 수 있습니다. 에너지, 운송, 제조업 등 다양한 목표를 포괄하는 목표 카테고리입니다.
다양한 데이터 세트에 대한 대형 모델의 제로샷 기능 성능
제로샷은 인간의 추론 과정을 모방하고 과거 지식을 사용하여 컴퓨터에 있는 새로운 개체의 특정 형태에 대해 추론함으로써 컴퓨터에 새로운 것을 인식하는 능력을 부여할 수 있습니다.
제로샷을 이해하는 방법은 무엇인가요? 당나귀와 말의 형태적 특징을 알고, 호랑이와 하이에나가 줄무늬 동물이고, 팬더와 펭귄이 흑백 동물이라는 것도 알고 있다고 가정해 보겠습니다. 얼룩말 사진을 보지 않고 추론만으로 동물원의 모든 동물 중에서 얼룩말을 찾을 수 있습니다.
Yuncong Vision의 대규모 기본 모델은 강력한 일반화 성능을 보여 다운스트림 작업에 필요한 데이터 의존성과 개발 비용을 크게 줄이는 동시에 제로샷은 교육 및 개발 효율성을 크게 향상시켜 광범위한 적용과 빠른 배포를 가능하게 합니다.
위 내용은 Yuncong Technology의 대규모 모델은 벤치마크 COCO에서 세계 기록을 경신하여 AI 적용 비용을 크게 절감합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!