목차
ImageBind의 우수한 성능
기술 주변기기 일체 포함 이미지를 사용하여 모든 양식을 정렬하고, 메타 오픈 소스 다감각 AI 기본 모델을 통해 훌륭한 통합을 달성합니다.

이미지를 사용하여 모든 양식을 정렬하고, 메타 오픈 소스 다감각 AI 기본 모델을 통해 훌륭한 통합을 달성합니다.

May 11, 2023 pm 07:25 PM
모델 오픈 소스

인간의 감각에서 사진은 많은 경험을 하나로 모을 수 있습니다. 예를 들어 해변 사진은 파도 소리, 모래의 질감, ​​얼굴에 부는 바람을 떠올리게 할 수 있으며 창작에 영감을 줄 수도 있습니다. 영감의. 이미지의 이러한 "결합" 속성은 시각적 기능을 관련된 감각 경험과 정렬하여 학습하기 위한 대규모 감독 소스를 제공합니다.

이상적으로는 단일 관절 매립 공간에 대한 모든 감각을 정렬하여 시각적 특징을 학습해야 합니다. 그러나 이를 위해서는 동일한 이미지 세트에서 모든 감각 유형 및 조합에 대한 쌍 데이터를 얻어야 하는데 이는 분명히 불가능합니다.

최근에는 텍스트, 오디오 등에 맞춰 이미지 특징을 학습하는 방법이 많습니다. 이러한 방법은 단일 쌍의 양식을 사용하거나 최대 여러 개의 시각적 양식을 사용합니다. 최종 임베딩은 훈련에 사용되는 모달 쌍으로 제한됩니다. 따라서 비디오-오디오 임베딩은 이미지-텍스트 작업에 직접 사용할 수 없으며 그 반대의 경우도 마찬가지입니다. 진정한 조인트 임베딩을 학습하는 데 있어 주요 장애물은 모든 양식이 함께 융합되는 다량의 다중 모드 데이터가 부족하다는 것입니다.

오늘 Meta AI는 다양한 유형의 이미지 페어링 데이터를 활용하여 단일 공유 표현 공간을 학습하는 ImageBind를 제안했습니다. 이 연구에서는 모든 양식이 동시에 나타나는 데이터 세트가 필요하지 않습니다. 대신 각 양식의 임베딩이 이미지 임베딩과 일치하는 한 모든 양식이 이미지의 결합 속성을 활용합니다. 빠르게 정렬되었습니다. Meta AI도 해당 코드를 발표했습니다. 주소 : https://dl.fbaipublicfiles.com/imagebind/imagebind_final.pdf

github 주소 : https://github.com/facebookresearch/ ImageBind

이미지를 사용하여 모든 양식을 정렬하고, 메타 오픈 소스 다감각 AI 기본 모델을 통해 훌륭한 통합을 달성합니다.

  • 구체적으로 ImageBind는 네트워크 규모(이미지, 텍스트) 매칭 데이터를 활용하고 이를 자연적으로 존재하는 쌍 데이터(비디오, 오디오, 이미지, 깊이)와 결합하여 단일 조인트 임베딩 공간을 학습합니다. 이렇게 하면 ImageBind가 텍스트 임베딩을 다른 양식(예: 오디오, 깊이 등)과 암시적으로 정렬하여 명시적인 의미 또는 텍스트 쌍 없이 이러한 양식에 대한 제로샷 인식을 활성화할 수 있습니다.
  • 아래 그림 2는 ImageBind의 전반적인 개요입니다.

동시에 연구원들은 ImageBind가 대규모 시각적 언어 모델(예: CLIP)을 사용하여 초기화될 수 있으므로 이러한 모델의 풍부한 이미지 및 텍스트 표현을 활용할 수 있다고 말했습니다. 따라서 ImageBind는 교육이 거의 필요하지 않으며 다양한 양식과 작업에 적용될 수 있습니다.

ImageBind는 모든 관련 유형의 데이터로부터 학습하는 다중 모드 AI 시스템을 만들기 위한 Meta의 노력의 일부입니다. 양식의 수가 증가함에 따라 ImageBind는 연구자들이 몰입형 가상 세계를 설계하거나 경험하기 위해 3D 및 IMU 센서를 결합하는 등 새로운 전체적 시스템을 개발할 수 있는 수문을 열어줍니다. 또한 텍스트, 비디오, 이미지의 조합을 사용하여 이미지, 비디오, 오디오 파일 또는 텍스트 정보를 검색함으로써 기억을 탐색할 수 있는 풍부한 방법을 제공합니다.

이미지를 사용하여 모든 양식을 정렬하고, 메타 오픈 소스 다감각 AI 기본 모델을 통해 훌륭한 통합을 달성합니다.

콘텐츠와 이미지를 결합하고 단일 임베딩 공간을 학습합니다.

인간은 아주 적은 수의 샘플을 통해 새로운 개념을 학습할 수 있는 능력이 있습니다. 익숙하지 않은 자동차 모델의 사진을 통해 해당 자동차의 엔진에서 나는 소리를 예측할 수 있습니다. 이는 부분적으로 단일 이미지가 전반적인 감각 경험을 함께 "묶을" 수 있기 때문입니다. 그러나 인공지능 분야에서는 양식의 수가 증가하고 있지만 다감각 데이터의 부족으로 인해 쌍을 이루는 데이터가 필요한 표준 다중 모드 학습이 제한될 것입니다.

이상적으로는 다양한 유형의 데이터가 포함된 공동 임베딩 공간을 통해 모델이 시각적 특징을 학습하는 동시에 다른 양식을 학습할 수 있습니다. 이전에는 모든 양식이 공동 임베딩 공간을 학습하려면 가능한 모든 쌍별 데이터 조합을 수집해야 하는 경우가 많았습니다.

ImageBind는 최근 대규모 시각적 언어 모델을 활용하여 이러한 난제를 우회합니다. 이는 최근 대규모 시각적 언어 모델의 제로샷 기능을 비디오-오디오 및 이미지와 같은 이미지의 자연스러운 쌍을 통해 새로운 양식으로 확장합니다. -공동 임베딩 공간을 학습하기 위한 깊이 데이터. 다른 4가지 양식(오디오, 깊이, 열 화상 및 IMU 판독값)의 경우 연구원들은 자연스럽게 쌍을 이루는 자체 감독 데이터를 사용했습니다.

이미지를 사용하여 모든 양식을 정렬하고, 메타 오픈 소스 다감각 AI 기본 모델을 통해 훌륭한 통합을 달성합니다.

ImageBind는 6가지 양식의 임베딩을 공통 공간으로 정렬함으로써 여러 양식에서 동시에 관찰되지 않는 다양한 유형의 콘텐츠를 검색할 수 있습니다. 미리 훈련된 DALLE-2 디코더(CLIP 텍스트 임베딩과 함께 사용하도록 설계됨)와 함께 Meta AI의 오디오 임베딩을 사용하여 오디오-이미지 생성을 달성합니다.

인터넷에는 텍스트와 함께 나타나는 수많은 이미지가 있기 때문에 이미지-텍스트 모델 훈련이 널리 연구되어 왔습니다. ImageBind는 네트워크 데이터를 사용하여 텍스트를 이미지에 연결하거나 IMU 센서가 있는 웨어러블 카메라에서 캡처한 비디오 데이터를 사용하여 모션을 비디오에 연결하는 등 다양한 양식에 연결할 수 있는 이미지의 바인딩 속성을 활용합니다.

대규모 네트워크 데이터에서 학습된 시각적 표현은 다양한 모달 기능을 학습하기 위한 대상으로 사용될 수 있습니다. 이를 통해 ImageBind는 이미지를 동시에 존재하는 모든 양식과 정렬하여 해당 양식을 서로 자연스럽게 정렬할 수 있습니다. 이미지와 강한 상관관계가 있는 히트 맵, 깊이 맵과 같은 양식은 정렬하기가 더 쉽습니다. 오디오 및 IMU(관성 측정 장치)와 같은 비시각적 양식은 상관 관계가 약합니다. 예를 들어 아기 울음소리와 같은 특정 소리는 다양한 시각적 배경과 일치할 수 있습니다.

ImageBind는 이미지 페어링 데이터가 이러한 6가지 양식을 함께 묶는 데 충분하다는 것을 보여줍니다. 모델은 콘텐츠를 더 완전하게 설명할 수 있어 서로 다른 양식이 서로 "대화"하고 동시에 관찰하지 않고도 이들 사이의 연결을 찾을 수 있습니다. 예를 들어 ImageBind는 오디오와 텍스트를 함께 관찰하지 않고도 연결할 수 있습니다. 이를 통해 다른 모델은 리소스 집약적인 교육 없이도 새로운 양식을 "이해"할 수 있습니다.

ImageBind의 강력한 확장 성능을 통해 이 모델은 많은 인공 지능 모델을 대체하거나 향상하여 다른 양식을 사용할 수 있습니다. 예를 들어 Make-A-Scene은 텍스트 프롬프트를 사용하여 이미지를 생성할 수 있지만 ImageBind는 이를 업그레이드하여 웃음이나 빗소리와 같은 오디오를 사용하여 이미지를 생성할 수 있습니다.

ImageBind의 우수한 성능

Meta의 분석에 따르면 ImageBind의 크기 조정 동작은 이미지 인코더의 성능이 향상됨에 따라 향상됩니다. 즉, 양식을 정렬하는 ImageBind의 능력은 시각적 모델의 힘과 크기에 따라 확장됩니다. 이는 더 큰 시각적 모델이 오디오 분류와 같은 비시각적 작업에 유익하며 이러한 모델을 훈련하면 컴퓨터 비전 작업을 넘어서는 이점이 있음을 시사합니다.

실험에서 Meta는 ImageBind의 오디오 및 깊이 인코더를 사용하여 제로샷 검색 및 오디오 및 깊이 분류 작업에 대한 이전 작업과 비교했습니다.

이미지를 사용하여 모든 양식을 정렬하고, 메타 오픈 소스 다감각 AI 기본 모델을 통해 훌륭한 통합을 달성합니다.

벤치마크에서 ImageBind는 오디오 및 깊이 측면에서 전문가 모델보다 성능이 뛰어납니다.

Meta는 ImageBind가 몇 장의 오디오 및 심층 분류 작업에 사용될 수 있으며 이전 사용자 정의 방법보다 성능이 뛰어나다는 사실을 발견했습니다. 예를 들어 ImageBind는 Audioset에서 훈련된 Meta의 자체 감독 AudioMAE 모델과 오디오 분류에 대해 미세 조정된 감독 AudioMAE 모델보다 훨씬 뛰어난 성능을 발휘합니다.

또한 ImageBind는 크로스 모달 제로샷 인식 작업에서 새로운 SOTA 성능을 달성하여 해당 양식의 개념을 인식하도록 훈련된 최첨단 모델보다 성능이 뛰어납니다.

위 내용은 이미지를 사용하여 모든 양식을 정렬하고, 메타 오픈 소스 다감각 AI 기본 모델을 통해 훌륭한 통합을 달성합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. May 07, 2024 pm 04:13 PM

기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. Jun 01, 2024 pm 10:03 PM

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

AI가 수학적 연구를 전복시킨다! 필즈상 수상자이자 중국계 미국인 수학자, Terence Tao가 좋아하는 11개 논문 발표 | AI가 수학적 연구를 전복시킨다! 필즈상 수상자이자 중국계 미국인 수학자, Terence Tao가 좋아하는 11개 논문 발표 | Apr 09, 2024 am 11:52 AM

AI는 실제로 수학을 변화시키고 있습니다. 최근 이 문제에 주목하고 있는 타오저쉬안(Tao Zhexuan)은 '미국수학회지(Bulletin of the American Mathematical Society)' 최신호를 게재했다. '기계가 수학을 바꿀 것인가?'라는 주제를 중심으로 많은 수학자들이 그들의 의견을 표현했습니다. 저자는 필즈상 수상자 Akshay Venkatesh, 중국 수학자 Zheng Lejun, 뉴욕대학교 컴퓨터 과학자 Ernest Davis 등 업계의 유명 학자들을 포함해 강력한 라인업을 보유하고 있습니다. AI의 세계는 극적으로 변했습니다. 이 기사 중 상당수는 1년 전에 제출되었습니다.

Google은 열광하고 있습니다. JAX 성능이 Pytorch와 TensorFlow를 능가합니다! GPU 추론 훈련을 위한 가장 빠른 선택이 될 수 있습니다. Google은 열광하고 있습니다. JAX 성능이 Pytorch와 TensorFlow를 능가합니다! GPU 추론 훈련을 위한 가장 빠른 선택이 될 수 있습니다. Apr 01, 2024 pm 07:46 PM

Google이 추진하는 JAX의 성능은 최근 벤치마크 테스트에서 Pytorch와 TensorFlow를 능가하여 7개 지표에서 1위를 차지했습니다. 그리고 JAX 성능이 가장 좋은 TPU에서는 테스트가 이루어지지 않았습니다. 개발자들 사이에서는 여전히 Tensorflow보다 Pytorch가 더 인기가 있습니다. 그러나 앞으로는 더 큰 모델이 JAX 플랫폼을 기반으로 훈련되고 실행될 것입니다. 모델 최근 Keras 팀은 기본 PyTorch 구현을 사용하여 세 가지 백엔드(TensorFlow, JAX, PyTorch)와 TensorFlow를 사용하는 Keras2를 벤치마킹했습니다. 첫째, 그들은 주류 세트를 선택합니다.

권장 사항: 우수한 JS 오픈 소스 얼굴 감지 및 인식 프로젝트 권장 사항: 우수한 JS 오픈 소스 얼굴 감지 및 인식 프로젝트 Apr 03, 2024 am 11:55 AM

얼굴 검출 및 인식 기술은 이미 상대적으로 성숙하고 널리 사용되는 기술입니다. 현재 가장 널리 사용되는 인터넷 응용 언어는 JS입니다. 웹 프런트엔드에서 얼굴 감지 및 인식을 구현하는 것은 백엔드 얼굴 인식에 비해 장점과 단점이 있습니다. 장점에는 네트워크 상호 작용 및 실시간 인식이 줄어 사용자 대기 시간이 크게 단축되고 사용자 경험이 향상된다는 단점이 있습니다. 모델 크기에 따라 제한되고 정확도도 제한됩니다. js를 사용하여 웹에서 얼굴 인식을 구현하는 방법은 무엇입니까? 웹에서 얼굴 인식을 구현하려면 JavaScript, HTML, CSS, WebRTC 등 관련 프로그래밍 언어 및 기술에 익숙해야 합니다. 동시에 관련 컴퓨터 비전 및 인공지능 기술도 마스터해야 합니다. 웹 측면의 디자인으로 인해 주목할 가치가 있습니다.

대형 모델을 이해하는 Alibaba 7B 다중 모드 문서, 새로운 SOTA 획득 대형 모델을 이해하는 Alibaba 7B 다중 모드 문서, 새로운 SOTA 획득 Apr 02, 2024 am 11:31 AM

다중 모드 문서 이해 기능을 위한 새로운 SOTA! Alibaba mPLUG 팀은 최신 오픈 소스 작업인 mPLUG-DocOwl1.5를 출시했습니다. 이 작품은 고해상도 이미지 텍스트 인식, 일반 문서 구조 이해, 지침 따르기, 외부 지식 도입이라는 4가지 주요 과제를 해결하기 위한 일련의 솔루션을 제안했습니다. 더 이상 고민하지 말고 먼저 효과를 살펴보겠습니다. 복잡한 구조의 차트도 한 번의 클릭으로 인식하고 마크다운 형식으로 변환 가능: 다양한 스타일의 차트 사용 가능: 보다 자세한 텍스트 인식 및 위치 지정도 쉽게 처리 가능: 문서 이해에 대한 자세한 설명도 제공 가능: 아시다시피, " 문서 이해"는 현재 대규모 언어 모델 구현을 위한 중요한 시나리오입니다. 시장에는 문서 읽기를 지원하는 많은 제품이 있습니다. 그 중 일부는 주로 텍스트 인식을 위해 OCR 시스템을 사용하고 텍스트 처리를 위해 LLM을 사용합니다.

방금 출시되었습니다! 한 번의 클릭으로 애니메이션 스타일의 이미지를 생성할 수 있는 오픈 소스 모델 방금 출시되었습니다! 한 번의 클릭으로 애니메이션 스타일의 이미지를 생성할 수 있는 오픈 소스 모델 Apr 08, 2024 pm 06:01 PM

최신 AIGC 오픈소스 프로젝트인 AnimagineXL3.1을 소개하겠습니다. 이 프로젝트는 사용자에게 더욱 최적화되고 강력한 애니메이션 이미지 생성 경험을 제공하는 것을 목표로 하는 애니메이션 테마의 텍스트-이미지 모델의 최신 버전입니다. AnimagineXL3.1에서 개발 팀은 모델이 성능과 기능 면에서 새로운 수준에 도달할 수 있도록 여러 주요 측면을 최적화하는 데 중점을 두었습니다. 첫째, 이전 버전의 게임 캐릭터 데이터뿐만 아니라 다른 많은 유명 애니메이션 시리즈의 데이터도 훈련 세트에 포함하도록 훈련 데이터를 확장했습니다. 이러한 움직임은 모델의 지식 기반을 풍부하게 하여 다양한 애니메이션 스타일과 캐릭터를 더 완벽하게 이해할 수 있게 해줍니다. AnimagineXL3.1은 새로운 특수 태그 및 미학 세트를 소개합니다.

See all articles