다중 모드 제어 가능 이미지 생성을 위한 통합 모델이 출시되었으며 모든 모델 매개변수 및 추론 코드는 오픈 소스입니다.
- 문서 주소: https://arxiv.org/abs/2305.11147
- 코드 주소: https://github.com/salesforce/UniControl
- 프로젝트 홈페이지: https://shorturl.at/lmMX6
소개: Stable Diffusion은 강력한 시각적 생성 능력을 보여줍니다. 그러나 공간적, 구조적 또는 기하학적 제어를 통해 이미지를 생성하는 데는 종종 부족합니다. ControlNet [1] 및 T2I-adpater [2]와 같은 작업은 다양한 양식에 대해 제어 가능한 이미지 생성을 달성하지만 단일 통합 모델에서 다양한 시각적 조건에 적응할 수 있는 능력은 아직 해결되지 않은 과제로 남아 있습니다. UniControl은 단일 프레임워크 내에 제어 가능한 다양한 C2I(조건-이미지) 작업을 통합합니다. UniControl이 다양한 시각적 조건을 처리할 수 있도록 하기 위해 저자는 다양한 C2I 작업에 동시에 적응할 수 있도록 다운스트림 조건부 확산 모델을 조정하는 작업 인식 HyperNet을 도입했습니다. UniControl은 9가지 C2I 작업에 대한 교육을 받았으며 강력한 시각적 생성 기능과 제로샷 일반화 기능을 보여줍니다. 저자는 모델 매개변수와 추론 코드를 오픈 소스로 공개했습니다. 데이터 세트와 학습 코드도 가능한 한 빨리 오픈 소스로 공개될 예정입니다.
그림 1: UniControl 모델은 여러 사전 훈련 작업과 제로샷 작업으로 구성됩니다.
동기: 기존 제어 가능한 이미지 생성 모델은 모두 단일을 목표로 합니다. 그러나 Taskonomy[3]와 같은 작업은 서로 다른 시각적 양식 간에 기능과 정보가 공유된다는 것을 입증합니다. 따라서 이 기사에서는 통합된 다중 모드 모델이 큰 잠재력을 가지고 있다고 믿습니다.
해결책: 이 기사에서는 UniControl에서 다중 모드 조건 생성 기능을 구현하기 위해 MOE 스타일 어댑터 및 작업 인식 HyperNet을 제안합니다. 그리고 저자는 9개의 주요 작업, 2천만 개 이상의 이미지 조건 프롬프트 트리플 및 이미지 크기 ≥512를 포함하는 새로운 데이터 세트 MultiGen-20M을 만들었습니다.
장점: 1) 더 컴팩트한 모델(1.4B #params, 5.78GB 체크포인트), 여러 작업을 구현하기 위한 더 적은 매개변수. 2) 더욱 강력해진 시각적 생성 기능과 제어 정확도. 3) 본 적이 없는 방식에 대한 제로샷 일반화 능력.
1. 소개
생성 기본 모델은 자연어 처리, 컴퓨터 비전, 오디오 처리 및 로봇 제어와 같은 분야에서 인공 지능이 상호 작용하는 방식을 변화시키고 있습니다. 자연어 처리에서 InstructGPT 또는 GPT-4와 같은 생성 기반 모델은 다양한 작업에서 우수한 성능을 발휘하며 이러한 멀티태스킹 기능은 가장 매력적인 기능 중 하나입니다. 또한, 보이지 않는 작업을 처리하기 위해 제로샷 또는 퓨샷 학습을 수행할 수 있습니다.
그러나 시각 영역의 생성 모델에서는 이러한 멀티 태스킹 기능이 눈에 띄지 않습니다. 텍스트 설명은 생성된 이미지의 내용을 제어하는 유연한 방법을 제공하지만 픽셀 수준의 공간적, 구조적 또는 기하학적 제어를 제공하는 데는 종종 부족합니다. ControlNet, T2I 어댑터와 같은 최근의 인기 있는 연구에서는 SDM(안정 확산 모델)을 향상하여 정밀한 제어를 달성할 수 있습니다. 그러나 CLIP과 같은 통합 모듈로 처리할 수 있는 언어 단서와 달리 각 ControlNet 모델은 교육받은 특정 양식만 처리할 수 있습니다.
이전 연구의 한계를 극복하기 위해 본 논문에서는 언어와 다양한 시각적 조건을 모두 처리할 수 있는 통합 확산 모델인 UniControl을 제안합니다. UniControl의 통합 설계를 통해 교육 및 추론 효율성이 향상되고 제어 가능 생성이 향상됩니다. 반면 UniControl은 다양한 시각적 조건 간의 고유한 연결을 활용하여 각 조건의 생성 효과를 향상시킵니다.
UniControl의 통합 제어 가능 생성 기능은 두 부분으로 구성됩니다. 하나는 "MOE 스타일 어댑터"이고 다른 하나는 "작업 인식 HyperNet"입니다. MOE 스타일 어댑터에는 약 70K 매개변수가 있으며 다양한 양식에서 하위 수준 기능 맵을 학습할 수 있습니다. 작업 인식 HyperNet은 작업 지침을 자연어 프롬프트로 입력하고 다운스트림 모델 매개변수를 변조하기 위해 다운스트림 네트워크에 내장할 작업 임베딩을 출력할 수 있습니다. 다양한 모달 입력에 적응합니다.
이 연구에서는 에지(Canny, HED, Sketch), 영역 매핑(Segmentation, Object Bound) Box), 뼈대(인간 뼈대), 기하학(깊이, 법선 표면) 및 이미지 편집(이미지 아웃페인팅). 그런 다음 연구에서는 NVIDIA A100 하드웨어에서 UniControl을 5,000 GPU 시간 이상 훈련했습니다(새로운 모델은 현재도 계속 훈련되고 있습니다). 그리고 UniControl은 새로운 작업에 대한 제로샷 적응성을 보여줍니다.
본 연구의 기여는 다음과 같이 요약할 수 있습니다.
- 본 연구는 제어 가능한 비전 생성을 위해 다양한 시각 조건(1.4B #params, 5.78GB 체크포인트)을 처리할 수 있는 통합 모델인 UniControl을 제안합니다.
- 이 연구에서는 5가지 범주의 9가지 작업을 포괄하는 2천만 개 이상의 이미지-텍스트-조건 트리플이 포함된 새로운 다중 조건 시각적 생성 데이터 세트를 수집했습니다.
- 이 연구에서는 다양한 시각적 조건 간의 본질적인 관계를 학습함으로써 통합 모델 UniControl이 단일 작업별로 제어된 이미지 생성 성능을 능가한다는 것을 입증하기 위한 실험을 수행했습니다.
- UniControl은 제로샷 방식으로 보이지 않는 작업에 적응하는 능력을 보여줌으로써 개방형 환경에서 광범위하게 사용할 수 있는 가능성과 잠재력을 보여줍니다.
2. 모델 디자인
그림 2: 모델 구조. 여러 작업을 수용하기 위해 연구에서는 작업당 약 70K 매개변수가 있는 MOE 스타일 어댑터와 7개의 제로 컨벌루션 레이어를 변조하는 작업 인식 HyperNet(~12M 매개변수)을 설계했습니다. 이 구조를 통해 단일 모델에서 다중 작업 기능을 구현할 수 있으므로 다중 작업의 다양성을 보장할 뿐만 아니라 기본 매개변수 공유도 유지됩니다. 동등한 스택 단일 작업 모델(모델당 약 1.4B 매개변수)에 비해 모델 크기가 크게 감소합니다.
UniControl 모델 설계는 두 가지 속성을 보장합니다.
1) 다양한 형식의 하위 수준 기능 간의 정렬 불량을 극복합니다. 이를 통해 UniControl은 모든 작업에서 필요하고 고유한 정보를 학습할 수 있습니다. 예를 들어 모델이 분할 맵을 시각적 조건으로 사용하는 경우 3D 정보가 무시될 수 있습니다.
2) 업무 전반에 걸쳐 메타지식을 학습할 수 있습니다. 이를 통해 모델은 작업 간의 공유 지식과 작업 간의 차이점을 이해할 수 있습니다.
이러한 속성을 제공하기 위해 모델에는 MOE 스타일 어댑터와 작업 인식 HyperNet이라는 두 가지 새로운 모듈이 도입되었습니다.
MOE 스타일 어댑터는 컨볼루션 모듈 세트이며, 각 어댑터는 다양한 낮은 수준의 시각적 조건의 기능을 캡처하기 위해 UniControl로 사용되는 MOE(Mixture of Experts Model)에서 영감을 받은 별도의 양식에 해당합니다. 이 어댑터 모듈에는 약 70,000개의 매개변수가 있으며 계산 효율성이 매우 높습니다. 그런 다음 시각적 특징은 처리를 위해 통합 네트워크에 공급됩니다.
작업 인식 HyperNet은 작업 명령 조건을 통해 ControlNet의 제로 컨볼루션 모듈을 조정합니다. HyperNet은 먼저 작업 지침을 작업 임베딩에 투영한 다음 연구원들은 ControlNet의 제로 컨볼루션 레이어에 작업 임베딩을 주입합니다. 여기서 작업 임베딩은 제로 컨볼루션 계층의 컨볼루션 커널 행렬 크기에 해당합니다. StyleGAN [4]과 유사하게 본 연구에서는 두 개를 직접 곱하여 컨볼루션 매개변수를 변조하고 변조된 컨볼루션 매개변수를 최종 컨볼루션 매개변수로 사용합니다. 따라서 각 작업의 변조된 제로 컨볼루션 매개변수가 다릅니다. 이는 각 양식에 대한 모델의 적응성을 보장합니다. 또한 모든 가중치가 공유됩니다.
3. 모델 훈련
SDM 또는 ControlNet과 달리 이러한 모델의 이미지 생성 조건은 단일 언어 신호 또는 canny와 같은 단일 유형의 시각적 조건입니다. UniControl은 다양한 작업의 다양한 시각적 조건과 언어적 신호를 처리해야 합니다. 따라서 UniControl의 입력은 소음, 텍스트 프롬프트, 시각적 조건 및 작업 지시의 네 부분으로 구성됩니다. 그 중 시각적 조건의 양상에 따라 자연스럽게 과제지시를 얻을 수 있다.
이러한 학습 쌍을 생성하여 이 연구에서는 DDPM[5]을 채택하여 모델을 학습합니다.
4. 실험 결과
그림 6: 테스트 세트 시각적 비교 결과. 테스트 데이터는 MSCOCO [6] 및 Laion [7]
에서 가져온 것입니다. 본 연구에서 재현된 공식 또는 ControlNet과의 비교 결과는 그림 6에 나와 있습니다. 자세한 결과는 논문을 참조하십시오.
5.제로샷 작업 일반화
모델은 다음 두 가지 시나리오에서 제로샷 능력을 테스트합니다.
혼합 작업 일반화: 이 연구에서는 두 가지 서로 다른 시각적 조건을 UniControl에 대한 입력으로 간주합니다. 분할 맵과 인간 골격의 혼합, 특정 키워드 "배경" 및 "전경"이 텍스트 프롬프트에 추가되었습니다. 또한, 이 연구는 하이브리드 작업 지침을 "분할 맵 및 인간 골격을 이미지로"와 같은 두 가지 작업을 결합하기 위한 지침의 하이브리드로 다시 작성합니다.
새로운 작업 일반화: UniControl은 보이지 않는 새로운 시각적 조건에서 제어 가능한 이미지를 생성하는 데 필요합니다. 이를 달성하려면 보이지 않는 작업과 보이는 사전 훈련된 작업 간의 관계를 기반으로 작업 가중치를 추정하는 것이 중요합니다. 작업 가중치는 임베딩 공간에서 작업 지침의 유사성 점수를 수동으로 할당하거나 계산하여 추정할 수 있습니다. MOE 스타일 어댑터는 예상된 작업 가중치로 선형적으로 조립되어 보이지 않는 새로운 시각적 조건에서 얕은 특징을 추출할 수 있습니다.
시각화된 결과는 그림 7에 나와 있습니다. 더 많은 결과는 논문을 참조하세요.
그림 7: 제로샷 작업에 대한 UniControl의 시각화 결과
6. 요약
일반적으로 UniControl 모델은 제어 다양성을 통해 제어 가능한 비전 생성을 제공합니다. 새로운 기본 모델을 제공합니다. 이러한 모델은 이미지 생성 작업에 대한 더 높은 수준의 자율성과 인간 제어를 달성할 수 있는 가능성을 제공할 수 있습니다. 본 연구는 이 분야의 발전을 더욱 촉진하기 위해 더 많은 연구자들과 논의하고 협력하기를 기대합니다.
더 많은 영상
위 내용은 다중 모드 제어 가능 이미지 생성을 위한 통합 모델이 출시되었으며 모든 모델 매개변수 및 추론 코드는 오픈 소스입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

AI는 실제로 수학을 변화시키고 있습니다. 최근 이 문제에 주목하고 있는 타오저쉬안(Tao Zhexuan)은 '미국수학회지(Bulletin of the American Mathematical Society)' 최신호를 게재했다. '기계가 수학을 바꿀 것인가?'라는 주제를 중심으로 많은 수학자들이 그들의 의견을 표현했습니다. 저자는 필즈상 수상자 Akshay Venkatesh, 중국 수학자 Zheng Lejun, 뉴욕대학교 컴퓨터 과학자 Ernest Davis 등 업계의 유명 학자들을 포함해 강력한 라인업을 보유하고 있습니다. AI의 세계는 극적으로 변했습니다. 이 기사 중 상당수는 1년 전에 제출되었습니다.

Google이 추진하는 JAX의 성능은 최근 벤치마크 테스트에서 Pytorch와 TensorFlow를 능가하여 7개 지표에서 1위를 차지했습니다. 그리고 JAX 성능이 가장 좋은 TPU에서는 테스트가 이루어지지 않았습니다. 개발자들 사이에서는 여전히 Tensorflow보다 Pytorch가 더 인기가 있습니다. 그러나 앞으로는 더 큰 모델이 JAX 플랫폼을 기반으로 훈련되고 실행될 것입니다. 모델 최근 Keras 팀은 기본 PyTorch 구현을 사용하여 세 가지 백엔드(TensorFlow, JAX, PyTorch)와 TensorFlow를 사용하는 Keras2를 벤치마킹했습니다. 첫째, 그들은 주류 세트를 선택합니다.

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

얼굴 검출 및 인식 기술은 이미 상대적으로 성숙하고 널리 사용되는 기술입니다. 현재 가장 널리 사용되는 인터넷 응용 언어는 JS입니다. 웹 프런트엔드에서 얼굴 감지 및 인식을 구현하는 것은 백엔드 얼굴 인식에 비해 장점과 단점이 있습니다. 장점에는 네트워크 상호 작용 및 실시간 인식이 줄어 사용자 대기 시간이 크게 단축되고 사용자 경험이 향상된다는 단점이 있습니다. 모델 크기에 따라 제한되고 정확도도 제한됩니다. js를 사용하여 웹에서 얼굴 인식을 구현하는 방법은 무엇입니까? 웹에서 얼굴 인식을 구현하려면 JavaScript, HTML, CSS, WebRTC 등 관련 프로그래밍 언어 및 기술에 익숙해야 합니다. 동시에 관련 컴퓨터 비전 및 인공지능 기술도 마스터해야 합니다. 웹 측면의 디자인으로 인해 주목할 가치가 있습니다.

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.
