UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

WBOY
풀어 주다: 2023-12-04 18:25:55
앞으로
948명이 탐색했습니다.
비주얼(픽셀) 모델만으로 어디까지 갈 수 있나요? UC Berkeley와 Johns Hopkins University의 새로운 논문에서는 이 문제를 탐구하고 다양한 CV 작업에서 LVM(대형 비전 모델)의 잠재력을 보여줍니다.

최근에는 GPT, LLaMA 등 대형 언어 모델(LLM)이 전 세계적으로 인기를 끌고 있습니다.

LVM(Large Vision Models)을 구축하는 것은 큰 관심사입니다. 이를 달성하려면 무엇이 필요합니까?

LLaVA와 같은 시각 언어 모델이 제공하는 아이디어는 흥미롭고 탐구할 가치가 있지만 동물계의 법칙에 따르면 시각 능력과 언어 능력은 관련이 없다는 것을 이미 알고 있습니다. 예를 들어, 많은 실험에서는 인간이 아닌 영장류의 언어 체계가 인간과 "동일"함에도 불구하고 시각적 세계가 인간의 시각적 세계와 매우 유사하다는 사실이 밝혀졌습니다.

최근 논문에서는 픽셀만으로 얼마나 멀리 갈 수 있는가에 대한 또 다른 질문에 대한 답을 논의합니다. 논문은 캘리포니아대학교, 버클리대학교, 존스홉킨스대학교

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

  • 논문 링크: https://arxiv.org/abs/2312.00785

  • 프로젝트 홈페이지: https:// yutongbai .com/lvm.html

연구원들이 LVM에서 모방하려는 LLM의 주요 특성: 1) 데이터의 규모 증가에 따라 비즈니스를 확장하려면 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공과 지속적인 성장을 이룰 수 있다고 믿습니다. 2) 프롬프트를 통해 유연하게 작업을 지정합니다(상황별 학습).

그들은 세 가지 주요 구성 요소, 즉 데이터, 아키텍처 및 손실 기능을 지정했습니다.

데이터 측면에서 연구자들은 시각적 데이터의 상당한 다양성을 활용하고 싶어합니다. 주석이 없는 원시 이미지와 비디오로 시작하여 지난 수십 년 동안 생성된 주석이 달린 다양한 시각적 데이터 소스(의미론적 분할, 깊이 재구성, 키포인트, 다중 뷰 3D 개체 등 포함)를 활용합니다. 그들은 픽셀 이상의 메타 지식이 필요하지 않고 이러한 다양한 주석을 표현하기 위해 공통 형식("시각적 문장")을 정의했습니다. 훈련 세트의 총 크기는 16억 4천만 개의 이미지/프레임입니다.

아키텍처 측면에서 연구원들은 대규모 변환기 아키텍처(30억 매개변수)를 사용하여 토큰 시퀀스로 표현된 시각적 데이터를 훈련하고 학습된 토크나이저를 사용하여 각 이미지를 256개의 벡터 양자화토큰 문자열에 매핑했습니다.

손실 함수 측면에서 연구자들은 자연어 커뮤니티에서 영감을 얻었습니다. 즉, 마스크 토큰 모델링은 시퀀스 자동 회귀 예측 방법에 "제공"되었습니다. 이미지, 비디오 및 주석이 달린 이미지를 모두 시퀀스로 표현할 수 있으면 훈련된 모델은 다음 토큰을 예측할 때 교차 엔트로피 손실을 최소화할 수 있습니다.

이 극도로 단순한 디자인을 통해 연구원은 다음과 같은 주목할만한 행동을 보여주었습니다.

  • 모델 크기와 데이터 크기가 증가함에 따라 모델이 자동으로 적절함을 보여줍니다. 비즈니스 확장을 위해서는 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공을 거두고 지속적인 성장을 달성할 수 있다고 믿습니다.

  • 이제 테스트 중에 적절한 프롬프트를 디자인하면 다양한 시각적 작업을 해결할 수 있습니다. 특별히 훈련된 맞춤형 모델만큼 고성능 결과는 아니지만 단일 비전 모델이 이렇게 많은 작업을 해결할 수 있다는 사실은 매우 고무적입니다.

  • 다양한 비전 작업에 대한 대량의 비지도 데이터 성능에 큰 도움이 됩니다.

  • 배포되지 않은 데이터를 처리하고 새로운 작업을 수행할 때 일반적인 시각적 추론 능력의 징후가 있었지만 여전히 추가 연구가 필요합니다.

논문의 공동 저자인 John Hope Yutong Bai, Kings College의 4년차 CS 박사 과정 학생과 Berkeley의 방문 박사 과정 학생이 자신의 작업을 홍보하기 위해 트윗을 올렸습니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

원본 이미지 출처는 트위터 계정입니다: https://twitter.com/YutongBAI1002/status/1731512110247473608

논문 작성자 중 마지막 3명은 해당 분야의 선임 학자입니다. UC 버클리 이력서. Trevor Darrell 교수는 버클리 인공지능 연구실인 BAIR의 창립 공동 소장이고, Jitendra Malik 교수는 2019 IEEE Computer Pioneer Award를 수상했으며, Alexei A. Efros 교수는 최근접 이웃 연구로 특히 유명합니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

왼쪽부터 Trevor Darrell, Jitendra Malik, Alexei A. Efros입니다.

방법 소개

이 기사에서는 2단계 접근 방식을 사용합니다. 1) 각 이미지를 일련의 시각적 토큰으로 변환할 수 있는 대규모 시각적 토크나이저(단일 이미지에서 작동)를 교육합니다. 시각적 문장 자동회귀 변환기 모델, 각 문장은 일련의 토큰으로 표시됩니다. 방법은 그림 2에 나와 있습니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

이미지 토큰화

Transformer 모델을 이미지에 적용하기 위한 일반적인 작업은 다음과 같습니다. 이미지를 패치로 나누고 이를 시퀀스로 처리하거나 사전 훈련된 이미지를 사용합니다. VQVAE 또는 VQGAN과 같은 토크나이저는 이미지 기능을 개별 토큰 그리드로 집계합니다. 이 기사에서는 VQGAN 모델을 사용하여 의미론적 토큰을 생성하는 후자의 방법을 채택합니다.

LVM 프레임워크에는 인코딩 및 디코딩 메커니즘이 포함되어 있으며 인코더와 디코더가 컨벌루션 레이어로 구축되는 양자화 레이어도 있습니다. 인코더에는 입력의 공간 크기를 줄이기 위한 여러 다운샘플링 모듈이 장착되어 있고, 디코더에는 이미지를 원래 크기로 복원하기 위한 일련의 동등한 업샘플링 모듈이 장착되어 있습니다. 특정 이미지에 대해 VQGAN 토크나이저는 256개의 개별 토큰을 생성합니다.

이 문서의 VQGAN 아키텍처는 Chang et al.이 제안한 구현 세부 사항을 채택하고 해당 설정을 따릅니다. 구체적으로 다운샘플링 인자는 f=16이고 코드북 크기는 8192이다. 이는 256×256 크기의 이미지에 대해 VQGAN 토크나이저가 16×16=256개의 토큰을 생성하고 각 토큰이 8192개의 서로 다른 값을 가질 수 있음을 의미합니다. 또한 이 기사에서는 LAION 5B 데이터 세트의 1.5B 하위 집합에 대해 토크나이저를 교육했습니다

시각적 문장 시퀀스 모델링

VQGAN을 사용하여 이미지를 개별 토큰으로 변환한 후 이 기사에서는 여러 이미지의 개별 토큰을 사용하여 하나로 연결합니다. -차원적 서열을 다루고 시각적 문장을 통일된 서열로 취급합니다. 중요한 것은 어떤 시각적 문장도 특별히 처리되지 않았다는 것입니다. 즉, 특정 작업이나 형식을 나타내는 데 특별한 토큰이 사용되지 않았습니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

시각적 문장의 기능은 다양한 시각적 데이터를 통일된 이미지 시퀀스 구조로 형식화하는 것입니다

구현 세부정보. 본 논문에서는 시각적 문장의 각 이미지를 256개의 토큰으로 토큰화한 후 이를 연결하여 1D 토큰 시퀀스를 형성합니다. 시각적 토큰 시퀀스에서 이 기사의 Transformer 모델은 실제로 자동 회귀 언어 모델과 동일하므로 LLaMA의 Transformer 아키텍처를 채택합니다.

이 콘텐츠는 언어 모델과 유사한 4096 토큰의 컨텍스트 길이를 사용합니다. 각 시각적 문장의 시작 부분에 [BOS](문장 시작) 토큰을 추가하고 끝에 [EOS](문장 끝) 토큰을 추가하고 훈련 중에 시퀀스 스플라이싱을 사용하여 효율성을 향상시킵니다.

이 기사는 전체 UVDv1 데이터세트(4200, 1억 토큰), 서로 다른 매개변수 번호를 가진 총 4개 모델(3억, 6억, 10억, 30억)이 훈련되었습니다.

실험 결과를 다시 작성해야 합니다

모델을 평가하기 위해 실험을 수행했습니다. 비즈니스를 확장하려면 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공을 이룰 수 있으며, 다양한 업무를 이해하고 대답하는 능력과 능력이 지속적으로 성장할 수 있다고 믿습니다.

비즈니스를 확장하려면 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성과를 이루고 지속적인 성장을 이룰 수 있다고 믿습니다

그림 3에서 볼 수 있듯이, 본 연구에서는 먼저 다양한 크기의 LVM의 학습 손실을 조사했습니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

아래 그림 4에서 볼 수 있듯이 더 큰 모델은 모든 작업에서 복잡성이 낮아 모델의 전체 성능이 다양한 다운스트림 작업으로 이전될 수 있음을 나타냅니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

그림 5에 표시된 것처럼 각 데이터 구성 요소는 다운스트림 작업에 중요한 영향을 미칩니다. LVM은 더 큰 데이터의 이점을 누릴 뿐만 아니라 데이터 세트의 다양성으로 인해 향상됩니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

원래 의미를 변경하지 않고 내용을 다시 작성하려면 언어를 중국어로 다시 작성해야 합니다. 원래 문장이 나타나야 합니다

LVM의 다양한 프롬프트 이해 능력을 테스트하기 위해 본 연구에서는 먼저 LVM에서 시퀀스 추론 작업에 대한 평가 실험을 수행했습니다. 그중 프롬프트는 매우 간단합니다. 모델에 7개의 이미지 시퀀스를 제공하고 다음 이미지를 예측하도록 요청합니다. 실험 결과는 아래 그림 6과 같이 다시 작성되어야 합니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

연구에서는 또한 카테고리의 항목 목록 이를 시퀀스로 처리하고 LVM이 동일한 카테고리의 이미지를 예측하도록 합니다. 실험 결과는 아래 그림 15와 같이 다시 작성되어야 합니다. 후속 프레임을 예측하시겠습니까?

이 연구에서는 다양한 길이(1~15프레임)의 상황별 프롬프트를 제공하여 모델의 프레임 생성 복잡성을 평가합니다. 결과는 프레임 수가 증가함에 따라 Perplexity가 점차 개선되는 것을 보여줍니다. 구체적인 데이터는 아래 그림 7에 나와 있습니다. Perplexity는 프레임 1에서 프레임 11까지 크게 개선된 후 안정화되었습니다(62.1 → 48.4)UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

Analogy Prompt

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

이 연구에서는 LVM 설명의 고급 수준도 테스트했습니다.

아래 그림 8은 여러 작업에 대한 유추 프롬프트의 질적 결과를 보여줍니다.

시각적 프롬프트와의 비교를 바탕으로 시퀀스 LVM을 볼 수 있습니다. 거의 모든 작업에서 이전 방법보다 더 나은 성능을 발휘합니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

합성 작업. 그림 9는 단일 프롬프트를 사용하여 여러 작업을 결합한 결과를 보여줍니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

기타 프롬프트

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

연구원들은 이전에 비즈니스에서 볼 수 없었던 다양한 프롬프트를 제공하여 모델의 크기 조정을 관찰하려고 했습니다. 우리는 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공과 지속적인 성장을 이룰 수 있다고 믿습니다. 아래 그림 10에서는 이러한 프롬프트 중 일부가 잘 작동하는 것을 보여줍니다.

아래 그림 11은 말로 설명하기 어려운 몇 가지 프롬프트를 보여 주며 결국 이러한 작업에서 LVM보다 뛰어난 성능을 발휘할 수 있습니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

그림 13은 비언어적 인간 IQ 테스트에서 일반적인 시각적 추론 문제에 대한 예비 정성적 결과를 보여줍니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

자세한 내용은 원본 기사를 읽어보세요.

위 내용은 UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:jiqizhixin.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿