정확도가 20% 미만입니다. GPT-4V/Gemini는 만화를 읽을 수 없습니다! 최초의 오픈 소스 이미지 시퀀스 벤치마크
OpenAI의 GPT-4V와 Google의 Gemini 다중 모달 대형 언어 모델은 업계와 학계의 광범위한 관심을 끌었습니다. 이러한 모델은 다양한 영역에서 비디오에 대한 깊은 이해를 보여주며 다양한 관점에서 비디오의 잠재력을 보여줍니다. 이러한 발전은 인공 일반 지능(AGI)을 향한 중요한 단계로 널리 간주됩니다.
하지만 GPT-4V가 만화 속 캐릭터의 행동을 잘못 읽을 수도 있다고 말하면 질문하겠습니다. Yuanfang, 어떻게 생각하시나요?
이 미니 만화 시리즈를 살펴 보겠습니다.
Pictures
생물학적 세계에서 가장 높은 지능을 가진 인간, 즉 독자 친구 여러분이 설명하게 된다면 가장 다음과 같이 말할 것 같습니다:
Pictures
그럼 기계 세계의 최고 지능, 즉 GPT-4V가 이 미니 만화 시리즈에 대해 무엇을 설명할지 볼까요?
Pictures
GPT - 4V는 경멸 사슬의 정점에 있다고 인정받는 기계 지능으로서 실제로는 노골적으로 거짓말을 했습니다.
더 황당한 것은 GPT-4V가 실생활 영상을 제공하더라도 계단을 올라가면서 다른 사람과 대화하는 행동을 두 사람이 '무기'를 들고 서로 싸우는 것으로 황당하게 인식한다는 점이다. 장난스럽습니다(아래 그림).
Pictures
제미니도 멀지 않았습니다. 같은 이미지 클립에는 한 남자가 위층으로 올라가려고 애쓰다가 아내와 말다툼을 하고 집에 갇히는 과정이 담겨 있습니다.
Pictures
이 예는 MLLM용으로 특별히 설계된 이미지 시퀀스에 대한 추론 벤치마크인 Mementos를 출시한 메릴랜드 대학교와 노스캐롤라이나 채플 힐 연구팀의 최신 결과에서 나온 것입니다.
Nolan의 영화 Memento가 스토리텔링을 재정의한 것처럼 Mementos는 인공 지능 테스트의 한계를 재창조하고 있습니다.
새로운 벤치마크 테스트로서 메모리 조각과 같은 이미지 시퀀스에 대한 인공 지능의 이해에 도전합니다.
Pictures
문서 링크: https://arxiv.org/abs/2401.10529
프로젝트 홈페이지: https://mementos-bench.github.io
Mementos는 MLLM A 벤치마크를 위해 특별히 설계된 최초의 제품입니다. 연속 이미지에 대한 대형 모델의 대상 환각 및 행동 환각에 초점을 맞춘 이미지 시퀀스 추론.
실제 이미지, 로봇 이미지, 애니메이션 이미지라는 세 가지 주요 범주를 다루는 다양한 유형의 사진이 포함됩니다.
또한 다양한 길이의 4,761개의 다양한 이미지 시퀀스가 포함되어 있으며 각 이미지 시퀀스에는 주요 개체와 시퀀스에서의 동작을 설명하는 사람의 주석이 포함되어 있습니다.
Pictures
데이터는 현재 오픈 소스이며 계속 업데이트 중입니다.
환각 유형
논문에서 저자는 MLLM이 Mementos에서 생성할 두 가지 환각, 즉 대상 환각과 행동 환각에 대해 설명합니다.
이름에서 알 수 있듯이 대상 환각은 존재하지 않는 대상(객체)을 상상하는 것이고, 행동 환각은 대상이 수행하지 않은 행동과 행동을 상상하는 것입니다.
평가 방법
메멘토스에서 MLLM의 행동환각과 대상환각을 정확하게 평가하기 위해 연구팀은 MLLM이 생성한 이미지 설명과 인간 주석에 대한 설명을 키워드 매칭으로 선택했습니다.
각 MLLM의 성능을 자동으로 평가하기 위해 저자는 GPT-4 보조 테스트 방법을 사용하여 다음을 평가합니다.
Pictures
1 저자는 이미지 시퀀스와 프롬프트 단어를 MLLM에 대한 입력으로 사용합니다.
2. AI 생성 설명에서 객체 및 행동 키워드를 추출하도록 GPT-4에 요청합니다.
3. AI 생성 객체 키워드 목록과 AI가 생성한 행동 키워드 목록
4. AI가 생성한 객체 키워드 목록과 행동 키워드 목록의 재현율, 정확도 및 F1 지수를 계산합니다.
평가 결과
저자는 Mementos의 시퀀스 이미지 추론에서 MLLM의 성능을 평가했으며, GPT4V 및 Gemini를 포함한 9개의 최신 MLLM에 대한 세부 평가를 수행했습니다.
MLLM은 연속 이미지에 대한 MLLM의 추론 능력을 평가하기 위해 이미지 시퀀스에서 발생하는 이벤트를 설명하도록 요청받습니다.
그 결과, 아래 그림과 같이 만화 데이터 세트에서 캐릭터 행동에 대한 GPT-4V와 Gemini의 정확도는 20% 미만인 것으로 나타났습니다.
Pictures
실제 이미지와 로봇 이미지에서 GPT-4V와 Gemini의 성능은 만족스럽지 않습니다:
Pictures
Key points
1. 모달 대규모 언어 모델에 등장한 GPT-4V 및 LLaVA-1.5는 각각 블랙박스 및 오픈 소스 MLLM에서 가장 성능이 뛰어난 모델입니다. GPT-4V는 이미지 시퀀스를 이해하는 추론 능력에서 다른 모든 MLLM을 능가하는 반면, LLaVA-1.5는 객체 이해에서 블랙박스 모델인 Gemini와 거의 동등하거나 심지어 능가합니다.
2. Video-LLaMA-2와 Chat-UniVi는 영상 이해를 위해 설계되었지만 LLaVA-1.5보다 더 좋은 장점을 보여주지는 않습니다.
3. 모든 MLLM은 이미지 시퀀스의 객체 추론의 세 가지 지표에서 행동 추론보다 훨씬 더 나은 성능을 발휘합니다. 이는 현재 MLLM이 연속 이미지에서 동작을 자율적으로 추론하는 능력이 강하지 않음을 나타냅니다.
4. 로봇공학 분야에서는 블랙박스 모델이 가장 좋은 성능을 발휘하는 반면, 일상생활 분야에서는 오픈소스 모델이 상대적으로 좋은 성능을 발휘합니다. 이는 훈련 데이터의 분포 이동과 관련이 있을 수 있습니다.
5. 훈련 데이터의 한계로 인해 오픈 소스 MLLM의 추론 기능이 약해집니다. 이는 훈련 데이터의 중요성과 모델 성능에 대한 직접적인 영향을 보여줍니다.
오류 원인
이미지 시퀀스 추론 처리 시 현재 다중 모드 대규모 언어 모델이 실패하는 이유에 대한 저자의 분석은 주로 세 가지 오류 원인을 식별합니다.
1 객체와 행동 환상의 관계 상호 작용.
연구에서는 잘못된 객체 인식이 후속 동작 인식으로 이어질 것이라는 가설을 세웠습니다. 정량적 분석과 사례 연구에 따르면 대상 환각은 어느 정도 행동 환각으로 이어질 수 있습니다. 예를 들어, MLLM이 장면을 테니스 코트로 잘못 식별하는 경우 이러한 동작이 이미지 시퀀스에 존재하지 않더라도 테니스를 치는 캐릭터를 설명할 수 있습니다.
2. 행동 환각에 대한 동시 발생의 영향
MLLM은 이미지 시퀀스 추론에서 흔히 발생하는 행동 조합을 생성하는 경향이 있으며, 이는 행동 환각 문제를 악화시킵니다. 예를 들어, 로봇 도메인의 이미지를 처리할 때 MLLM은 실제 동작이 "서랍의 측면을 잡는 것"임에도 불구하고 "손잡이를 잡은" 후 서랍을 여는 로봇 팔을 잘못 설명할 수 있습니다.
3. 행동 착각의 눈덩이 효과
이미지 시퀀스가 진행됨에 따라 오류가 점차 누적되거나 심화될 수 있는데, 이를 눈덩이 효과라고 합니다. 이미지 시퀀스 추론에서는 오류가 조기에 발생하면 이러한 오류가 시퀀스에 누적되어 증폭되어 객체 및 동작 인식의 정확도가 저하될 수 있습니다.
예를 들어
Picture
위 그림에서 볼 수 있듯이 MLLM의 실패 원인으로는 대상환각과 대상환각과 행동환각의 상관관계, 그리고 대상환각과 행동환각의 상관관계 등이 있습니다. 동반 행동.
예를 들어, MLLM은 '테니스 코트'라는 대상 환각을 경험한 후 '테니스 라켓을 쥐고 있는 것'이라는 행동 환각(대상 환각과 행동 환각의 상관관계)과 '테니스를 치고 있는 것처럼 보인다'라는 동시 발생 행동을 보였습니다. " .
Pictures
위 사진의 샘플을 보면 MLLM이 의자가 더 뒤로 기울어져 있고 의자가 부러진 것으로 착각한 것을 볼 수 있습니다.
이 현상은 MLLM이 이미지 시퀀스의 정적 개체에 대해 개체에 어떤 동작이 발생한 것처럼 착각을 일으킬 수도 있음을 보여줍니다.
Pictures
위의 로봇 팔 이미지 시퀀스 디스플레이에서 로봇 팔이 핸들 옆에 도달하고 MLLM은 로봇 팔이 핸들을 잡았다고 잘못 믿어 MLLM이 다음을 생성한다는 것을 증명합니다. 이미지 시퀀스 추론에서 흔히 나타나는 행동의 조합으로 인해 환각이 발생합니다.
사진
위의 경우, 늙은 주인은 개를 인도해야 한다고 잘못 믿었고, "개 장대 높이뛰기"는 "분수"로 인식되었습니다. 생성되었습니다."
오류가 많은 것은 MLLM이 만화 분야에 익숙하지 않음을 반영합니다. 2차원 애니메이션 분야에서 MLLM은 상당한 최적화와 사전 훈련이 필요할 수 있습니다.
저자는 각 주요 카테고리를 보여줍니다. 실패사례를 구체적으로 파악하고 심층분석을 실시하였습니다.
요약
최근 몇 년 동안 다중 모달 대규모 언어 모델은 다양한 시각적 언어 작업을 처리하는 데 탁월한 능력을 보여주었습니다.
GPT-4V, Gemini 등의 모델은 이미지와 관련된 텍스트를 이해하고 생성할 수 있어 인공지능 기술 발전에 크게 기여하고 있습니다.
그러나 기존 MLLM 벤치마크는 주로 단일 정적 이미지를 기반으로 한 추론에 중점을 두고 있는 반면, 변화하는 세계를 이해하는 데 중요한 이미지 시퀀스에서 추론하는 기능은 상대적으로 연구가 부족했습니다.
이 문제를 해결하기 위해 연구원들은 시퀀스 이미지 추론에서 MLLM의 기능을 평가하는 것을 목표로 하는 새로운 벤치마크 "Mementos"를 제안합니다.
Mementos에는 다양한 길이의 4761개의 다양한 이미지 시퀀스가 포함되어 있습니다. 또한 연구팀은 MLLM의 추론 성능을 평가하기 위해 GPT-4 보조 방법도 채택했습니다.
Mementos의 최신 MLLM 9개(GPT-4V 및 Gemini 포함)에 대한 신중한 평가를 통해 연구에서는 이러한 모델이 주어진 이미지 시퀀스의 동적 정보를 정확하게 설명하는 데 어려움이 있어 종종 물체와 그 동작에 환각이 발생한다는 사실을 발견했습니다. /잘못된 표현.
정량 분석 및 사례 연구를 통해 MLLM의 시퀀스 이미지 추론에 영향을 미치는 세 가지 주요 요소를 식별합니다.
1 객체 환상과 행동 환상 간의 상관 관계
2.3. 행동 환각의 누적 효과.
이 발견은 동적 시각 정보를 처리하는 MLLM의 능력을 이해하고 향상시키는 데 큰 의미가 있습니다. Mementos 벤치마크는 현재 MLLM의 한계를 밝힐 뿐만 아니라 향후 연구 및 개선 방향도 제시합니다.
인공지능 기술의 급속한 발전으로 인해 다중 모드 이해 분야에서 MLLM의 적용은 더욱 광범위하고 심도 있게 될 것입니다. Mementos 벤치마크의 도입은 이 분야의 연구를 촉진할 뿐만 아니라 이러한 고급 AI 시스템이 복잡하고 끊임없이 변화하는 세계를 처리하고 이해하는 방법을 이해하고 개선할 수 있는 새로운 관점을 제공합니다.
참고자료:
https://github.com/umd-huanglab/Mementos
위 내용은 정확도가 20% 미만입니다. GPT-4V/Gemini는 만화를 읽을 수 없습니다! 최초의 오픈 소스 이미지 시퀀스 벤치마크의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제









언어 모델은 일반적으로 문자열 형식인 텍스트에 대해 추론하지만 모델에 대한 입력은 숫자만 가능하므로 텍스트를 숫자 형식으로 변환해야 합니다. 토큰화는 자연어 처리의 기본 작업으로, 연속적인 텍스트 시퀀스(예: 문장, 단락 등)를 특정 필요에 따라 문자 시퀀스(예: 단어, 구, 문자, 구두점 등)로 나눌 수 있습니다. 그 안에 있는 단위를 토큰 또는 단어라고 합니다. 아래 그림에 표시된 특정 프로세스에 따르면 먼저 텍스트 문장을 단위로 나눈 다음 단일 요소를 디지털화(벡터로 매핑)한 다음 이러한 벡터를 인코딩 모델에 입력하고 마지막으로 다운스트림 작업으로 출력하여 다음 작업을 수행합니다. 추가로 최종 결과를 얻으십시오. 텍스트 분할은 텍스트 분할의 세분성에 따라 Toke로 나눌 수 있습니다.

휴머노이드 로봇 아메카가 2세대로 업그레이드 되었습니다! 최근 세계이동통신학회(MWC2024)에서 세계 최고 수준의 로봇 아메카(Ameca)가 다시 등장했다. 행사장 주변에는 아메카가 많은 관중을 끌어 모았습니다. GPT-4의 축복으로 Ameca는 다양한 문제에 실시간으로 대응할 수 있습니다. "춤을 추자." 감정이 있느냐는 질문에 아메카는 매우 생생해 보이는 일련의 표정으로 대답했습니다. 불과 며칠 전, Ameca의 뒤를 잇는 영국 로봇 회사인 EngineeredArts는 팀의 최신 개발 결과를 시연했습니다. 영상 속 로봇 아메카는 시각 능력을 갖고 있어 방 전체와 특정 사물을 보고 묘사할 수 있다. 가장 놀라운 점은 그녀도 할 수 있다는 것입니다.

이번 주, 오픈AI(OpenAI), 마이크로소프트(Microsoft), 베조스(Bezos), 엔비디아(Nvidia)가 투자한 로봇 회사인 FigureAI는 약 7억 달러의 자금 조달을 받았으며 내년 내에 독립적으로 걸을 수 있는 휴머노이드 로봇을 개발할 계획이라고 발표했습니다. 그리고 Tesla의 Optimus Prime은 계속해서 좋은 소식을 받았습니다. 올해가 휴머노이드 로봇이 폭발하는 해가 될 것이라는 데는 누구도 의심하지 않는다. 캐나다에 본사를 둔 로봇 회사인 SanctuaryAI는 최근 새로운 휴머노이드 로봇인 Phoenix를 출시했습니다. 관계자들은 이 로봇이 인간과 같은 속도로 자율적으로 많은 작업을 완료할 수 있다고 주장한다. 인간의 속도로 자동으로 작업을 완료할 수 있는 세계 최초의 로봇인 Pheonix는 각 물체를 부드럽게 잡고 움직이며 우아하게 왼쪽과 오른쪽에 배치할 수 있습니다. 자동으로 물체를 식별할 수 있습니다.

산업자동화 기술 분야에서 최근 무시하기 어려운 두 핫스팟이 있는데 바로 인공지능(AI)과 엔비디아다. 원본 콘텐츠의 의미를 바꾸지 말고, 콘텐츠를 미세 조정하고, 콘텐츠를 다시 작성하고, 계속하지 마세요. “그뿐만 아니라 Nvidia가 원래 그래픽 처리 장치(GPU)에만 국한되지 않기 때문에 둘은 밀접하게 관련되어 있습니다. 엔비디아는 최근 GPU를 확장해 디지털 트윈 분야까지 확장하고 있으며, 최근 떠오르는 AI 기술과도 긴밀하게 연결돼 있다”고 말했다. Schneider Electric, Teradyne Robotics, MiR 및 Universal Robots 회사도 포함됩니다. 최근 엔비디아(Nvidia)는

기계력 보고서 편집자: 우신(Wu Xin) 국내판 휴머노이드 로봇+대형 모델팀이 옷 접기 등 복잡하고 유연한 재료의 작업 작업을 처음으로 완료했습니다. OpenAI 멀티모달 대형 모델을 접목한 Figure01이 공개되면서 국내 동종업체들의 관련 진전이 주목받고 있다. 바로 어제, 중국의 "1위 휴머노이드 로봇 주식"인 UBTECH는 Baidu Wenxin의 대형 모델과 긴밀하게 통합되어 몇 가지 흥미로운 새로운 기능을 보여주는 휴머노이드 로봇 WalkerS의 첫 번째 데모를 출시했습니다. 이제 Baidu Wenxin의 대형 모델 역량을 활용한 WalkerS의 모습은 이렇습니다. Figure01과 마찬가지로 WalkerS는 움직이지 않고 책상 뒤에 서서 일련의 작업을 완료합니다. 인간의 명령을 따르고 옷을 접을 수 있습니다.

다음 10가지 휴머노이드 로봇이 우리의 미래를 형성하고 있습니다. 1. ASIMO: Honda가 개발한 ASIMO는 가장 잘 알려진 휴머노이드 로봇 중 하나입니다. 높이 4피트, 무게 119파운드의 ASIMO는 복잡한 환경을 탐색하고 인간과 상호 작용할 수 있는 고급 센서와 인공 지능 기능을 갖추고 있습니다. ASIMO의 다재다능함은 장애인 지원부터 이벤트 프레젠테이션 제공까지 다양한 작업에 적합합니다. 2. 페퍼(Pepper): 소프트뱅크 로보틱스가 만든 페퍼는 인간의 사회적 동반자가 되는 것을 목표로 한다. 표현력이 풍부한 얼굴과 감정을 인식하는 능력을 갖춘 Pepper는 대화에 참여하고, 소매업 환경을 돕고, 교육 지원도 제공할 수 있습니다. 피망

편집자 |ScienceAI 질문 응답(QA) 데이터 세트는 자연어 처리(NLP) 연구를 촉진하는 데 중요한 역할을 합니다. 고품질 QA 데이터 세트는 모델을 미세 조정하는 데 사용될 수 있을 뿐만 아니라 LLM(대형 언어 모델)의 기능, 특히 과학적 지식을 이해하고 추론하는 능력을 효과적으로 평가하는 데에도 사용할 수 있습니다. 현재 의학, 화학, 생물학 및 기타 분야를 포괄하는 과학적인 QA 데이터 세트가 많이 있지만 이러한 데이터 세트에는 여전히 몇 가지 단점이 있습니다. 첫째, 데이터 형식이 비교적 단순하고 대부분이 객관식 질문이므로 평가하기 쉽지만 모델의 답변 선택 범위가 제한되고 모델의 과학적 질문 답변 능력을 완전히 테스트할 수 없습니다. 이에 비해 개방형 Q&A는

편집|제작자 Xingxuan|51CTO 기술 스택(WeChat ID: blog51cto) 지난 2년 동안 저는 기존 시스템보다는 대규모 언어 모델(LLM)을 사용하는 생성 AI 프로젝트에 더 많이 참여해 왔습니다. 서버리스 클라우드 컴퓨팅이 그리워지기 시작했습니다. 이들의 애플리케이션은 대화형 AI 강화부터 다양한 산업에 대한 복잡한 분석 솔루션 제공 및 기타 다양한 기능에 이르기까지 다양합니다. 퍼블릭 클라우드 제공업체가 이미 기성 생태계를 제공하고 있으며 이것이 저항이 가장 적은 경로이기 때문에 많은 기업이 이러한 모델을 클라우드 플랫폼에 배포합니다. 그러나 저렴하지는 않습니다. 클라우드는 확장성, 효율성, 고급 컴퓨팅 기능(요청 시 GPU 사용 가능)과 같은 다른 이점도 제공합니다. 퍼블릭 클라우드 플랫폼에 LLM을 배포하는 프로세스에는 잘 알려지지 않은 몇 가지 측면이 있습니다.
