Rumah > Peranti teknologi > AI > Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertama

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertama

王林
Lepaskan: 2024-02-01 19:06:13
ke hadapan
995 orang telah melayarinya

GPT-4V OpenAI dan model bahasa besar berbilang modal Gemini Google telah menarik perhatian meluas daripada industri dan akademia. Model ini menunjukkan pemahaman mendalam tentang video dalam berbilang domain, menunjukkan potensinya dari perspektif yang berbeza. Kemajuan ini dilihat secara meluas sebagai langkah penting ke arah kecerdasan am buatan (AGI).

Tetapi jika saya memberitahu anda bahawa GPT-4V boleh salah membaca tingkah laku watak dalam komik, izinkan saya bertanya: Yuanfang, apa pendapat anda?

Mari kita lihat siri komik mini ini:

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

Jika anda membiarkan kecerdasan tertinggi dalam dunia biologi - manusia, iaitu, rakan-rakan pembaca, akan menerangkannya. mungkin akan berkata:

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

Kemudian mari kita lihat apakah kecerdasan tertinggi dalam dunia mesin - iaitu, GPT-4V - akan menerangkan apabila ia datang kepada siri komik mini ini?

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar - 4V, sebagai perisikan mesin yang diiktiraf sebagai berdiri di bahagian atas rantai penghinaan, sebenarnya secara terang-terangan berbohong.

Apa yang lebih keterlaluan ialah walaupun GPT-4V diberi klip imej kehidupan sebenar, ia juga akan secara tidak masuk akal mengenali tingkah laku seseorang bercakap dengan orang lain semasa menaiki tangga sebagai dua orang yang memegang "senjata" berlawan antara satu sama lain. Suka bermain (gambar di bawah). .

Gambar

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaContoh ini datang daripada keputusan terkini pasukan penyelidik di University of Maryland dan North Carolina Chapel Hill, yang melancarkan Mementos, penanda aras inferens untuk jujukan imej yang direka khusus untuk MLLM.

Sama seperti filem Nolan Memento mentakrifkan semula penceritaan, Mementos mencipta semula had menguji kecerdasan buatan.

Sebagai ujian penanda aras baharu, ia mencabar pemahaman kecerdasan buatan tentang jujukan imej seperti serpihan memori.

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

Pautan kertas: https://arxiv.org/abs/2401.10529

Laman utama projek: https://mementos-bench.github.io

Mementos yang direka khusus untuk Abenchmark yang pertama untuk penaakulan jujukan imej yang memfokuskan pada halusinasi objek dan halusinasi tingkah laku model besar pada imej berturut-turut.

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaIa melibatkan pelbagai jenis gambar, meliputi tiga kategori utama: imej dunia sebenar, imej robot dan imej animasi. Dan mengandungi 4,761 jujukan imej yang pelbagai dengan panjang yang berbeza, setiap satu dengan anotasi manusia yang menerangkan objek utama dan kelakuannya dalam jujukan itu.

Gambar

Data pada masa ini adalah sumber terbuka dan masih dikemas kini.

Jenis halusinasi

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaDalam kertas kerja, penulis menerangkan dua jenis halusinasi yang akan dihasilkan oleh MLLM dalam Mementos: halusinasi objek dan halusinasi tingkah laku. Seperti namanya, halusinasi objek ialah membayangkan objek (objek) yang tidak wujud, manakala halusinasi tingkah laku ialah membayangkan tindakan dan tingkah laku yang tidak dilakukan oleh objek tersebut.

Kaedah penilaian

Untuk menilai dengan tepat halusinasi tingkah laku dan halusinasi objek MLLM pada Mementos, pasukan penyelidik memilih untuk memadankan kata kunci dengan perihalan imej yang dihasilkan oleh MLLM dan perihalan anotasi manusia.

Untuk menilai prestasi setiap MLLM secara automatik, pengarang menggunakan kaedah ujian tambahan GPT-4 untuk menilai:

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

1. Pengarang mengambil jujukan imej dan perkataan gesaan sebagai input kepada MLLM, dan menjana Perihalan yang sepadan dengan jujukan imej

2 Minta GPT-4 untuk mengekstrak kata kunci objek dan tingkah laku dalam perihalan yang dijana oleh AI

3 Senarai perkataan kunci tingkah laku yang dijana oleh AI;

4 Kira kadar ingatan semula, kadar ketepatan dan indeks F1 senarai kata kunci objek dan senarai kata kunci tingkah laku yang dijana oleh AI dan senarai kata kunci beranotasi manusia.

Hasil penilaian

Pengarang menilai prestasi MLLM dalam penaakulan imej urutan pada Mementos, dan menjalankan penilaian terperinci terhadap sembilan MLLM terkini termasuk GPT4V dan Gemini.

MLLM diminta untuk menerangkan peristiwa yang berlaku dalam jujukan imej untuk menilai keupayaan penaakulan MLLM untuk imej berterusan.

Hasilnya mendapati, seperti yang ditunjukkan dalam rajah di bawah, ketepatan GPT-4V dan Gemini untuk tingkah laku watak dalam set data komik adalah kurang daripada 20%.

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

Dalam imej dunia sebenar dan imej robot, prestasi GPT-4V dan Gemini tidak memuaskan:

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

Menghargai pelbagai perkara

datang kepada model bahasa berskala besar modal, GPT-4V dan LLaVA-1.5 masing-masing adalah model berprestasi terbaik dalam kotak hitam dan MLLM sumber terbuka. GPT-4V mengatasi semua MLLM lain dalam kebolehan menaakul dalam memahami urutan imej, manakala LLaVA-1.5 hampir setanding atau bahkan mengatasi model kotak hitam Gemini dalam pemahaman objek.

2 Walaupun Video-LLaMA-2 dan Chat-UniVi direka untuk pemahaman video, mereka tidak menunjukkan kelebihan yang lebih baik daripada LLaVA-1.5.

3 Semua MLLM menunjukkan prestasi yang lebih baik daripada penaakulan tingkah laku pada tiga penunjuk penaakulan objek dalam jujukan imej, menunjukkan bahawa MLLM semasa tidak kuat dalam keupayaan untuk membuat kesimpulan secara autonomi daripada imej yang berturutan.

4 Model kotak hitam menunjukkan prestasi terbaik dalam bidang robotik, manakala model sumber terbuka menunjukkan prestasi yang agak baik dalam bidang kehidupan seharian. Ini mungkin berkaitan dengan anjakan pengedaran data latihan.

5. Had data latihan membawa kepada keupayaan inferens yang lemah bagi MLLM sumber terbuka. Ini menunjukkan kepentingan data latihan dan kesan langsungnya terhadap prestasi model.

Sebab ralat

Analisis pengarang tentang sebab model bahasa berskala besar berbilang mod semasa gagal semasa memproses penaakulan jujukan imej terutamanya mengenal pasti tiga sebab ralat:

1 Hubungan antara objek dan tingkah laku

Kajian ini membuat hipotesis bahawa pengecaman objek yang salah akan membawa kepada pengecaman tindakan seterusnya yang tidak tepat. Analisis kuantitatif dan kajian kes menunjukkan bahawa halusinasi objek boleh membawa kepada halusinasi tingkah laku pada tahap tertentu. Contohnya, apabila MLLM tersilap mengenal pasti adegan sebagai gelanggang tenis, ia mungkin menggambarkan watak bermain tenis, walaupun tingkah laku ini tidak wujud dalam jujukan imej.

2. Kesan kejadian bersama terhadap halusinasi tingkah laku

MLLM cenderung untuk menjana kombinasi tingkah laku yang biasa dalam penaakulan jujukan imej, yang memburukkan lagi masalah halusinasi tingkah laku. Sebagai contoh, apabila memproses imej daripada domain robotik, MLLM mungkin tersalah menerangkan lengan robot yang sedang membuka laci selepas "mengenggam pemegang" walaupun tindakan sebenar "mengapai bahagian tepi laci".

3. Kesan Bola Salji daripada Ilusi Tingkah Laku

Apabila urutan imej berjalan, ralat mungkin terkumpul atau bertambah secara beransur-ansur, yang dipanggil kesan bola salji. Dalam penaakulan jujukan imej, jika ralat berlaku awal, ralat ini mungkin terkumpul dan membesar dalam jujukan, mengakibatkan ketepatan dalam pengecaman objek dan tindakan berkurangan.

Sebagai contoh

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

Seperti yang dapat dilihat dari rajah di atas, sebab kegagalan MLLM termasuk halusinasi objek dan korelasi serta antara halusinasi objek dan korelasi. tingkah laku yang berlaku bersama.

Sebagai contoh, selepas mengalami halusinasi objek "gelanggang tenis", MLLM kemudian menunjukkan halusinasi tingkah laku "memegang raket tenis" (kaitan antara halusinasi objek dan halusinasi tingkah laku) dan tingkah laku bersama "nampak bermain tenis" . .

Fenomena ini mendedahkan bahawa MLLM juga boleh menghasilkan ilusi bahawa beberapa tindakan telah berlaku pada objek untuk objek statik dalam jujukan imej. Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertama

Gambar

Dalam paparan jujukan imej di atas lengan robot, lengan robot mencapai sebelah pemegang, dan MLLM tersilap percaya bahawa lengan robot telah memegang pemegang, akan membuktikan bahawa imej Gabungan tingkah laku biasa dalam penaakulan urutan, dengan itu menghasilkan halusinasi.

Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertamaGambar

Dalam kes di atas, tuan lama tidak memimpin anjing itu secara tersilap percaya bahawa berjalan dengan anjing itu memerlukan memimpin anjing itu, dan "anjing lompat tiang" diiktiraf sebagai "Pancuran air. diciptakan."

Jumlah ralat yang besar mencerminkan ketidakbiasaan MLLM dengan bidang komik Dalam bidang animasi dua dimensi, MLLM mungkin memerlukan pengoptimuman dan pra-latihan yang ketara Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertama

Dalam setiap kategori utama, pengarang. secara terperinci kes kegagalan dan menjalankan analisis yang mendalam.

Ringkasan

Dalam beberapa tahun kebelakangan ini, model bahasa berskala besar berbilang modal telah menunjukkan keupayaan yang sangat baik dalam mengendalikan pelbagai tugas visual-linguistik.

Model ini, seperti GPT-4V dan Gemini, dapat memahami dan menjana teks yang berkaitan dengan imej, dengan sangat menggalakkan pembangunan teknologi kecerdasan buatan.

Walau bagaimanapun, penanda aras MLLM sedia ada tertumpu terutamanya pada inferens berdasarkan imej statik tunggal, manakala keupayaan untuk membuat kesimpulan daripada jujukan imej, yang penting untuk memahami dunia kita yang berubah, telah dikaji dengan agak kurang baik.

Untuk menangani cabaran ini, penyelidik mencadangkan penanda aras baharu "Mementos", yang bertujuan untuk menilai keupayaan MLLM dalam penaakulan imej urutan.

Mementos mengandungi 4761 jujukan imej yang pelbagai dengan panjang yang berbeza. Selain itu, pasukan penyelidik juga menggunakan kaedah tambahan GPT-4 untuk menilai prestasi inferens MLLM.

Melalui penilaian teliti sembilan MLLM terbaharu (termasuk GPT-4V dan Gemini) pada Mementos, kajian mendapati model ini mempunyai cabaran dalam menerangkan maklumat dinamik jujukan imej yang diberikan dengan tepat, sering mengakibatkan objek dan kelakuannya halusinasi /salah ungkap. Kajian Analisis dan Kes Kajian Tiga Faktor Utama yang Mempengaruhi Keterangan Imej Imej:

1

3. Kesan kumulatif halusinasi tingkah laku.

Penemuan ini sangat penting untuk memahami dan meningkatkan keupayaan MLLM dalam memproses maklumat visual dinamik. Penanda aras Mementos bukan sahaja mendedahkan batasan MLLM semasa, tetapi juga menyediakan arahan untuk penyelidikan dan penambahbaikan masa hadapan.

Dengan perkembangan pesat teknologi kecerdasan buatan, aplikasi MLLM dalam bidang pemahaman pelbagai modal akan menjadi lebih meluas dan mendalam. Pengenalan penanda aras Mementos bukan sahaja menggalakkan penyelidikan dalam bidang ini, tetapi juga memberikan kita perspektif baharu untuk memahami dan menambah baik cara sistem AI maju ini memproses dan memahami dunia kita yang kompleks dan sentiasa berubah.

Rujukan:

https://github.com/umd-huanglab/Mementos

Atas ialah kandungan terperinci Kadar ketepatan kurang daripada 20%, GPT-4V/Gemini tidak boleh membaca komik! Penanda aras jujukan imej sumber terbuka pertama. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan