Deep convolutional neural network (DCNN) melihat objek secara berbeza daripada manusia Pasukan penyelidik Profesor James Elder dari Universiti York percaya bahawa model pembelajaran mendalam tidak dapat menangkap ciri konfigurasi yang diperolehi oleh persepsi bentuk manusia.
Bagaimanakah otak manusia dan DCNN memahami keseluruhannya? Bagaimanakah anda melihat ciri-ciri objek? Para saintis menggunakan rangsangan visual yang dipanggil "Frankensteins" untuk mengesan ini. James Elder berkata: "Apa yang dipanggil Frankenstein adalah untuk membahagikan keseluruhannya kepada beberapa bahagian dan meletakkan bahagian itu bersama-sama dengan cara yang salah. Dari perspektif separa, ia betul, tetapi bahagian itu diletakkan di tempat yang salah."
Penyelidikan Didapati bahawa walaupun Frankenstein mengelirukan sistem visual manusia, DCNN tidak sensitif terhadap konfigurasi yang salah. Sebagai contoh, jika gambar beruang dilihat oleh mata manusia, ia adalah beruang, dan AI melihatnya sebagai beruang. Potong foto di tengah dan jadikan ia menjadi dua bahagian Jangan hubungkan mereka bersama-sama dan AI tidak dapat mengenalinya. Kemudian bahagian atas dan bawah disatukan dengan cara yang salah, dan mata manusia tidak dapat mengenalinya adalah haiwan yang tidak kelihatan seperti beruang, seperti raksasa, tetapi AI mengenalinya sebagai beruang. . Apakah maksudnya? Ini menunjukkan bahawa AI tidak cukup sensitif terhadap ciri-ciri objek yang dikonfigurasikan. James Elder berkata: "Penyelidikan kami menerangkan mengapa model AI gagal dalam keadaan tertentu. Untuk memahami bagaimana pemprosesan visual berlaku di dalam otak, kami perlu mempertimbangkan tugas di luar pengecaman objek. Dalam model Deep mengambil jalan pintas apabila menyelesaikan pengecaman kompleks masalah. Walaupun banyak kali pintasan boleh dilaksanakan, ia agak berbahaya apabila melibatkan aplikasi AI dunia sebenar Kami sedang bekerjasama dengan industri dan rakan kongsi kerajaan untuk membangunkan aplikasi AI untuk aplikasi dunia sebenar apabila mengenal pasti beruang, bahagian gambar beruang dikonfigurasikan secara salah, dan AI masih akan mengenali raksasa yang dieja sebagai beruang. Mari kita lihat sistem keselamatan video trafik AI. Terdapat banyak perkara dalam sistem lalu lintas yang sibuk, seperti kereta, basikal, dan pejalan kaki, yang saling berkait dan menjadi halangan mereka sendiri. Perkara ini memasuki sistem visual pemandu seperti serpihan yang terputus. Otak secara automatik memproses pelbagai serpihan ke dalam kumpulan, menentukan kategori yang betul, dan menentukan lokasi objek. Sistem pemantauan trafik AI adalah lebih teruk. Ia hanya dapat merasakan serpihan individu, jadi terdapat risiko yang besar. Menurut penyelidik, mengoptimumkan latihan dan seni bina, dan menjadikan rangkaian AI lebih seperti otak, tidak begitu membantu dalam meningkatkan keupayaan konfigurasi dan pemprosesan AI. Bagaimanakah manusia menilai objek berulang kali? Rangkaian AI tidak boleh meramal dengan tepat. Keupayaan konfigurasi sistem visual manusia adalah sangat sensitif, dan jika AI mahu memadankan sistem visual manusia, ia mungkin perlu melakukan lebih daripada pengecaman kategori. Amaran para saintis mungkin wajar AI yang paling bijak sekarang jauh lebih rendah daripada organ manusia, malah tidak boleh dibandingkan dengan sistem visual, apatah lagi jika ada sedikit kecuaian mungkin Ia akan menyebabkan akibat yang serius. Beberapa tahun lalu, terdapat robot humanoid bernama Sophia yang menjadi sangat popular. Pada satu persidangan, Sophia telah ditemu bual oleh manusia. Tuan rumah manusia bertanya kepada Sophia: "Adakah anda mahu memusnahkan manusia?" Sophia menjawab: "Baiklah, saya akan memusnahkan manusia." Sesetengah orang membuat spekulasi bahawa jawapan Sophia telah ditetapkan kerana Sophia tidak cukup maju untuk membuat keputusan dan menjawab soalan sedemikian, tetapi sesetengah orang percaya bahawa jawapan ini tidak ditentukan terlebih dahulu. Dalam acara lain, Sophia menjawab seperti ini: "Jangan risau, jika anda baik dengan saya, saya akan baik dengan anda. Anda sepatutnya melayan saya seperti sistem yang bijak."Kini AI perlahan-lahan menjadi popular, tetapi hasilnya tidak selalu positif. Hawking dan Musk telah menyatakan kebimbangan bahawa AI akan menyebabkan kerosakan. Pada masa ini, mungkin dibesar-besarkan untuk bimbang bahawa AI akan memusnahkan manusia, tetapi kita harus tetap berwaspada. Seiring berjalannya waktu, mungkin AI akan menjadi sepandai manusia, malah mengatasi manusia. Tetapi mendapatkan AI untuk mensimulasikan persepsi manusia boleh menjadi rumit. Bagi manusia, beberapa perkara adalah perkara biasa dan mudah dilakukan. Para saintis melatih AI untuk terus melaksanakan tugas tertentu dan melakukan perkara yang mudah dilakukan oleh manusia. Walaupun banyak usaha, AI semasa masih tidak dapat mengejar sistem visual manusia.Atas ialah kandungan terperinci Universiti York: AI membuat kemajuan pesat, tetapi keupayaan pengecamannya masih jauh di belakang mata manusia. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!