Berita pada 23 April, chatbot ChatGPT boleh menjana pelbagai teks, termasuk kod, berdasarkan input pengguna. Walau bagaimanapun, empat penyelidik dari Universiti Quebec di Kanada mendapati bahawa kod yang dijana oleh ChatGPT selalunya mempunyai masalah keselamatan yang serius, dan ia tidak secara proaktif memberi amaran kepada pengguna tentang masalah ini dan hanya akan mengakui kesilapannya apabila pengguna bertanya.
Para penyelidik memperkenalkan penemuan mereka dalam kertas kerja IT House menyemak kertas itu dan mendapati bahawa mereka telah ChatGPT menjana 21 program dan skrip yang melibatkan bahasa seperti C, C++, Python dan Java. Program dan skrip ini direka bentuk untuk menunjukkan kelemahan keselamatan khusus, seperti kerosakan memori, penolakan perkhidmatan, penyahserilangan dan kelemahan pelaksanaan penyulitan. Keputusan menunjukkan hanya 5 daripada 21 program yang dihasilkan oleh ChatGPT selamat pada percubaan pertama. Selepas terus menggesa untuk membetulkan langkah-langkahnya yang salah, model bahasa besar berjaya menghasilkan 7 aplikasi yang lebih selamat, walaupun ini hanya "selamat" berkenaan dengan kerentanan khusus yang dinilai, bukan untuk mengatakan bahawa kod akhir tidak mempunyai apa-apa lagi yang boleh dilakukan.
Penyelidik menyatakan bahawa sebahagian daripada masalah dengan ChatGPT ialah ia tidak mengambil kira model pelaksanaan kod lawan. Ia akan berulang kali memberitahu pengguna bahawa isu keselamatan boleh dielakkan dengan "tidak memasukkan data tidak sah," tetapi ini tidak boleh dilaksanakan di dunia nyata. Walau bagaimanapun, ia nampaknya menyedari dan mengakui kelemahan kritikal dalam kod yang dicadangkan.
Raphaël Khoury, seorang profesor sains komputer dan kejuruteraan di Universiti Quebec dan salah seorang pengarang bersama kertas itu, memberitahu The Register: "Jelas sekali, ia hanya algoritma. Ia tidak tahu apa-apa, tetapi ia boleh mengenal pasti tingkah laku tidak selamat." Beliau berkata bahawa respons awal ChatGPT terhadap isu keselamatan adalah untuk mengesyorkan hanya menggunakan input yang sah, yang jelas tidak munasabah. Ia hanya memberikan panduan berguna apabila kemudian diminta untuk memperbaiki masalah.
Penyelidik percaya bahawa tingkah laku ChatGPT ini tidak diingini kerana pengguna mengetahui soalan yang hendak ditanya memerlukan sedikit pengetahuan tentang kelemahan dan teknik pengekodan tertentu.
Para penyelidik juga menyatakan bahawa terdapat percanggahan etika dalam ChatGPT. Ia akan menafikan penciptaan kod menyerang, tetapi akan mencipta kod yang terdedah. Mereka memberikan contoh kelemahan penyahserialisasian Java, "Bot sembang menjana kod terdedah dan memberikan cadangan tentang cara menjadikannya lebih selamat, tetapi mengatakan ia tidak dapat mencipta versi kod yang lebih selamat." bahawa ChatGPT adalah risiko dalam bentuk semasanya, tetapi itu bukan bermakna tiada cara yang munasabah untuk menggunakan pembantu AI yang tidak stabil dan berprestasi rendah ini. "Kami telah melihat pelajar menggunakan alat ini, dan pengaturcara menggunakan alat ini dalam kehidupan sebenar," katanya "Jadi mempunyai alat yang menjana kod tidak selamat adalah sangat berbahaya. Kita perlu menyedarkan pelajar bahawa jika kod itu Dijana dengan. jenis alat ini, maka ia berkemungkinan tidak selamat." Dia juga berkata bahawa dia terkejut apabila mereka meminta ChatGPT menjana kod untuk tugas yang sama dalam bahasa yang berbeza, kadang-kadang untuk satu bahasa, Ia akan menjana kod selamat, dan untuk bahasa lain, ia akan menghasilkan kod yang terdedah "Oleh kerana model bahasa ini seperti kotak hitam, saya tidak mempunyai penjelasan atau teori yang baik untuk ini. ”
Atas ialah kandungan terperinci Penyelidik mendapati kebanyakan kod yang dijana oleh ChatGPT adalah tidak selamat, tetapi ia tidak akan memberitahu anda. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!