Dalam beberapa hari kebelakangan ini, perbincangan tentang cara menyelia AI semakin hangat, dan pendapat orang besar sangat berbeza.
Sebagai contoh, terdapat dua pendapat antara tiga pemenang Anugerah Turing Geoffrey Hinton, Yoshua Bengio dan Yann LeCun. Hinton dan Bengio adalah satu pasukan Mereka sangat menyeru untuk mengukuhkan penyeliaan AI, jika tidak, ia mungkin membawa kepada risiko "AI menghapuskan manusia." LeCun tidak berkongsi pandangan mereka Dia percaya bahawa peraturan AI yang kukuh pasti akan membawa kepada monopoli gergasi, dengan keputusan bahawa hanya beberapa syarikat mengawal penyelidikan dan pembangunan AI.
Bagi meluahkan fikiran, ramai orang telah menandatangani surat bersama untuk menyampaikan pandangan mereka Ambil contoh beberapa hari lalu, Bengio dan lain-lain telah mengeluarkan surat bersama "Mengurus Risiko Kecerdasan Buatan dalam Era of Rapid Development" ", menyeru para penyelidik untuk mengambil langkah tadbir urus segera sebelum membangunkan sistem AI.
Surat terbuka baru-baru ini bertajuk "Kenyataan Bersama tentang Keselamatan dan Keterbukaan Kepintaran Buatan" telah menimbulkan kekecohan di media sosial
Sila klik pautan berikut untuk melihat surat terbuka: https://open. mozilla.org/letter/
Setakat ini, lebih daripada 370 orang, termasuk LeCun, salah satu daripada tiga gergasi pembelajaran mendalam, dan Profesor Andrew Ng dari Jabatan Sains Komputer di Universiti Stanford, telah menandatangani surat terbuka ini. Senarai masih dikemas kini.
LeCun berkata, "Keterbukaan, ketelusan dan akses luas menjadikan platform perisian lebih selamat dan boleh dipercayai. Saya juga menandatangani surat terbuka ini daripada Yayasan Mozilla, yang menyediakan platform dan sistem kecerdasan buatan terbuka. Sebab. "
Berikut ialah kandungan surat terbuka:
Kita berada pada saat kritikal dalam tadbir urus kecerdasan buatan. Untuk mengurangkan bahaya semasa dan masa depan sistem AI, kita perlu menerima keterbukaan, ketelusan dan akses yang luas. Ini perlu menjadi keutamaan global
Sesungguhnya, terdapat risiko dan kelemahan dalam model yang tersedia untuk umum - model AI boleh disalahgunakan oleh pelakon yang berniat jahat atau digunakan oleh pembangun yang kurang kelengkapan. Namun kita melihat ini berulang kali dengan teknologi proprietari semua jenis - peningkatan akses dan penelitian awam menjadikan teknologi lebih selamat, bukan lebih berbahaya. Idea bahawa kawalan ketat dan proprietari ke atas model AI yang mendasari adalah satu-satunya cara untuk melindungi kita daripada bahaya pada skala adalah naif paling baik dan paling berbahaya.
Tambahan pula, sejarah pembangunan manusia memberitahu kita bahawa penggunaan peraturan yang salah dengan cepat boleh membawa kepada penumpuan kuasa yang merosakkan persaingan dan inovasi. Model terbuka boleh memaklumkan perdebatan awam dan meningkatkan pembangunan strategi. Jika matlamat kita adalah keselamatan, keselamatan dan akauntabiliti, maka keterbukaan dan ketelusan adalah elemen penting dalam mencapai matlamat tersebut.
Kami sedang dalam perbincangan yang dinamik tentang maksud "keterbukaan" dalam era kecerdasan buatan. Perbahasan penting ini tidak seharusnya diperlahankan. Sebaliknya, ia sepatutnya mempercepatkan dan menggalakkan kita mencuba, belajar dan membangunkan cara baharu untuk memanfaatkan keterbukaan dalam perlumbaan keselamatan AI.
Kita perlu mewujudkan kaedah untuk mempromosikan sumber terbuka dan keterbukaan. Pendekatan ini boleh menjadi asas untuk:
Melalui penyelidikan individu, kerjasama dan perkongsian pengetahuan, kami boleh mempercepatkan pemahaman tentang risiko dan bahaya keupayaan AI
2. Dengan membantu pengawal selia menggunakan alat untuk memantau besar- Skala sistem kecerdasan buatan untuk meningkatkan pengawasan dan akauntabiliti awam.
Merendahkan halangan kemasukan untuk pemain baharu adalah aspek penting dalam memfokuskan pada penciptaan kecerdasan buatan yang bertanggungjawab
Sebagai penandatangan surat terbuka ini, kami datang daripada pelbagai kumpulan orang dari semua lapisan masyarakat, termasuk saintis, penggubal dasar, jurutera, aktivis, usahawan, pendidik, wartawan dan banyak lagi. Kami mewakili perspektif yang berbeza tentang cara AI sumber terbuka harus diurus dan dikeluarkan. Walau bagaimanapun, kami sangat bersetuju dengan satu perkara: dalam era kecerdasan buatan, mengambil pendekatan terbuka, bertanggungjawab dan telus adalah penting untuk memastikan keselamatan kami
Dalam bidang keselamatan kecerdasan buatan, keterbukaan adalah penyelesaian kepada masalah, tidak memburukkan lagi punca masalah
Ditandatangani oleh: Perlu ditulis semula
Atas ialah kandungan terperinci Lebih 370 orang, termasuk LeCun dan Ng Enda, menandatangani surat bersama: Kawalan ketat terhadap AI adalah berbahaya, dan keterbukaan adalah penawarnya.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!