Rumah > Peranti teknologi > AI > teks badan

Lebih 370 orang, termasuk LeCun dan Ng Enda, menandatangani surat bersama: Kawalan ketat terhadap AI adalah berbahaya, dan keterbukaan adalah penawarnya.

WBOY
Lepaskan: 2023-11-03 14:49:04
ke hadapan
1280 orang telah melayarinya

Dalam beberapa hari kebelakangan ini, perbincangan tentang cara menyelia AI semakin hangat, dan pendapat orang besar sangat berbeza.

Sebagai contoh, terdapat dua pendapat antara tiga pemenang Anugerah Turing Geoffrey Hinton, Yoshua Bengio dan Yann LeCun. Hinton dan Bengio adalah satu pasukan Mereka sangat menyeru untuk mengukuhkan penyeliaan AI, jika tidak, ia mungkin membawa kepada risiko "AI menghapuskan manusia." LeCun tidak berkongsi pandangan mereka Dia percaya bahawa peraturan AI yang kukuh pasti akan membawa kepada monopoli gergasi, dengan keputusan bahawa hanya beberapa syarikat mengawal penyelidikan dan pembangunan AI.

Bagi meluahkan fikiran, ramai orang telah menandatangani surat bersama untuk menyampaikan pandangan mereka Ambil contoh beberapa hari lalu, Bengio dan lain-lain telah mengeluarkan surat bersama "Mengurus Risiko Kecerdasan Buatan dalam Era of Rapid Development" ", menyeru para penyelidik untuk mengambil langkah tadbir urus segera sebelum membangunkan sistem AI.

Surat terbuka baru-baru ini bertajuk "Kenyataan Bersama tentang Keselamatan dan Keterbukaan Kepintaran Buatan" telah menimbulkan kekecohan di media sosial

Lebih 370 orang, termasuk LeCun dan Ng Enda, menandatangani surat bersama: Kawalan ketat terhadap AI adalah berbahaya, dan keterbukaan adalah penawarnya.

Sila klik pautan berikut untuk melihat surat terbuka: https://open. mozilla.org/letter/

Setakat ini, lebih daripada 370 orang, termasuk LeCun, salah satu daripada tiga gergasi pembelajaran mendalam, dan Profesor Andrew Ng dari Jabatan Sains Komputer di Universiti Stanford, telah menandatangani surat terbuka ini. Senarai masih dikemas kini.

LeCun berkata, "Keterbukaan, ketelusan dan akses luas menjadikan platform perisian lebih selamat dan boleh dipercayai. Saya juga menandatangani surat terbuka ini daripada Yayasan Mozilla, yang menyediakan platform dan sistem kecerdasan buatan terbuka. Sebab. "

Lebih 370 orang, termasuk LeCun dan Ng Enda, menandatangani surat bersama: Kawalan ketat terhadap AI adalah berbahaya, dan keterbukaan adalah penawarnya.


Berikut ialah kandungan surat terbuka:

Kita berada pada saat kritikal dalam tadbir urus kecerdasan buatan. Untuk mengurangkan bahaya semasa dan masa depan sistem AI, kita perlu menerima keterbukaan, ketelusan dan akses yang luas. Ini perlu menjadi keutamaan global

Sesungguhnya, terdapat risiko dan kelemahan dalam model yang tersedia untuk umum - model AI boleh disalahgunakan oleh pelakon yang berniat jahat atau digunakan oleh pembangun yang kurang kelengkapan. Namun kita melihat ini berulang kali dengan teknologi proprietari semua jenis - peningkatan akses dan penelitian awam menjadikan teknologi lebih selamat, bukan lebih berbahaya. Idea bahawa kawalan ketat dan proprietari ke atas model AI yang mendasari adalah satu-satunya cara untuk melindungi kita daripada bahaya pada skala adalah naif paling baik dan paling berbahaya.

Tambahan pula, sejarah pembangunan manusia memberitahu kita bahawa penggunaan peraturan yang salah dengan cepat boleh membawa kepada penumpuan kuasa yang merosakkan persaingan dan inovasi. Model terbuka boleh memaklumkan perdebatan awam dan meningkatkan pembangunan strategi. Jika matlamat kita adalah keselamatan, keselamatan dan akauntabiliti, maka keterbukaan dan ketelusan adalah elemen penting dalam mencapai matlamat tersebut.

Kami sedang dalam perbincangan yang dinamik tentang maksud "keterbukaan" dalam era kecerdasan buatan. Perbahasan penting ini tidak seharusnya diperlahankan. Sebaliknya, ia sepatutnya mempercepatkan dan menggalakkan kita mencuba, belajar dan membangunkan cara baharu untuk memanfaatkan keterbukaan dalam perlumbaan keselamatan AI.

Kita perlu mewujudkan kaedah untuk mempromosikan sumber terbuka dan keterbukaan. Pendekatan ini boleh menjadi asas untuk:

Melalui penyelidikan individu, kerjasama dan perkongsian pengetahuan, kami boleh mempercepatkan pemahaman tentang risiko dan bahaya keupayaan AI

2. Dengan membantu pengawal selia menggunakan alat untuk memantau besar- Skala sistem kecerdasan buatan untuk meningkatkan pengawasan dan akauntabiliti awam.

Merendahkan halangan kemasukan untuk pemain baharu adalah aspek penting dalam memfokuskan pada penciptaan kecerdasan buatan yang bertanggungjawab

Sebagai penandatangan surat terbuka ini, kami datang daripada pelbagai kumpulan orang dari semua lapisan masyarakat, termasuk saintis, penggubal dasar, jurutera, aktivis, usahawan, pendidik, wartawan dan banyak lagi. Kami mewakili perspektif yang berbeza tentang cara AI sumber terbuka harus diurus dan dikeluarkan. Walau bagaimanapun, kami sangat bersetuju dengan satu perkara: dalam era kecerdasan buatan, mengambil pendekatan terbuka, bertanggungjawab dan telus adalah penting untuk memastikan keselamatan kami

Dalam bidang keselamatan kecerdasan buatan, keterbukaan adalah penyelesaian kepada masalah, tidak memburukkan lagi punca masalah

Ditandatangani oleh: Perlu ditulis semula

  • Arthur Mensch, pengasas bersama dan Ketua Pegawai Eksekutif syarikat permulaan Perancis MistralAI
  • Andrew Ng, pengasas DeepLearning.AI, dan Ketua Pegawai Eksekutif Landing AI, Profesor Sains Komputer di Universiti Stanford
  • Yann Lecun, pemenang Anugerah Turing, Ketua Saintis AI Meta#🎜🎜 ## 🎜🎜#
  • Julien Chaumond, Memeluk Muka CTO
  • Brian Behlendorf, ahli pengasas Apache, OpenSSF CTO#🎜🎜🎜🎜🎜🎜🎜🎜##🎜 🎜#
  • Pada masa ini, surat terbuka ini, yang baru muncul beberapa hari, terus berkembang dan telah menarik perhatian dan perbincangan yang hebat dalam komuniti AI asing Anda boleh terus memberi perhatian kepada kemas kini senarai.
  • Jika anda bersetuju dengan pandangan surat bersama ini, anda juga boleh mengemukakan tandatangan maklumat anda sendiri.
  • Ia akan mengambil masa untuk menjawab sama ada penyeliaan kuat AI akan mendatangkan lebih banyak kemudaratan daripada kebaikan atau kebaikan.

Atas ialah kandungan terperinci Lebih 370 orang, termasuk LeCun dan Ng Enda, menandatangani surat bersama: Kawalan ketat terhadap AI adalah berbahaya, dan keterbukaan adalah penawarnya.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan