Rumah > Peranti teknologi > AI > teks badan

Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.

WBOY
Lepaskan: 2024-08-08 04:21:12
asal
698 orang telah melayarinya

Adakah AI benar-benar cukup berbahaya untuk menjamin peraturan sedemikian?


Di Silicon Valley, tempat popular untuk inovasi, saintis AI seperti Li Feifei dan Andrew Ng terlibat dalam perlawanan tarik tali dengan pihak berkuasa kawal selia berhubung keselamatan dan inovasi.
Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.
Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.
Di tengah-tengah tarik tali ini adalah rang undang-undang yang dipanggil SB-1047. Nama penuh rang undang-undang itu ialah "Safe and Secure Innovation for Frontier Artificial Intelligence Act", yang cuba mewujudkan piawaian keselamatan yang jelas untuk model AI berisiko tinggi untuk mengelakkannya daripada disalahgunakan atau menyebabkan malapetaka.

Rang undang-undang itu diperkenalkan di Dewan Negara pada Februari tahun ini dan seterusnya menimbulkan banyak kontroversi. Ramai saintis percaya bahawa peruntukan rang undang-undang itu terlalu tidak munasabah dan akan memberi kesan buruk terhadap inovasi saintifik dan teknologi.
Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.
Pautan bil: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

rang undang-undang khusus untuk model ini, untuk mengawal selia model ini secara khusus dilatih melebihi ambang pengiraan dan kos tertentu.

Liputan model adalah seperti berikut:

1 Model kecerdasan buatan yang dilatih menggunakan lebih daripada 10^26 integer atau operasi titik terapung dengan kos lebih daripada seratus juta dolar AS dikira berdasarkan penilaian munasabah pembangun terhadap purata harga pasaran untuk pengkomputeran awan pada permulaan latihan.

2. Model kecerdasan buatan yang dicipta oleh model penalaan halus dalam skop menggunakan kuasa pengkomputeran bersamaan atau lebih besar daripada tiga kali 10^25 integer atau operasi titik terapung.

Julat ini pada asasnya meliputi semua model besar arus perdana di pasaran hari ini. Jika rang undang-undang diluluskan, model ini akan diklasifikasikan sebagai "berpotensi berbahaya" atau memerlukan pengawasan tambahan.

Rang undang-undang ini juga memerlukan pembangun model bertanggungjawab secara sah untuk penggunaan hiliran atau pengubahsuaian model mereka. Sebelum latihan boleh dimulakan, pembangun perlu membuktikan bahawa model mereka tidak akan mendayakan atau menyediakan "fungsi berbahaya" dan melaksanakan satu siri perlindungan untuk mencegah penggunaan sedemikian. Ini akan menghalang pembangunan komuniti sumber terbuka.

Menyelia pelaksanaan undang-undang baharu akan menjadi "bahagian model sempadan", sebuah agensi penyeliaan dan kawal selia yang baru ditubuhkan. Salah nyatakan keupayaan model kepada agensi, yang akan menetapkan piawaian keselamatan dan menasihati undang-undang AI, boleh menyebabkan pemaju dipenjarakan kerana sumpah palsu.

Rang undang-undang ini juga menambah peruntukan perlindungan pemberi maklumat untuk melindungi dan menggalakkan pemberi maklumat dalam entiti pembangunan AI dan memastikan pekerja boleh melaporkan ketidakpatuhan korporat tanpa tindakan balas.

Jika rang undang-undang itu diluluskan, satu tandatangan daripada Gavin Newsom akan menjadikannya sebagai undang-undang California. Jika rang undang-undang ini diluluskan di California, ia akan menjadi contoh untuk negeri-negeri lain dan mempunyai kesan riak di seluruh A.S. dan di luar negara - pada asasnya mewujudkan kesan rama-rama yang besar pada keadaan inovasi, kata Rakan Kongsi Am a16z Anjney Midha.

Perbicaraan rang undang-undang akan diadakan pada pagi 7 Ogos, PDT. Masa semakin suntuk untuk saintis membantah. Oleh itu, Li Feifei secara peribadi menulis artikel yang menyatakan kebaikan dan keburukan rang undang-undang itu. Beberapa saintis sedang menandatangani surat untuk menghentikan rang undang-undang daripada lulus.
Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.
                                                                                                                                                                                                                                                                                                                                                                                                                                     

Li Feifei menulis artikel mengkritik SB-1047

Li Feifei berkata dalam artikel itu: "Jika SB470 California meluluskan akibat-1 dan unintens yang ketara. akan Memudaratkan ekosistem AI yang sedang berkembang pesat. SB-1047 akan menghukum pemaju, menyekat komuniti sumber terbuka, dan menghalang penyelidikan AI akademik sambil gagal menyelesaikan masalah sebenar yang direka untuk diselesaikan," tulisnya. Dow:
Pertama, SB -1047 akan menghukum pemaju secara berlebihan dan menyekat inovasi.SB-1047 memegang pihak yang bertanggungjawab dan pembangun asal model bertanggungjawab jika model AI disalahgunakan. Adalah mustahil untuk setiap pembangun AI (terutamanya pengaturcara dan usahawan baru) untuk meramalkan setiap kemungkinan penggunaan untuk model mereka. SB-1047 akan memaksa pembangun untuk berundur dan bertindak secara defensif—tepat apa yang kami cuba elakkan.

Kedua, SB-1047 akan menyekat pembangunan sumber terbuka. SB-1047 memerlukan semua model yang melebihi ambang tertentu untuk menyertakan "suis bunuh", mekanisme yang boleh menutup program pada bila-bila masa. Jika pembangun bimbang bahawa program yang mereka muat turun dan bina akan dipadamkan, mereka akan lebih teragak-agak untuk mengekod dan bekerjasama. Suis bunuh ini akan memusnahkan komuniti sumber terbuka, yang merupakan sumber banyak inovasi. Kesannya tidak terhad kepada bidang kecerdasan buatan, tetapi dalam segala-galanya dari GPS ke MRI ke Internet itu sendiri.

Ketiga, SB-1047 akan melumpuhkan sektor awam dan penyelidikan AI akademik. Pembangunan sumber terbuka adalah penting untuk sektor swasta, tetapi ia juga penting untuk akademik. Ahli akademik tidak boleh maju tanpa kerjasama dan akses kepada data model. Bagaimanakah kita akan melatih pemimpin AI generasi akan datang jika institusi kita tidak mempunyai akses kepada model dan data yang sesuai? Suis mematikan akan melemahkan lagi usaha pelajar dan penyelidik, yang sudah berada pada kelemahan data dan pengkomputeran berbanding syarikat teknologi besar. SB-1047 akan membunyikan lonceng kematian untuk AI akademik pada masa kita sepatutnya menggandakan pelaburan AI sektor awam.

Paling membimbangkan, rang undang-undang itu tidak menangani potensi bahaya kemajuan dalam kecerdasan buatan, termasuk berat sebelah dan palsu. Sebaliknya, SB-1047 menetapkan ambang sewenang-wenangnya yang mengawal model yang menggunakan jumlah kuasa pengkomputeran tertentu atau menelan belanja $100 juta untuk melatih. Jauh daripada menyediakan perlindungan, langkah ini hanya akan mengehadkan inovasi merentas sektor, termasuk dalam bidang akademik. Hari ini, model AI akademik jatuh di bawah ambang ini, tetapi jika kita ingin mengimbangi semula pelaburan dalam AI sektor swasta dan awam, akademia akan dikawal oleh SB-1047. Ekosistem AI kami akan menjadi lebih teruk akibatnya.

Sekatan SB-1047 terlalu sewenang-wenang dan kita mesti melakukan sebaliknya.

Saya tidak menentang tadbir urus AI. Perundangan adalah penting untuk pembangunan kecerdasan buatan yang selamat dan berkesan. Tetapi dasar AI mesti memperkasakan pembangunan sumber terbuka, mencadangkan peraturan yang bersatu dan munasabah, dan membina keyakinan pengguna. SB-1047 tidak memenuhi piawaian ini.

Berpuluh-puluh saintis telah menandatangani petisyen untuk menentang

Sebagai tindak balas kepada SB-1047, sebagai tambahan kepada Li Feifei, kumpulan yang terdiri daripada guru dan pelajar dari 7 kampus Universiti California dan penyelidik dari lebih daripada 20 institusi lain turut mengambil tindakan aktif. Mereka mengarang bersama dan menandatangani surat terbuka yang menentang SB-1047, menggariskan bahaya rang undang-undang itu terhadap matlamat penyelidikan dan pendidikan AI California dari perspektif penyelidik. .
Rang undang-undang itu memerlukan "audit keselamatan" dan keupayaan untuk "mematikan sepenuhnya" "model canggih", yang mungkin menghalang pengeluaran model sumber terbuka dan berat terbuka. Peraturan ketat ini mungkin lebih mudah dilaksanakan untuk model proprietari yang dikawal oleh entiti swasta, tetapi lebih sukar untuk model terbuka yang digunakan oleh organisasi bukan untung atau konsortium universiti. Peruntukan rang undang-undang untuk demonstrasi keselamatan dan audit tidak cukup khusus, bergantung pada ujian yang mungkin belum wujud dan mungkin kurang ketelitian saintifik. Kos yang berpotensi untuk audit sedemikian mungkin mampu dibeli dengan mudah untuk entiti komersial dengan produk yang menguntungkan, tetapi untuk keluaran terbuka saintifik oleh entiti komersial seperti siri LLaMA Meta, atau model terbuka yang dilatih oleh organisasi bukan untung atau konsortium universiti, Ini mungkin tidak berlaku. . Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.
Disebabkan sekatan yang membebankan ini, pembangun model sumber terbuka boleh memilih untuk membina sistem di luar California atau Amerika Syarikat dan mengeluarkan model mereka tanpa liabiliti. Dalam kes ini, pelakon swasta tanpa mengambil kira pematuhan boleh menggunakan model ini secara rahsia, manakala penyelidik akademik yang dikekang oleh sifat kerja awam mereka, yang mendorong mereka menukar topik penyelidikan atau memindahkan kepada topik yang tidak melanggar kebebasan akademik mereka. , akan dikecualikan. Ketersediaan model sumber terbuka adalah penting untuk penyelidikan AI akademik moden, kerana ia membolehkan ahli akademik meneroka cara model berfungsi, apa yang meningkatkan keupayaan semasa latihan dan cara ia boleh dipertingkatkan dan digodam.
2. Ramalan risiko kecerdasan buatan dan penilaian "keupayaan" adalah tidak saintifik
Sebagai pakar dalam bidang kecerdasan buatan, pembelajaran mesin dan pemprosesan bahasa semula jadi, penyelidik ini menekankan: yang disebut dalam SB-1047 pendekatan untuk menilai risiko model sangat dipersoalkan. Tidak ada konsensus saintifik tentang sama ada dan bagaimana model bahasa atau sistem kecerdasan buatan termaju lain menimbulkan ancaman kepada orang ramai.
3. Perlindungan yang tidak mencukupi untuk model sumber terbuka
Walaupun rang undang-undang menyebut bahawa kes khas mungkin disediakan untuk model sumber terbuka pada masa hadapan, disebabkan oleh pertumbuhan pesat dalam bilangan parameter dan pengurangan dalam kos pengkomputeran, langkah perlindungan sedia ada mungkin sukar diteruskan. Tanpa perlindungan yang kukuh, akibat untuk model ini boleh menjadi jelas dengan cepat. Selain itu, model kecil dengan prestasi setanding memerlukan kos pengiraan yang lebih tinggi daripada model besar. Oleh itu, pindaan dalam rang undang-undang tidak dijangka mengurangkan kesan negatif pada keluaran model sumber terbuka, manakala keperluan pelaporan dan semakan yang ketat akan memberi kesan kepada aktiviti penyelidikan.
4 Kebimbangan tentang penempatan kerja dan hasil kerjaya pelajar
SB-1047 boleh menghalang pelajar yang berminat dengan kecerdasan buatan daripada mempelajari lebih lanjut pengetahuan berkaitan pada masa hadapan, malah mungkin menghalang bakat baharu daripada memasuki sains komputer. dan bidang utama lain. Selain itu, apabila industri teknologi beralih daripada syarikat besar kepada syarikat baru, halangan pengawalseliaan tambahan boleh melumpuhkan inovator baru muncul dengan memihak kepada perniagaan yang lebih besar dan lebih baik. Anjakan ini boleh menyempitkan laluan kerjaya untuk pelajar.签 Tanda ditandatangani oleh beberapa ulama.

Selain surat terbuka, beberapa penyelidik juga memilih untuk bersuara di media sosial. Antaranya, seorang ahli biologi sistem menyatakan bahawa SB-1047 adalah seperti mengaktifkan tindak balas keradangan sebelum kita tahu apa patogen itu, bila ia akan menjangkiti kita, dan di mana jangkitan akan berlaku.

Sebelum ini, Ng Enda juga berkali-kali bersuara mengenai perkara ini. Beliau percaya pengawal selia harus mengawal selia aplikasi dan bukannya teknologi. Sebagai contoh, motor elektrik adalah teknologi.Apabila kita memasukkannya ke dalam pengisar, kereta elektrik, mesin dialisis atau bom berpandu, ia menjadi satu aplikasi. Bayangkan jika undang-undang menganggap pengeluar motor bertanggungjawab apabila sesiapa sahaja menggunakan motor itu dengan cara yang berbahaya. Pengeluar motor itu sama ada menghentikan pengeluaran atau menjadikan motor begitu kecil sehingga tidak berguna untuk kebanyakan aplikasi. Jika kita meluluskan undang-undang seperti ini, kita mungkin menghalang orang daripada membina bom, tetapi kita juga akan kehilangan pengisar, kereta elektrik dan mesin dialisis. Sebaliknya, jika kita menumpukan pada apl tertentu, kita boleh menilai risiko dengan lebih rasional dan menilai cara memastikan apl tersebut selamat, malah melarang jenis apl tertentu.
Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.
Adakah AI benar-benar cukup berbahaya untuk menjamin peraturan sedemikian? Apa pendapat anda tentangnya?

Pautan rujukan: https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/
drive
google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_Jxa/view
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-will-ai -politik-teknologi-ekosistem/?abc123
🎜

Atas ialah kandungan terperinci Li Feifei secara peribadi menulis artikel, dan berpuluh-puluh saintis menandatangani surat bersama yang menentang rang undang-undang sekatan AI California.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:jiqizhixin.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan