Kali terakhir Zhou Zhizhi, kali ini giliran Sam Altman.
Tetapi kali ini, ahli Kongres mempunyai sikap yang sama sekali berbeza terhadapnya - peramah, sabar, membuat kerja rumah yang cukup, dan meminta nasihat dengan rendah hati.
Malam tadi, waktu Beijing, Ketua Pegawai Eksekutif OpenAI Sam Altman memberi keterangan di hadapan Senat A.S. tentang potensi bahaya teknologi AI dan menggesa penggubal undang-undang untuk melaksanakan keperluan pelesenan dan peraturan lain untuk organisasi yang mengeluarkan AI lanjutan .
Sam Altman tidak perlu menerima soalan rumit, dia duduk di tempat duduknya dan bercakap dengan mudah, dan sekali lagi memberitahu dunia Bukti: Sebagai Ketua Pegawai Eksekutif permulaan paling berprofil tinggi di dunia, dia sedang menulis peraturan dan masa depan dunia teknologi.
Menghadapi Kongres A.S., Sam Altman sekali lagi dengan pasti menjamin OpenAI tidak akan melatih GPT-5 dalam tempoh enam bulan akan datang.
Pada masa yang sama, beliau juga mengeluarkan amaran kepada dunia: AI mungkin berbahaya kepada dunia Untuk menangani risiko AI yang semakin kuat, kita perlu mengukuhkan penyeliaan dan perundangan, dan campur tangan kerajaan adalah amat penting.
Mengapa Altman begitu aktif dalam peraturan kerajaan?
Jelas sekali, selagi anda menjadi pembuat peraturan, anda boleh memenangi pertandingan pemenang-ambil-semua.
Bagi Altman, yang telah mencipta nama di Silicon Valley dengan bergantung pada sifat "lembu sosial"nya, berurusan dengan kerajaan adalah semudah memilih sesuatu daripada beg.
Sebagai kuasa baharu yang tiba-tiba muncul dalam dunia teknologi, OpenAI telah menggerakkan dunia dengan sepantas kilat tahun ini, 8 tahun selepas penubuhannya di seluruh dunia, semua syarikat teknologi telah dipaksa untuk mengambil bahagian dalam involusi global bermula dengan ChatGPT.
Perlumbaan senjata AI global ini telah membimbangkan ramai pakar.
Namun, dalam perbicaraan ini, ahli-ahli Dewan Negara tidak mengkritik kekacauan yang disebabkan oleh teknologi OpenAI, tetapi dengan rendah hati meminta pendapat saksi mengenai peraturan berpotensi ChatGPT Sam Atlman kelihatan mesra dan hormat-menghormati.
Pada permulaan perbicaraan, Senator Richard Blumenthal menggunakan perisian pengklonan suara untuk menyalin suaranya sendiri dan membenarkan ChatGPT menulis Ayat pembukaan, penjana teks ke pertuturan yang dilatih menggunakan jam pertuturan.
Langkah ini membuktikan bahawa Kongres mempunyai sikap yang jelas terhadap "memeluk AI".
Pada pendengaran ini, penggubal undang-undang jelas sangat teruja, dan mereka sangat tegas dengan Xiao Zha dan Zhou Shouzi Soalan sedang dalam kontras yang tajam.
Daripada mengungkit kesilapan masa lalu, senator tidak sabar-sabar untuk manfaat yang boleh dibawa oleh AI.
Dan Altman terus kepada intipati dan memberitahu Senat: Teknologi AI boleh menjadi salah.
Dia berkata bahawa dia sangat bimbang tentang industri kecerdasan buatan yang menyebabkan bahaya besar kepada dunia.
"Jika teknologi AI menjadi salah, akibatnya akan menjadi bencana. Kami perlu bercakap tentang perkara ini: kami mahu bekerjasama dengan kerajaan untuk mengelakkan perkara ini daripada berlaku."
“Kami percaya campur tangan kawal selia kerajaan adalah penting untuk mengurangkan risiko model AI yang semakin berkuasa Contohnya, kerajaan A.S. boleh mempertimbangkan untuk menggabungkan keperluan pelesenan dan ujian untuk membangunkan dan mengeluarkan AI yang melebihi ambang keupayaan. Model. 》
Altman berkata bahawa dia sangat bimbang pilihan raya akan terjejas oleh kandungan yang dijana AI, jadi perlu ada penyeliaan yang mencukupi dalam hal ini.
Dalam hal ini, Senator Dick Durbin berkata adalah sesuatu yang luar biasa bagi syarikat-syarikat besar untuk datang ke Senat untuk "memohon peraturan kami."
Bagaimana untuk mengawal selia? Altman sudah memikirkan kerajaan.
Pada perbicaraan itu, beliau mencadangkan satu rancangan yang sistematik.
1. Menubuhkan agensi kerajaan baharu yang bertanggungjawab untuk melesenkan model AI yang besar dan membatalkan lesen untuk model yang tidak memenuhi piawaian.
Beliau percaya bahawa tidak ada keperluan untuk melaksanakan sistem kawal selia pelesenan ini untuk teknologi yang tidak dapat mencapai tahap model berskala besar yang canggih. Untuk menggalakkan inovasi, Kongres boleh menetapkan ambang kecekapan untuk melindungi syarikat dan penyelidik yang lebih kecil daripada beban kawal selia.
2. Cipta satu set piawaian keselamatan untuk model AI, termasuk penilaian keupayaan berbahayanya.
Sebagai contoh, model mesti lulus ujian keselamatan, seperti sama ada mereka boleh "meniru sendiri" dan "bocor di luar peraturan."
3. Memerlukan pakar bebas untuk menjalankan audit bebas prestasi model pada pelbagai penunjuk.
Apabila ditanya oleh senator sama ada dia bersedia untuk mengambil peranan itu, Altman berkata: "Saya berpuas hati dengan pekerjaan saya sekarang, tetapi dia dengan senang hati menyediakan senarai untuk dipilih oleh Kongres."
Altman berkata kerana model AI boleh "memujuk, memanipulasi, mempengaruhi tingkah laku, kepercayaan" seseorang dan juga "mencipta ejen biologi baharu", pelesenan amat diperlukan.
Adalah lebih mudah untuk melesenkan semua sistem di atas ambang kuasa pengkomputeran tertentu, tetapi Altman berkata dia lebih suka melukis garis kawal selia berdasarkan keupayaan tertentu.
Jadi adakah model OpenAI sendiri selamat?
Altman telah berulang kali mengatakan bahawa semua orang boleh yakin.
Beliau berkata model GPT-4 akan bertindak balas dengan lebih sengaja dan realistik berbanding model lain yang serupa, dan pastinya akan menolak permintaan berbahaya kerana GPT-4 telah menjalani ujian Pra-keluaran yang meluas dan pengauditan.
"Sebelum mengeluarkan sebarang sistem baharu, OpenAI menjalankan ujian yang meluas, melibatkan pakar luar untuk menjalankan semakan terperinci dan audit bebas, menambah baik tingkah laku model dan melaksanakan sistem keselamatan dan pemantauan yang kukuh. 》
“Kami menghabiskan lebih enam bulan menjalankan penilaian menyeluruh, pasukan merah luaran dan ujian keupayaan berbahaya sebelum mengeluarkan GPT-4.”
Dan yang terakhir bulan, pengguna ChatGPT dapat mematikan sejarah sembang untuk menghalang data peribadi mereka daripada digunakan untuk melatih model AI.
Namun, ada juga yang tajam mata yang menemui "titik hua" itu tidak melibatkan dua perkara yang hangat diperkatakan orang ramai -
1. Memerlukan model AI untuk mendedahkan sumber data latihan mereka.
2. Model AI dilarang menggunakan karya yang dilindungi oleh hak harta intelek untuk latihan.
Nah, maksudnya, Altman mengelak dua perkara kontroversi ini dengan sangat bijak.
Cadangan Altman untuk peraturan keselamatan AI telah dipuji oleh penggubal undang-undang, yang sekali-sekala melahirkan rasa terima kasih atas keterangannya. Senator Altman, R-LA, malah menghubungi Altman, bertanya sama ada dia berminat untuk bekerja di agensi kawal selia yang diwujudkan oleh Kongres.
Kongres berazam untuk mengawal selia kecerdasan buatan, dan terdapat tanda-tanda awal. Awal bulan ini, Altman, bersama-sama dengan Ketua Pegawai Eksekutif Google, Microsoft dan Nvidia, bertemu dengan Naib Presiden Kamala Harris di Rumah Putih untuk membincangkan pembangunan AI yang bertanggungjawab.
Seawal tahun lalu, Rumah Putih mencadangkan "Rang Undang-undang Hak Kepintaran Buatan" untuk mengemukakan pelbagai keperluan kepada industri, seperti mencegah diskriminasi.
Senator mencadangkan membandingkan AI kepada bom atom.
Merujuk kepada amalan kerajaan di seluruh dunia dalam mengawal selia senjata nuklear, Altman mencadangkan idea untuk membentuk sebuah agensi yang serupa dengan Agensi Tenaga Atom Antarabangsa untuk merumuskan peraturan global untuk industri.
Dalam temu bual Pusingan 2 April dengan Lex Fridman, Sam Altman berkata dengan tegas: "Kami tidak melatih GPT-5 sekarang, kami hanya melakukan lebih banyak kerja berdasarkan GPT-4."
Pada perbicaraan ini, Altman secara langsung mengakui OpenAI tidak bercadang untuk melatih model baharu yang mungkin menjadi GPT-5 dalam tempoh enam bulan akan datang.
Dan ini bermakna hujung tahun ini, Google akan mempunyai sistem kecerdasan buatan yang paling berkuasa lagi - Project Gemini.
Dikatakan bahawa Gemini direka untuk inovasi masa depan seperti penyimpanan dan penjadualan Ia bukan sahaja berbilang modal dari awal, tetapi juga sangat cekap dalam menyepadukan alatan dan API. Ia sedang dibangunkan oleh pasukan Google Deepmind yang baru ditubuhkan.
Gary Marcus, seorang profesor psikologi dan neurosains di Universiti New York, turut muncul di kandang saksi.
Dia lebih keras memukul daripada ahli Kongres.
Soalannya kepada Sam Altman boleh disifatkan sebagai "mematikan".
Bukankah tujuan penubuhan OpenAI untuk memberi manfaat kepada semua manusia Mengapa ia kini membentuk pakatan dengan Microsoft?
OpenAI tidak Terbuka, dan data latihan GPT-4 tidak telus Apakah maksudnya?
Marcus menyimpulkan: Kami mempunyai peluang yang belum pernah berlaku sebelum ini, tetapi kami juga menghadapi ketidakbertanggungjawaban korporat yang meluas dan Penggunaan yang meluas, kekurangan peraturan yang betul dan risiko yang teruk tidak boleh dipercayai
Pada pandangan Marcus, kedua-dua Open dan Microsoft melakukan sesuatu yang sangat salah.
Microsoft's Bing AI Sydney menunjukkan satu siri tingkah laku yang mengejutkan.
"Sydney mempunyai masalah besar. Jika saya, saya akan menariknya keluar dari pasaran dengan segera, tetapi Microsoft tidak melakukannya." Marcus berkata bahawa insiden ini adalah satu panggilan untuknya-malah organisasi bukan untung seperti OpenAI boleh dibeli oleh syarikat besar dan kemudian melakukan apa sahaja yang dikehendakinya.
Tetapi sekarang, pandangan dan kehidupan orang ramai dibentuk dan diubah secara halus oleh AI Bagaimana jika seseorang sengaja menggunakan teknologi AI untuk tujuan yang tidak baik?
Marcus sangat risau tentang perkara ini.
"Jika anda menggabungkan teknocracy dan oligarki, maka beberapa syarikat boleh mempengaruhi kepercayaan orang ramai. Di situlah sebenarnya risiko terletak... Ia menakutkan saya apabila segelintir pemain melakukan ini menggunakan data yang kita tidak tahu"
Altman berkata komuniti AI Tiada monopoli
Senator itu berkata salah satu "kebimbangan terbesarnya" tentang kecerdasan buatan ialah "monopoli korporat besar-besaran ini."
Beliau menyebut kerjasama OpenAI dengan gergasi teknologi Microsoft sebagai contoh.
Altman berkata bahawa dia percaya bahawa bilangan syarikat yang boleh mengeluarkan model besar adalah agak kecil, yang mungkin memudahkan untuk mengawal selia.
Sebagai contoh, hanya beberapa syarikat yang boleh mengeluarkan AI generatif berskala besar, tetapi persaingan sentiasa wujud.
Kebangkitan media sosial telah didorong oleh Seksyen 230 yang diluluskan oleh Kongres A.S. pada tahun 1996, yang melindungi laman web Pembebasan daripada liabiliti untuk siaran pengguna.
Altman percaya: Pada masa ini tiada cara untuk model besar dilindungi oleh Seksyen 230. Undang-undang baharu harus digubal untuk melindungi model besar daripada liabiliti undang-undang untuk kandungan yang mereka keluarkan.
Ultraman pada mulanya mengelak cadangan senator bahawa "AI boleh menyebabkan akibat yang paling serius."
Tetapi selepas Marcus memberi peringatan mesra bahawa Altman tidak menjawab soalan itu, senator itu mengulangi soalannya.
Altman akhirnya tidak menjawab soalan ini secara langsung.
Beliau berkata OpenAI telah cuba untuk menjadi sangat jelas tentang risiko kecerdasan buatan, yang boleh datang dalam "banyak dengan cara yang berbeza." Menyebabkan "kemudaratan yang ketara kepada dunia".
Dia menjelaskan lagi. Menangani masalah ini adalah sebab OpenAI diasaskan. "Jika ada masalah dengan teknologi ini, ia boleh menjadi sangat salah."
Malah, dalam temu bual dengan "StrictlyVC" awal tahun ini, Altman berkata bahawa kepupusan manusia adalah yang paling banyak. Keadaan yang teruk.
Akhirnya Marcus pun nampak berlembut terhadap Ultraman.
Menjelang akhir perbicaraan, Marcus, yang duduk di sebelah Altman, berkata, "Keikhlasan yang dia bercakap tentang ketakutan sangat jelas sehingga ia tidak terpancar melalui skrin televisyen. "
Berbanding dengan Xiao Zha, persembahan Altman dalam pendengaran ini sangat canggih. Saya fikir dia seorang pemimpin sosial. selesa berurusan dengan ahli politik. Lagipun, Altman adalah seseorang yang mempertimbangkan untuk bertanding untuk gabenor California tahun lalu.
Dan berbanding Xiao Zha, yang telah "tersekat banyak masalah" kerana privasi data dan mata wang sebelum pergi ke pendengaran, OpenAI di belakang Altman bukan sahaja menerima hampir tiada orang awam kritikan, tetapi ia juga semasa AI Pengasas paling penting situasi dalam bidang "semua perkara berlaku".
Berdepan dengan Altman, yang menunjukkan niat baik sejak awal lagi dan menggesa peraturan AI, penggubal undang-undang ini, yang hampir semuanya "amatur teknikal", secara semula jadi akan kelihatan lembut di hadapan ini "pihak berkuasa" Banyak kebaikan.
Jadi dalam situasi yang sama, tekanan ke atas Altman tidak berada pada urutan magnitud yang sama seperti pada Xiao Zha.
Sesetengah ahli Senat telah membangkitkan kebimbangan bahawa jika produk AI terutamanya pengiklanan, seperti platform sosial Internet, Model perniagaan akan membenarkan reka bentuk produk manipulatif dan algoritma ketagihan disalahgunakan.
Altman berkata dia "sangat suka" model langganan.
Tetapi OpenAI mempertimbangkan kemungkinan menyiarkan iklan dalam versi percuma ChatGPT untuk menjana wang daripada pengguna percumanya.
Atas ialah kandungan terperinci Bapa ChatGPT sedang bertengkar di Capitol Hill! OpenAI mahu bergabung tenaga dengan kerajaan untuk mendapatkan kuasa. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!