Kami tidak boleh menentukan sasaran dengan betul, kami juga tidak boleh meramal atau menghalang kerosakan yang akan ditimbulkan oleh mesin berkuasa super yang mengejar matlamat yang salah pada skala global. Kami telah pun melihat contoh algoritma media sosial yang mengeksploitasi keutamaan orang ramai untuk mengoptimumkan klik, dengan akibat buruk bagi institusi demokrasi.
Superintelligence: Paths, Danger, Strategies, diterbitkan pada 2014 oleh Nick Bostrom Buku yang memperincikan kes mengambil risiko secara serius. Majalah "The Economist" menyemak buku ini, dan ulasan itu menyimpulkan: "Pengenalan spesies pintar kedua di bumi mempunyai akibat yang meluas dan patut kita fikirkan dengan mendalam
Sudah tentu, dalam Apabila taruhannya orang yang tinggi dan bijak sudah berfikir keras: terlibat dalam perdebatan yang serius, menimbang kebaikan dan keburukan, mencari penyelesaian, mencari kelemahan dalam penyelesaian, dsb. Setahu saya, usaha-usaha ini tidak berjaya dan mendapat pelbagai penafian.
Hujah beberapa penyelidik AI terkemuka hampir tidak patut disangkal. Berikut ialah beberapa daripada berpuluh-puluh pernyataan yang saya lihat dalam artikel atau dengar di persidangan:
Kalkulator elektronik tiada tandingan dalam aritmetik dan kalkulator tidak mengambil alih dunia oleh itu, tiada sebab untuk dibimbangkan kecerdasan buatan manusia luar biasa.
Tiada contoh dalam sejarah mesin yang membunuh berjuta-juta orang, dan memandangkan ini, ia tidak akan berlaku pada masa hadapan.
Tiada kuantiti fizik yang tidak terhingga di alam semesta, dan kecerdasan juga tidak terkecuali, jadi tidak perlu terlalu risau tentang superintelligence.
Mungkin jawapan yang paling biasa daripada penyelidik kecerdasan buatan ialah: "Kita boleh mematikannya sendiri Alan Turing membangkitkan kemungkinan ini, tetapi dia tidak terlalu yakin:
Jika mesin boleh berfikir." , mungkin lebih komprehensif daripada yang kita boleh, di manakah itu akan meninggalkan kita? Walaupun mesin boleh dibuat untuk membongkok kepada kita, seperti menutup pada saat-saat genting, kita sebagai spesies harus berasa malu dengan diri kita sendiri... Bahaya baru ini... pasti membuatkan kita cemas.
Mematikan mesin tidak akan berfungsi Sebabnya sangat mudah. Ia melakukan ini bukan kerana ia "mahu bertahan" tetapi kerana ia mengejar matlamat yang telah kita tetapkan untuknya dan tahu ia akan gagal jika dimatikan. Kita tidak boleh "mematikan" begitu sahaja, lebih daripada yang kita boleh mengalahkan Alpha Go hanya dengan meletakkan kepingan pada petak yang sepadan pada papan.
Bentuk penafian lain membawa kepada idea yang lebih kompleks, seperti idea bahawa kecerdasan pelbagai rupa. Contohnya, seseorang mungkin mempunyai kecerdasan spatial yang lebih tinggi daripada yang lain tetapi kurang kecerdasan sosial, jadi kita tidak boleh meletakkan mereka semua mengikut urutan kecerdasan yang ketat. Ini benar terutamanya untuk mesin: tidak masuk akal untuk membandingkan "kepintaran" Alpha Go dengan enjin carian Google.
Kevin Kelly, ketua pengasas majalah Wired dan pengulas teknologi yang berwawasan, mengambil pandangan ini selangkah lebih jauh. "Kecerdasan bukan satu dimensi, jadi 'lebih pintar daripada manusia' adalah konsep yang tidak bermakna," tulisnya dalam bukunya The Myth of a Superhuman AI About Superintelligence Kebimbangan saya telah dihancurkan oleh tiang.
Kini, terdapat jawapan yang jelas, mesin mungkin mengatasi manusia dalam semua dimensi kecerdasan yang berkaitan. Dalam kes ini, walaupun mengikut piawaian ketat Kelly, robot itu akan lebih pintar daripada manusia. Tetapi andaian yang agak kuat ini tidak perlu untuk menyangkal hujah Kelly.
Ambil cimpanzi sebagai contoh. Cimpanzi mungkin mempunyai ingatan jangka pendek yang lebih baik daripada manusia, walaupun pada tugas yang dikuasai manusia, seperti mengingati urutan nombor. Ingatan jangka pendek adalah dimensi kecerdasan yang penting. Menurut hujah Kelly, manusia tidak lebih pintar daripada cimpanzi, malah, dia akan mengatakan "lebih pintar daripada cimpanzi" adalah konsep yang tidak bermakna.
Ini adalah sedikit penghiburan kepada cimpanzi dan spesies lain yang bertahan hanya kerana toleransi manusia, dan kepada semua spesies yang telah dimusnahkan oleh manusia. Sekali lagi, ini adalah sedikit keselesaan kepada sesiapa sahaja yang mungkin bimbang akan dihapuskan oleh mesin.
Sesetengah orang percaya bahawa superintelligence tidak boleh dicapai, jadi risiko superintelligence tidak lagi wujud. Tuntutan ini bukan perkara baru, tetapi menghairankan bahawa penyelidik AI sendiri kini mengatakan bahawa kecerdasan buatan sedemikian adalah mustahil. Sebagai contoh, laporan penting "Kecerdasan Buatan dan Kehidupan pada 2030" oleh organisasi AI100 menyatakan: "Tidak seperti adegan filem, robot manusia super tidak akan dan tidak boleh muncul dalam realiti pada masa hadapan."
Setahu saya, ini adalah kali pertama penyelidik kecerdasan buatan yang serius menyatakan secara terbuka bahawa kecerdasan buatan peringkat manusia atau manusia luar biasa adalah mustahil, dan ini berlaku semasa tempoh perkembangan pesat penyelidikan kecerdasan buatan, di mana satu demi satu Halangan dipecahkan. Ia akan menjadi seperti sekumpulan ahli biologi kanser terkemuka yang mengumumkan bahawa mereka telah menipu kita selama ini: mereka tahu selama ini bahawa tidak akan ada penawar untuk kanser.
Apakah yang mendorong peralihan besar ini? Tiada hujah atau bukti disediakan dalam laporan itu. (Sememangnya, apakah bukti bahawa secara fizikalnya mustahil untuk mempunyai susunan atom yang lebih baik daripada otak manusia?) Saya fikir sebab utamanya ialah kesukuan—pertahanan terhadap apa yang mungkin menjadi "serangan" ke atas kecerdasan buatan. Walau bagaimanapun, adalah untuk memikirkan AI yang sangat pintar sebagai sesuatu yang mungkin membentuk serangan ke atas AI nampaknya agak ganjil, dan untuk mempertahankan AI dengan mengatakan ia tidak akan mencapai matlamatnya kelihatan lebih tidak masuk akal. Kita tidak boleh memastikan bahawa bencana masa depan tidak akan berlaku dengan bertaruh pada had kreativiti manusia.
Tegasnya, kecerdasan buatan manusia luar biasa tidak mustahil, jadi adakah kita tidak perlu risau tentang risikonya lebih awal? Saintis komputer Andrew Ng percaya ini seperti bimbang tentang "penduduk berlebihan di Marikh." Namun, risiko jangka panjang tetap menjadi kebimbangan. Bila perlu bimbang tentang masalah yang berpotensi serius yang melibatkan manusia bergantung bukan sahaja pada masa masalah itu berlaku, tetapi juga pada tempoh masa yang diperlukan untuk menyediakan dan melaksanakan penyelesaian.
Sebagai contoh, untuk mengesan asteroid yang akan berlanggar dengan Bumi pada tahun 2069, adakah kita akan menunggu sehingga 2068 untuk mula mengusahakan penyelesaian? Sudah tentu tidak! Kemanusiaan akan menyediakan projek kecemasan global untuk mencari cara untuk menangani ancaman kerana kita tidak mempunyai cara untuk mengetahui terlebih dahulu berapa banyak masa yang kita perlukan.
Pandangan Enda Ng juga membuatkan orang merasakan mustahil untuk kita memindahkan berbilion orang ke Marikh. Analogi ini salah. Kami melaburkan sejumlah besar sumber saintifik dan teknologi untuk mencipta sistem AI yang lebih berkuasa, tanpa mengambil kira apa yang akan berlaku jika kami berjaya. Kita boleh membuat analogi yang lebih sesuai: merancang untuk memindahkan manusia ke Marikh tanpa mengambil kira masalah pernafasan dan makan selepas ketibaan. Mungkin ada yang berpendapat rancangan ini tidak bijak.
Satu lagi cara untuk mengelakkan masalah yang berpotensi adalah dengan menegaskan bahawa kebimbangan tentang risiko berpunca daripada kejahilan. Sebagai contoh, Oren Etzioni, Ketua Pegawai Eksekutif Allen Institute for Artificial Intelligence, telah menuduh Elon Musk dan Stephen Hawking sebagai Luddites yang telah menarik perhatian kepada potensi ancaman AI dan dorongan buta untuk menentang perkara baharu):
Setiap inovasi teknologi yang muncul membuatkan orang ramai dalam ketakutan. Daripada penenun yang melemparkan kasut ke alat tenun pada awal zaman perindustrian hingga ketakutan hari ini terhadap robot pembunuh, kami tertanya-tanya apakah kesan teknologi baharu terhadap rasa diri dan mata pencarian kami. Apabila kita tidak tahu apa-apa, kita panik.
Walaupun hujah klasik yang keliru ini diambil pada nilai muka, ia tidak dapat digunakan. Hawking tidak asing dengan penaakulan saintifik, dan Musk telah mengawasi dan melabur dalam beberapa projek penyelidikan kecerdasan buatan. Lebih tidak layak untuk berfikir bahawa Bill Gates, I.J Good, Marvin Minsky, Alan Turing dan Norbert Wiener, yang membangkitkan kebimbangan, tidak layak untuk membincangkan kecerdasan buatan.
Adalah salah sama sekali untuk menuduh Luddisme. Seolah-olah jurutera nuklear dituduh sebagai Luddite apabila mereka menunjukkan keperluan untuk mengawal tindak balas pembelahan. Iaitu, menyebut risiko AI bermakna menafikan potensi manfaatnya. Ambil Oren Etzioni sebagai contoh:
Ramalan pesimis selalunya gagal mengambil kira potensi kelebihan kecerdasan buatan dalam mencegah kemalangan perubatan dan mengurangkan kemalangan kereta.
Baru-baru ini, Ketua Pegawai Eksekutif Facebook Mark Zuckerberg mengadakan pertukaran media dengan Elon Musk:
Menentang kecerdasan buatan menentang sistem yang lebih selamat yang tidak akan menyebabkan kemalangan, terhadap diagnosis keadaan pesakit yang lebih tepat.
Tanggapan bahawa sesiapa yang menyebut risiko adalah "anti-AI" adalah pelik. (Adakah jurutera keselamatan nuklear "menentang elektrik"?) Apatah lagi, keseluruhan hujah adalah tepat bertentangan, kerana dua sebab. Pertama, jika tiada faedah yang berpotensi, tidak akan ada insentif untuk penyelidikan AI dan bahaya yang ditimbulkan oleh AI peringkat manusia, dan kami tidak akan membincangkannya. Kedua, jika risiko tidak dapat dikurangkan dengan jayanya, tidak akan ada faedahnya.
Peristiwa malapetaka di Pulau Three Mile pada tahun 1979, Chernobyl pada tahun 1986, dan Fukushima, Jepun pada tahun 2011 telah banyak mengurangkan potensi manfaat tenaga nuklear. Bencana nuklear ini sangat menyekat pembangunan industri nuklear. Itali melepaskan tenaga nuklear pada tahun 1990, dan Belgium, Jerman, Sepanyol dan Switzerland telah pun mengumumkan bahawa mereka meninggalkan rancangan tenaga nuklear. Dari 1991 hingga 2010, kapasiti tenaga nuklear baharu bersih yang ditambah setiap tahun adalah kira-kira 1/10 daripada apa yang berlaku pada tahun-tahun sebelum kemalangan Chernobyl.
Anehnya, dengan peristiwa ini sebagai amaran, saintis kognitif terkenal Steven Pinker masih percaya bahawa orang ramai tidak seharusnya menarik perhatian kepada risiko kecerdasan buatan kerana "budaya keselamatan masyarakat maju" akan Memastikan semua risiko AI yang ketara dihapuskan. Walaupun mengabaikan Chernobyl, Fukushima, dan pemanasan global yang berterusan yang disebabkan oleh budaya keselamatan lanjutan kami, hujah Pinker meleset sama sekali. Budaya keselamatan yang berfungsi melibatkan menunjukkan mod kegagalan yang berpotensi dan mencari cara untuk menghalangnya, dan model standard AI ialah mod kegagalan.
Pinker juga percaya bahawa tingkah laku AI yang bermasalah berpunca daripada menetapkan jenis matlamat tertentu, jika ini tidak dipertimbangkan, tidak akan ada masalah:
Projek distopia AI akan Mentaliti maskulin yang sempit diunjurkan ke atas. konsep kecerdasan. Mereka percaya bahawa robot dengan kecerdasan supermanusia akan mempunyai matlamat seperti menggulingkan tuan mereka atau menakluk dunia.
Yann LeCun, perintis dalam pembelajaran mendalam dan ketua penyelidikan AI di Facebook, sering memetik perkara yang sama apabila memperkecilkan risiko AI:
Kita tidak perlu membiarkan AI memilikinya Naluri memelihara diri, cemburu, dll... AI tidak akan mencipta "emosi" yang merosakkan melainkan kita memasukkan emosi tersebut ke dalamnya.
Mereka yang menganggap risiko ini boleh diabaikan tidak menjelaskan mengapa kecerdasan buatan super mesti berada di bawah kawalan manusia.
Malah, tidak kira sama ada kita telah membenamkan "emosi" atau "keinginan" (seperti pemeliharaan diri, pemerolehan sumber, penemuan pengetahuan, atau dalam kes yang melampau, penguasaan dunia). Mesin akan menjana emosi ini juga, sama seperti submatlamat matlamat yang kami bina—tidak kira apa jantinanya. Seperti yang didedahkan oleh perspektif "matikan mesin", penghujung kehidupan bukanlah sesuatu yang buruk bagi sebuah mesin. Namun, penamatan hidup harus dielakkan, kerana apabila ditamatkan, mereka akan mengalami masa yang lebih sukar untuk mencapai matlamat mereka.
Perubahan biasa pada hujah "elakkan menetapkan matlamat" ialah sistem yang cukup pintar semestinya akan menetapkan matlamat "betul" dengan sendirinya berdasarkan kecerdasannya. Ahli falsafah abad ke-18 David Hume menyangkal pandangan ini dalam A Treatise of Human Nature. Dalam bukunya "Superintelligence" (Superintelligence), Nick Bostrom menganggap pandangan Hume sebagai proposisi ortogon:
Intelligence is ortogonally related to the ultimate goal: any level of intelligence can or More or less integrated with any ultimate goal.
Contohnya, destinasi kereta pandu sendiri boleh ke mana-mana lokasi tertentu, menjadikan kereta lebih autonomi tidak bermakna ia secara automatik menolak untuk pergi ke alamat yang memerlukan pengiraan matematik tertentu.
Begitu juga, tidak sukar untuk membayangkan bahawa sistem pintar am boleh diberikan lebih atau kurang matlamat, termasuk memaksimumkan bilangan klip kertas atau bilangan digit dalam nisbah pi yang diketahui. Beginilah cara sistem pembelajaran pengukuhan dan pengoptimum ganjaran lain berfungsi: algoritma adalah umum sepenuhnya dan boleh menerima sebarang isyarat ganjaran. Bagi jurutera dan saintis komputer yang bekerja dalam Model Standard, proposisi ortogonaliti hanyalah diberikan.
Pakar robotik terkenal Rodney Brooks dengan jelas mengkritik tesis ortogonal Bostrom Dia menegaskan bahawa program "tidak boleh cukup bijak untuk mencipta cara untuk menumbangkan masyarakat manusia yang telah ditetapkan oleh manusia, tanpa memahami caranya menyusahkan manusia.”
Walau bagaimanapun, memandangkan definisi masalah Bruske, prosedur sedemikian bukan sahaja boleh dilakukan, tetapi sebenarnya tidak dapat dielakkan. Bruske percaya bahawa amalan terbaik mesin untuk "mencapai matlamat yang ditetapkan manusia" menyebabkan masalah kepada manusia. Dapat dilihat bahawa masalah-masalah ini menggambarkan kelalaian manusia terhadap apa yang berharga kepada manusia ketika menetapkan matlamat. Penyelesaian terbaik yang dilaksanakan oleh mesin berkemungkinan menimbulkan masalah kepada manusia, dan mesin berkemungkinan menyedari perkara ini, tetapi jelas sekali bukan urusan mereka bahawa mesin tidak akan menganggap masalah ini sebagai bermasalah.
Ringkasnya, "skeptis" yang percaya bahawa risiko yang ditimbulkan oleh AI adalah minimum tidak menjelaskan mengapa sistem super AI mesti berada di bawah kawalan manusia; dibangunkan.
Bidang kecerdasan buatan mesti mengambil risiko dan melakukan yang terbaik untuk mengurangkannya, daripada terus terjerumus ke dalam konfrontasi dan fitnah serta berulang kali mencungkil hujah yang tidak boleh dipercayai. Setakat yang kita tahu, risiko ini bukanlah remeh dan tidak boleh diatasi. Langkah pertama ialah mengenali model standard mesti diganti dan sistem AI mengoptimumkan matlamat tetap. Ini adalah kejuruteraan yang lemah. Kita perlu melakukan banyak kerja untuk membentuk semula dan membina semula asas kecerdasan buatan.
Atas ialah kandungan terperinci Masih belum terlambat untuk berhati-hati dengan kecerdasan buatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!