Rangkaian Berita Rujukan dilaporkan pada 31 Mei Laman web majalah Fortune AS yang diterbitkan pada 30 Mei bertajuk "Sam Altman dan pakar teknologi lain memberi amaran bahawa kecerdasan buatan menimbulkan "risiko kepupusan" "Tahap bahaya adalah setanding kepada wabak dan perang nuklear", teks penuh dipetik seperti berikut:
Ahli teknologi dan pakar sains komputer memberi amaran bahawa kecerdasan buatan menimbulkan ancaman wujud setanding dengan perang nuklear dan pandemik global, malah pemimpin perniagaan yang telah menerajui kempen untuk kecerdasan buatan menyatakan kebimbangan bahawa teknologi itu mengancam amaran kelangsungan hidup manusia.
Pusat Keselamatan Kecerdasan Buatan, sebuah organisasi penyelidikan bukan untung, mengeluarkan "Penyata Mengenai Risiko Kecerdasan Buatan" pada 30hb Lebih daripada 300 orang menandatangani kenyataan itu Center Terman adalah salah satu daripadanya. Surat itu ringkas, tetapi ia menggariskan risiko kecerdasan buatan. "Mengurangkan risiko kecerdasan buatan menghapuskan umat manusia dan mengurangkan risiko lain yang menjejaskan masyarakat secara keseluruhan, seperti wabak dan perang nuklear, harus menjadi keutamaan global," kata surat itu
Permulaan surat itu menunjukkan bahawa tujuan pernyataan itu adalah untuk memulakan perbincangan untuk mempersiapkan potensi potensi apokaliptik teknologi kecerdasan buatan. Joshua Benjo dan bekas jurutera Google Jeffrey Hinton adalah antara penandatangan lain yang menyertai usaha itu. Disebabkan sumbangan mereka kepada sains komputer moden, kedua-dua lelaki ini dikenali sebagai Godfathers of Artificial Intelligence. Benjo dan Hinton telah berulang kali memberi amaran dalam beberapa minggu kebelakangan ini tentang keupayaan berbahaya yang mungkin dibangunkan oleh teknologi kecerdasan buatan dalam masa terdekat. Hinton baru-baru ini meninggalkan Google untuk dapat membincangkan risiko kecerdasan buatan dengan lebih terbuka.Ini bukan surat pertama yang meminta perhatian lebih lanjut terhadap akibat buruk yang mungkin dialami oleh penyelidikan AI lanjutan tanpa peraturan kerajaan yang lebih ketat. Pada bulan Mac, Elon Musk adalah antara lebih 1,000 pakar teknologi yang menyeru agar moratorium enam bulan ke atas penyelidikan ke dalam kecerdasan buatan termaju, memetik potensi gangguan teknologi itu.
Altman memberi amaran kepada Kongres bulan ini bahawa apabila teknologi berkembang pesat, peraturan tidak lagi dapat mengikutinya.
Kenyataan terbaru Altman, tidak seperti suratnya sebelum ini, tidak menyatakan sebarang matlamat khusus dan hanya memerlukan perbincangan. Hinton memberitahu CNN awal bulan ini bahawa dia tidak menandatangani surat Mac itu.
Walaupun eksekutif dari institusi penyelidikan AI terkemuka, termasuk Pusat Penyelidikan Kecerdasan Buatan Terbuka dan juga Google, menyeru kerajaan untuk bertindak cepat dalam mengawal selia AI, sesetengah pakar memberi amaran bahawa beberapa masalah semasa — termasuk palsu. Ia adalah tidak produktif untuk dibincangkan risiko masa depan teknologi ini kepada kelangsungan hidup manusia apabila maklumat dan kemungkinan berat sebelah sudah mendatangkan malapetaka. Malah ada yang percaya bahawa dengan membincangkan secara terbuka risiko kecerdasan buatan, CEO seperti Altman sebenarnya telah cuba mengalihkan perhatian daripada masalah sedia ada dengan teknologi.
Tetapi mereka yang meramalkan bahawa kecerdasan buatan akan membawa kepada penghujung dunia juga memberi amaran bahawa teknologi itu berkembang begitu pantas sehingga risikonya boleh menjadi masalah yang tidak dapat dicapai dengan cepat oleh manusia. Keupayaan kecerdasan buatan super yang semakin meningkat untuk berfikir dan menaakul sendiri membimbangkan lebih ramai orang, lebih cepat daripada jangkaan ramai orang. Sesetengah pakar memberi amaran bahawa teknologi ini pada masa ini tidak untuk kepentingan dan kesejahteraan manusia.
Dalam temu bual dengan Washington Post bulan ini, Hinton berkata bahawa kecerdasan buatan super berkembang pesat dan mungkin hanya tinggal 20 tahun lagi, dan kini adalah masa untuk bercakap tentang risiko kecerdasan buatan lanjutan.
Dia berkata: "Ini bukan fiksyen sains." (Penyusun/Tu Qi)
Atas ialah kandungan terperinci Media AS: Kepintaran buatan sama berbahayanya dengan wabak dan perang nuklear. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!