Teks/Chen Gen
Baru-baru ini, Pusat Keselamatan AI (CAIS) mengeluarkan "Pernyataan Risiko Kecerdasan Buatan" yang ditandatangani oleh 350 saintis dan eksekutif perniagaan dalam bidang kecerdasan buatan Kandungan utama kenyataan itu ialah "Kurangkan Risiko Kepintaran Buatan yang membawa kepada kepupusan manusia harus menjadi keutamaan global di samping risiko berskala masyarakat lain seperti wabak dan perang nuklear.”
Kenyataan awam ini menghimpunkan pendapat pakar kecerdasan buatan yang paling berwibawa, saintis nuklear, ahli epidemiologi dan pakar dan sarjana lain di dunia hari ini Boleh dikatakan bahawa risiko yang dibawa oleh kecerdasan buatan telah diselesaikan dengan paling banyak cara yang menyeluruh. Para penandatangan termasuk tiga eksekutif syarikat AI: Ketua Pegawai Eksekutif OpenAI Sam Altman, Ketua Pegawai Eksekutif DeepMind Demis Hassabis, dan Ketua Pegawai Eksekutif Anthropic Dario Amodei juga termasuk Jeff, yang dikenali sebagai Godfather AI Ray Hinton, bersama Joshua Bengio, salah seorang daripada "Tiga Besar"; AI dan pemenang Anugerah Turing turut menandatangani surat terbuka itu ialah dua saintis China, Institut Automasi Akademi Sains China, Etika Kepintaran Buatan dengan Zeng Yi, pengarah Pusat Penyelidikan Tadbir Urus, dan Zhan Xianyuan, penolong penyelidik di Institut Penyelidikan Industri Pintar Tsinghua.
Teori Ancaman Kecerdasan Buatan
Perkembangan teknologi kecerdasan buatan memainkan peranan dalam menggalakkan kemajuan sains sosial dan teknologi. Walau bagaimanapun, sementara kecerdasan buatan telah mencapai kemajuan yang cemerlang, kesan negatif dan tekanan psikologi terhadap manusia telah menjadi semakin ketara. Sebagai contoh, semakin ramai pelajar menggunakan kecerdasan buatan untuk menulis kerja rumah dan kertas, menjadikan plagiarisme sukar untuk ditakrifkan untuk membangunkan kaedah penggodaman baharu untuk mencuri data sensitif untuk memeras ugut.
Kecerdasan buatan juga akan memberi kesan besar pada cara manusia bekerja. Dianggarkan menjelang 2030, 75 juta hingga 375 juta orang perlu mencari pekerjaan semula. Ini bukan sahaja akan memberi kesan yang tidak pernah berlaku sebelum ini kepada ekonomi, tetapi juga akan menyebabkan tekanan yang tidak pernah berlaku sebelum ini terhadap psikologi rakyat. Menurut laporan, 61% responden di Amerika Syarikat percaya bahawa kecerdasan buatan mengancam masa depan manusia. Apabila Jeffrey Hinton ditanya "Pada pendapat anda, apakah senario terburuk yang boleh dibayangkan", dia menjawab: "Adalah benar-benar boleh dibayangkan bahawa manusia hanyalah peringkat peralihan dalam evolusi kecerdasan."
Pandangan rasional tentang kebaikan dan keburukan pembangunan kecerdasan buatanApabila semakin ramai orang mula percaya bahawa "kecerdasan buatan berpotensi menjadi lebih pintar daripada kita," kebimbangan yang meluas tentang perkembangan teknologi kecerdasan buatan yang tidak terkawal bukanlah sesuatu yang tidak munasabah. Walaupun kebanyakan kecerdasan buatan canggih yang diwakili oleh ChatGPT masih mereplikasi dan belajar berdasarkan corak dalam data latihan, keupayaan pembelajaran dan kadar pertumbuhannya boleh dikatakan "memajukan dengan pesat", yang tidak cukup untuk menggambarkan perkembangannya yang pesat.
Semakin banyak penggubal undang-undang, kumpulan advokasi dan orang dalam industri teknologi memberi amaran tentang potensi chatbot AI untuk menyebarkan maklumat salah dan menggantikan pekerjaan manusia. Dan Hendrycks, pengarah Pusat Keselamatan AI, malah menegaskan bahawa seluruh masyarakat juga harus bekerjasama untuk menyelesaikan jenis risiko AI lain, seperti bias algoritma atau maklumat yang mengelirukan. Sudah tentu, dalam proses pengurusan risiko ini, adalah melulu untuk menumpukan hanya pada bahaya serta-merta, dan ia akan sama melulu untuk mengabaikannya. Kerana seperti perkara baharu yang lain, pempopularan pesat kecerdasan buatan mempunyai peluang dan risiko. Walaupun orang ramai mengambil kesempatan daripada faedahnya, mereka juga mesti berhati-hati dengan kemungkinan risiko. Selagi anda memanfaatkannya dengan baik dan berjaga-jaga terhadap risiko, anda boleh "menggunakannya untuk saya."
Atas ialah kandungan terperinci Jeneral Chen: Guru AI bersama-sama mengisytiharkan 'amaran pemusnahan AI terhadap manusia'. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!