Dikuasakan oleh kemajuan dalam komputer, sains data dan ketersediaan set data yang besar, kecerdasan buatan (AI) telah menjadi realiti harian dan alat perniagaan yang berkuasa. Syarikat teknologi besar seperti Google, Amazon, dan Meta kini membangunkan sistem berasaskan AI. Teknologi ini boleh meniru pertuturan manusia, mengesan penyakit, meramal aktiviti jenayah, mendraf kontrak undang-undang, menyelesaikan isu kebolehcapaian dan menyelesaikan tugas dengan lebih baik daripada manusia. Untuk perniagaan, AI memegang janji untuk meramalkan hasil perniagaan, menambah baik proses dan meningkatkan kecekapan dengan penjimatan kos yang ketara.
Tetapi kebimbangan tentang kecerdasan buatan masih berkembang.
Algoritma AI telah menjadi begitu berkuasa sehingga sesetengah pakar melabelkan AI sebagai makhluk yang mana-mana rasuah, gangguan, berat sebelah atau diskriminasi boleh memberi kesan yang besar kepada organisasi, kehidupan manusia dan masyarakat.
Pembuatan keputusan kecerdasan buatan mempengaruhi dan mengubah kehidupan orang ramai pada skala yang semakin meningkat. Penggunaan mereka yang tidak bertanggungjawab boleh memburukkan lagi berat sebelah manusia yang sedia ada dan langkah diskriminasi, seperti pemprofilan kaum, ramalan tingkah laku atau pengenalan orientasi seksual. Kecondongan yang wujud ini berlaku kerana AI hanya sama baik dengan jumlah data latihan yang boleh kami sediakan, yang terdedah kepada berat sebelah manusia.
Bias juga boleh berlaku apabila algoritma pembelajaran mesin dilatih dan diuji pada data yang kurang mewakili kumpulan etnik tertentu, seperti wanita, orang kulit berwarna atau orang dalam demografi umur tertentu. Sebagai contoh, penyelidikan menunjukkan bahawa orang kulit berwarna sangat terdedah kepada kecenderungan algoritma dalam teknologi pengecaman muka.
Penyimpangan juga mungkin berlaku semasa penggunaan. Sebagai contoh, algoritma yang direka untuk aplikasi tertentu boleh digunakan untuk tujuan yang tidak diingini, yang membawa kepada salah tafsiran output.
Diskriminasi yang diterajui AI boleh menjadi abstrak, tidak intuitif, halus, tidak kelihatan dan sukar untuk dikesan. Kod sumber mungkin dihadkan atau juruaudit mungkin tidak tahu cara algoritma digunakan. Kerumitan memasuki algoritma untuk melihat cara ia ditulis dan cara ia bertindak balas tidak boleh dipandang remeh.
Undang-undang privasi semasa bergantung pada notis dan pilihan, oleh itu, notis yang terhasil yang memerlukan pengguna bersetuju dengan dasar privasi yang panjang jarang dibaca. Jika notis sedemikian digunakan untuk kecerdasan buatan, akan ada akibat yang serius terhadap keselamatan dan privasi pengguna dan masyarakat.
Walaupun perisian hasad AI sebenar mungkin belum wujud lagi, adalah tidak mustahil untuk menganggap bahawa perisian hasad AI akan memperkasakan penyerang. Kemungkinannya tidak berkesudahan – perisian hasad yang belajar daripada persekitaran untuk mengenal pasti dan mengeksploitasi kelemahan baharu, alat yang menguji keselamatan berasaskan AI atau perisian hasad yang boleh meracuni AI dengan maklumat yang salah.
Kandungan digital yang dimanipulasi oleh kecerdasan buatan sudah digunakan untuk mencipta salinan sintetik ultra-realistik individu dalam masa nyata (juga dikenali sebagai deepfakes). Akibatnya, penyerang akan menggunakan deepfakes untuk mencipta serangan kejuruteraan sosial yang sangat disasarkan, menyebabkan kerugian kewangan, memanipulasi pendapat umum atau memperoleh kelebihan daya saing.
“Diskriminasi yang diterajui oleh AI mungkin abstrak, tidak intuitif, halus, tidak kelihatan dan sukar untuk dikesan Kod sumber mungkin dihadkan atau juruaudit mungkin tidak tahu cara algoritma berfungsi ” — Steve Durbin, Ketua Pegawai Eksekutif, Forum Keselamatan Maklumat
Memandangkan keputusan AI memberi kesan dan kesan kepada orang ramai pada skala yang semakin meningkat perniagaan mempunyai tanggungjawab moral, sosial dan fidusiari untuk menguruskan penerimaan AI secara beretika. Mereka boleh melakukan ini dalam beberapa cara.
AI beretika mematuhi prinsip etika dan nilai asas yang jelas seperti hak individu, privasi, tanpa diskriminasi dan, yang penting, bukan manipulasi. Organisasi mesti mewujudkan prinsip yang jelas untuk mengenal pasti, mengukur, menilai dan mengurangkan risiko yang diterajui AI. Seterusnya, mereka mesti menterjemahkannya ke dalam metrik yang praktikal dan boleh diukur dan membenamkannya ke dalam proses harian.
Mempunyai alat yang tepat untuk menyiasat sumber berat sebelah dan memahami kesan keadilan dalam membuat keputusan adalah sangat penting untuk membangunkan AI yang beretika. Kenal pasti sistem yang menggunakan pembelajaran mesin, tentukan kepentingannya kepada perniagaan, dan laksanakan proses, kawalan dan tindakan balas terhadap berat sebelah yang disebabkan oleh AI.
Organisasi harus menubuhkan jawatankuasa etika rentas disiplin untuk menyelia pengurusan dan pemantauan berterusan risiko yang diperkenalkan oleh sistem kecerdasan buatan dalam organisasi dan rantaian bekalan. Jawatankuasa mesti terdiri daripada orang dari pelbagai latar belakang untuk memastikan kepekaan terhadap semua isu etika.
Reka bentuk algoritma mesti mengambil kira pendapat pakar, pengetahuan kontekstual dan kesedaran tentang kecenderungan sejarah. Proses kebenaran manual mesti dikuatkuasakan dalam bidang kritikal, seperti dalam urus niaga kewangan, untuk mengelakkannya daripada dikompromi oleh pelaku yang berniat jahat.
Memupuk budaya yang memperkasakan individu untuk menimbulkan kebimbangan tentang sistem AI tanpa menyekat inovasi. Bina kepercayaan dan keyakinan dalaman terhadap AI dengan mengendalikan peranan, jangkaan dan tanggungjawab secara telus. Menyedari keperluan untuk peranan baharu dan tingkatkan kemahiran, kemahiran semula atau pengambilan pekerja secara proaktif.
Memperkasakan pengguna dengan menyediakan kawalan yang lebih besar dan akses kepada rekursa jika mahu. Kepimpinan yang kukuh juga penting untuk memperkasakan pekerja dan mempromosikan AI yang bertanggungjawab sebagai keperluan perniagaan.
Pemeriksaan prosedur ialah kaedah tradisional untuk menilai keadilan manusia dengan menjalankan algoritma semasa proses membuat keputusan manusia, membandingkan keputusan dan menjelaskan sebab di sebalik mesin- memimpin keputusan untuk mendapat manfaat daripada kecerdasan buatan. Contoh lain ialah program penyelidikan MIT tentang Memerangi Perkauman Sistemik, yang berfungsi untuk membangun dan menggunakan alat pengiraan untuk mewujudkan kesaksamaan kaum dalam pelbagai sektor masyarakat.
Atas ialah kandungan terperinci Bagaimana penggunaan AI yang bertanggungjawab boleh mencipta ruang dalam talian yang lebih selamat. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!