Rumah > Peranti teknologi > AI > Bagaimana penggunaan AI yang bertanggungjawab boleh mencipta ruang dalam talian yang lebih selamat

Bagaimana penggunaan AI yang bertanggungjawab boleh mencipta ruang dalam talian yang lebih selamat

WBOY
Lepaskan: 2023-04-08 14:21:03
ke hadapan
1544 orang telah melayarinya

Bagaimana penggunaan AI yang bertanggungjawab boleh mencipta ruang dalam talian yang lebih selamat

  • Algoritma kecerdasan buatan mempunyai kesan yang besar terhadap kehidupan manusia dan masyarakat yang lebih luas.
  • Dilema etika yang mengelilingi kecerdasan buatan termasuk jurang digital dan penggunaan senjatanya.
  • Autonomi harus seimbang dengan pengawasan manusia, manakala penggunaan AI yang bertanggungjawab harus digalakkan supaya ia boleh dimanfaatkan untuk menangani diskriminasi.

Dikuasakan oleh kemajuan dalam komputer, sains data dan ketersediaan set data yang besar, kecerdasan buatan (AI) telah menjadi realiti harian dan alat perniagaan yang berkuasa. Syarikat teknologi besar seperti Google, Amazon, dan Meta kini membangunkan sistem berasaskan AI. Teknologi ini boleh meniru pertuturan manusia, mengesan penyakit, meramal aktiviti jenayah, mendraf kontrak undang-undang, menyelesaikan isu kebolehcapaian dan menyelesaikan tugas dengan lebih baik daripada manusia. Untuk perniagaan, AI memegang janji untuk meramalkan hasil perniagaan, menambah baik proses dan meningkatkan kecekapan dengan penjimatan kos yang ketara.

Tetapi kebimbangan tentang kecerdasan buatan masih berkembang.

Algoritma AI telah menjadi begitu berkuasa sehingga sesetengah pakar melabelkan AI sebagai makhluk yang mana-mana rasuah, gangguan, berat sebelah atau diskriminasi boleh memberi kesan yang besar kepada organisasi, kehidupan manusia dan masyarakat.

Pengenalan Digital

Pembuatan keputusan kecerdasan buatan mempengaruhi dan mengubah kehidupan orang ramai pada skala yang semakin meningkat. Penggunaan mereka yang tidak bertanggungjawab boleh memburukkan lagi berat sebelah manusia yang sedia ada dan langkah diskriminasi, seperti pemprofilan kaum, ramalan tingkah laku atau pengenalan orientasi seksual. Kecondongan yang wujud ini berlaku kerana AI hanya sama baik dengan jumlah data latihan yang boleh kami sediakan, yang terdedah kepada berat sebelah manusia.

Bias juga boleh berlaku apabila algoritma pembelajaran mesin dilatih dan diuji pada data yang kurang mewakili kumpulan etnik tertentu, seperti wanita, orang kulit berwarna atau orang dalam demografi umur tertentu. Sebagai contoh, penyelidikan menunjukkan bahawa orang kulit berwarna sangat terdedah kepada kecenderungan algoritma dalam teknologi pengecaman muka.

Penyimpangan juga mungkin berlaku semasa penggunaan. Sebagai contoh, algoritma yang direka untuk aplikasi tertentu boleh digunakan untuk tujuan yang tidak diingini, yang membawa kepada salah tafsiran output.

Mengesahkan Prestasi AI

Diskriminasi yang diterajui AI boleh menjadi abstrak, tidak intuitif, halus, tidak kelihatan dan sukar untuk dikesan. Kod sumber mungkin dihadkan atau juruaudit mungkin tidak tahu cara algoritma digunakan. Kerumitan memasuki algoritma untuk melihat cara ia ditulis dan cara ia bertindak balas tidak boleh dipandang remeh.

Undang-undang privasi semasa bergantung pada notis dan pilihan, oleh itu, notis yang terhasil yang memerlukan pengguna bersetuju dengan dasar privasi yang panjang jarang dibaca. Jika notis sedemikian digunakan untuk kecerdasan buatan, akan ada akibat yang serius terhadap keselamatan dan privasi pengguna dan masyarakat.

Kecerdasan Buatan sebagai Senjata

Walaupun perisian hasad AI sebenar mungkin belum wujud lagi, adalah tidak mustahil untuk menganggap bahawa perisian hasad AI akan memperkasakan penyerang. Kemungkinannya tidak berkesudahan – perisian hasad yang belajar daripada persekitaran untuk mengenal pasti dan mengeksploitasi kelemahan baharu, alat yang menguji keselamatan berasaskan AI atau perisian hasad yang boleh meracuni AI dengan maklumat yang salah.

Kandungan digital yang dimanipulasi oleh kecerdasan buatan sudah digunakan untuk mencipta salinan sintetik ultra-realistik individu dalam masa nyata (juga dikenali sebagai deepfakes). Akibatnya, penyerang akan menggunakan deepfakes untuk mencipta serangan kejuruteraan sosial yang sangat disasarkan, menyebabkan kerugian kewangan, memanipulasi pendapat umum atau memperoleh kelebihan daya saing.

“Diskriminasi yang diterajui oleh AI mungkin abstrak, tidak intuitif, halus, tidak kelihatan dan sukar untuk dikesan Kod sumber mungkin dihadkan atau juruaudit mungkin tidak tahu cara algoritma berfungsi ” — Steve Durbin, Ketua Pegawai Eksekutif, Forum Keselamatan Maklumat

Mengurangkan risiko yang berkaitan dengan AI

Memandangkan keputusan AI memberi kesan dan kesan kepada orang ramai pada skala yang semakin meningkat perniagaan mempunyai tanggungjawab moral, sosial dan fidusiari untuk menguruskan penerimaan AI secara beretika. Mereka boleh melakukan ini dalam beberapa cara.

1. Terjemahkan etika ke dalam metrik

AI beretika mematuhi prinsip etika dan nilai asas yang jelas seperti hak individu, privasi, tanpa diskriminasi dan, yang penting, bukan manipulasi. Organisasi mesti mewujudkan prinsip yang jelas untuk mengenal pasti, mengukur, menilai dan mengurangkan risiko yang diterajui AI. Seterusnya, mereka mesti menterjemahkannya ke dalam metrik yang praktikal dan boleh diukur dan membenamkannya ke dalam proses harian.

2. Fahami sumber berat sebelah

Mempunyai alat yang tepat untuk menyiasat sumber berat sebelah dan memahami kesan keadilan dalam membuat keputusan adalah sangat penting untuk membangunkan AI yang beretika. Kenal pasti sistem yang menggunakan pembelajaran mesin, tentukan kepentingannya kepada perniagaan, dan laksanakan proses, kawalan dan tindakan balas terhadap berat sebelah yang disebabkan oleh AI.

3. Seimbangkan autonomi dengan pengawasan manusia

Organisasi harus menubuhkan jawatankuasa etika rentas disiplin untuk menyelia pengurusan dan pemantauan berterusan risiko yang diperkenalkan oleh sistem kecerdasan buatan dalam organisasi dan rantaian bekalan. Jawatankuasa mesti terdiri daripada orang dari pelbagai latar belakang untuk memastikan kepekaan terhadap semua isu etika.

Reka bentuk algoritma mesti mengambil kira pendapat pakar, pengetahuan kontekstual dan kesedaran tentang kecenderungan sejarah. Proses kebenaran manual mesti dikuatkuasakan dalam bidang kritikal, seperti dalam urus niaga kewangan, untuk mengelakkannya daripada dikompromi oleh pelaku yang berniat jahat.

4. Memperkasakan pekerja dan mempromosikan AI yang bertanggungjawab

Memupuk budaya yang memperkasakan individu untuk menimbulkan kebimbangan tentang sistem AI tanpa menyekat inovasi. Bina kepercayaan dan keyakinan dalaman terhadap AI dengan mengendalikan peranan, jangkaan dan tanggungjawab secara telus. Menyedari keperluan untuk peranan baharu dan tingkatkan kemahiran, kemahiran semula atau pengambilan pekerja secara proaktif.

Memperkasakan pengguna dengan menyediakan kawalan yang lebih besar dan akses kepada rekursa jika mahu. Kepimpinan yang kukuh juga penting untuk memperkasakan pekerja dan mempromosikan AI yang bertanggungjawab sebagai keperluan perniagaan.

5 Gunakan kecerdasan buatan untuk menyelesaikan masalah diskriminasi

Pemeriksaan prosedur ialah kaedah tradisional untuk menilai keadilan manusia dengan menjalankan algoritma semasa proses membuat keputusan manusia, membandingkan keputusan dan menjelaskan sebab di sebalik mesin- memimpin keputusan untuk mendapat manfaat daripada kecerdasan buatan. Contoh lain ialah program penyelidikan MIT tentang Memerangi Perkauman Sistemik, yang berfungsi untuk membangun dan menggunakan alat pengiraan untuk mewujudkan kesaksamaan kaum dalam pelbagai sektor masyarakat.

Atas ialah kandungan terperinci Bagaimana penggunaan AI yang bertanggungjawab boleh mencipta ruang dalam talian yang lebih selamat. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
AI ai
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan