Rumah > Peranti teknologi > AI > teks badan

Pendapat pakar: AI tanpa pengawasan akan menghasilkan bias etika

WBOY
Lepaskan: 2023-04-09 14:21:12
ke hadapan
939 orang telah melayarinya

Ketelusan sering memainkan peranan penting dalam dilema perniagaan beretika – lebih banyak maklumat yang kami ada, lebih mudah untuk menentukan hasil yang boleh diterima dan tidak boleh diterima. Jika kewangan tidak sejajar, siapa yang membuat kesilapan perakaunan? Jika data dilanggar, siapa yang bertanggungjawab untuk melindunginya, dan adakah mereka bertindak dengan betul?

Pendapat pakar: AI tanpa pengawasan akan menghasilkan bias etika

Tetapi apa yang berlaku apabila kita mencari sumber pepijat atau masalah yang jelas dan tidak menemui sesiapa? Di sinilah kecerdasan buatan menimbulkan pertimbangan etika yang unik.

Kecerdasan buatan menunjukkan potensi besar dalam organisasi, tetapi ia masih merupakan penyelesaian untuk mencari masalah. Ini adalah konsep yang salah faham dan aplikasi praktikal masih belum direalisasikan sepenuhnya dalam perusahaan. Ditambah dengan fakta bahawa banyak syarikat kekurangan belanjawan, bakat dan visi untuk menggunakan AI dalam cara yang benar-benar transformasi, AI masih jauh daripada mencapai jisim kritikal dan terdedah kepada penyalahgunaan.

Tetapi hanya kerana AI mungkin tidak begitu ketara dalam perniagaan sehari-hari, tidak bermakna AI tidak mempunyai peranan untuk dimainkan dalam organisasi anda. Seperti banyak dilema etika lain dalam perniagaan, kesilapan etika dalam kecerdasan buatan sering berlaku dalam bayang-bayang. Sama ada disengajakan atau tidak, akibat daripada projek atau aplikasi AI yang menolak sempadan etika boleh menjadi mimpi ngeri. Kunci untuk mengelakkan kesilapan etika dalam AI adalah dengan menyediakan tadbir urus korporat pada projek dari awal.

Membina AI dengan ketelusan dan kepercayaan

Sekarang kita semua sudah biasa dengan contoh popular AI yang salah. Dispenser sabun yang tidak berfungsi dengan betul untuk pelanggan berkulit gelap, oksimeter nadi yang lebih tepat untuk orang kulit putih, dan juga algoritma yang meramalkan sama ada penjenayah akan kembali ke penjara semuanya adalah kecerdasan buatan (boleh dikatakan tidak disengajakan).

Situasi ini bukan sahaja akan menghasilkan tajuk berita buruk dan tindak balas media sosial, tetapi ia juga akan menjejaskan lebih banyak kes penggunaan AI yang sah yang tidak akan dapat dilakukan jika teknologi itu terus dilihat dengan rasa tidak percaya . Sebagai contoh, dalam penjagaan kesihatan sahaja, AI mempunyai potensi untuk meningkatkan diagnosis kanser dan menandakan pesakit berisiko tinggi menerima kemasukan semula untuk sokongan tambahan. Melainkan kita belajar membina kepercayaan orang ramai terhadap AI, kita tidak akan melihat manfaat penuh daripada penyelesaian yang berkuasa ini.

Apabila saya bercakap tentang AI dengan rakan sebaya dan pemimpin perniagaan saya, saya telah menyokong idea ketelusan dan tadbir urus dalam usaha AI dari awal. Secara lebih khusus, berikut ialah cadangan saya:

1. AI beretika tidak boleh berlaku dalam ruang hampa

Jika tidak dilaksanakan dengan betul, aplikasi AI boleh mempunyai kesan riak yang ketara. Ini sering berlaku apabila satu jabatan atau pasukan IT mula bereksperimen dengan proses dipacu AI tanpa pengawasan. Adakah pasukan sedar tentang implikasi etika yang mungkin berlaku jika percubaan mereka menjadi salah? Adakah penempatan mematuhi dasar pengekalan data dan akses sedia ada syarikat? Tanpa pengawasan, sukar untuk menjawab soalan-soalan ini.

Dan, tanpa tadbir urus, mungkin lebih sukar untuk mengumpulkan pihak berkepentingan yang diperlukan untuk membetulkan kesilapan etika jika ia berlaku. Pengawasan tidak seharusnya dilihat sebagai penghalang kepada inovasi, tetapi sebagai pemeriksaan yang diperlukan untuk memastikan AI beroperasi dalam sempadan etika tertentu. Pengawasan akhirnya harus diserahkan kepada Ketua Pegawai Data dalam organisasi yang memilikinya, atau Ketua Pegawai Maklumat jika peranan CDO tidak wujud.

2 Sentiasa ada rancangan

Tajuk berita terburuk yang kita lihat tentang projek AI yang gagal biasanya mempunyai satu persamaan, iaitu syarikat di dalamnya tidak bersedia untuk menjawab soalan apabila mereka timbul persoalan atau terangkan sesuatu keputusan. Penyeliaan boleh menyelesaikan masalah ini. Apabila pemahaman tentang AI dan falsafah yang sihat wujud di peringkat tertinggi organisasi, ia kurang berkemungkinan dibutakan oleh masalah.

3. Ketekunan dan ujian wajar adalah wajib

Dengan lebih banyak kesabaran dan lebih banyak ujian, banyak contoh klasik bias AI boleh dikurangkan. Seperti contoh dispenser pembersih tangan, keterujaan syarikat untuk memperagakan teknologi baharunya akhirnya menjadi bumerang. Ujian lanjut mungkin mendedahkan kecenderungan ini sebelum produk dikeluarkan secara terbuka. Selain itu, sebarang aplikasi AI perlu disemak dengan teliti dari awal lagi. Oleh kerana kerumitan dan potensi AI yang tidak menentu, ia mesti digunakan secara strategik dan berhati-hati.

4. Pertimbangkan fungsi pengawasan kecerdasan buatan

Untuk melindungi privasi pelanggan, institusi kewangan melaburkan sumber yang besar dalam mengurus akses kepada fail sensitif. Pasukan rekod mereka dengan teliti mengkategorikan aset dan membina infrastruktur untuk memastikan hanya peranan dan jabatan kerja yang betul boleh melihat setiap satu. Struktur ini boleh berfungsi sebagai templat untuk membina fungsi tadbir urus AI organisasi. Pasukan yang berdedikasi boleh menganggarkan potensi kesan positif atau negatif aplikasi AI dan menentukan kekerapan keputusannya perlu disemak dan oleh siapa.

Untuk perniagaan yang mencari gangguan digital, bereksperimen dengan kecerdasan buatan ialah langkah seterusnya yang penting. Ia membebaskan pekerja manusia daripada tugas biasa dan membolehkan aktiviti tertentu, seperti analisis imej, berskala dengan cara yang tidak berhemat dari segi kewangan sebelum ini. Tetapi ini bukanlah sesuatu yang boleh dipandang ringan. Aplikasi AI mesti dibangunkan dengan teliti dan dengan penyeliaan yang sesuai untuk mengelakkan berat sebelah, keputusan yang boleh dipersoalkan dari segi etika dan hasil perniagaan yang buruk. Pastikan anda mempunyai latihan yang betul untuk usaha AI dalam organisasi anda. Keruntuhan moral yang paling serius sering berlaku di tempat gelap.

Atas ialah kandungan terperinci Pendapat pakar: AI tanpa pengawasan akan menghasilkan bias etika. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan