Bidang AI ialah isu serius yang boleh mendatangkan pelbagai akibat kepada individu.
Seiring kemajuan kecerdasan buatan, isu dan dilema etika yang mengelilingi penyelesaian sains data mula timbul. Oleh kerana manusia telah mengalihkan diri mereka daripada proses membuat keputusan, mereka ingin memastikan bahawa pertimbangan yang dibuat oleh algoritma ini tidak berat sebelah atau diskriminasi. Kepintaran buatan mesti diawasi pada setiap masa. Kami tidak boleh mengatakan bahawa kecenderungan ini mungkin disebabkan oleh kecerdasan buatan, kerana ia adalah sistem digital berdasarkan analitik ramalan yang boleh memproses sejumlah besar data. Masalahnya bermula lebih awal, dengan data yang tidak diselia "disuapkan" ke dalam sistem.
Sepanjang sejarah, manusia sentiasa mempunyai prasangka dan diskriminasi. Tindakan kami nampaknya tidak akan berubah dalam masa terdekat. Bias ditemui dalam sistem dan algoritma yang, tidak seperti manusia, kelihatan kebal terhadap masalah tersebut.
Pincangan AI berlaku dalam medan berkaitan data apabila cara data diperoleh menghasilkan sampel yang tidak mewakili kumpulan minat dengan betul. Ini menunjukkan bahawa orang daripada kaum, kepercayaan, warna dan jantina tertentu kurang diwakili dalam sampel data. Ini boleh menyebabkan sistem membuat kesimpulan yang mendiskriminasi. Ia juga menimbulkan persoalan tentang perundingan sains data dan mengapa ia penting.
Bias dalam AI tidak bermakna sistem AI dicipta untuk memihak kepada kumpulan orang tertentu secara sengaja. Matlamat kecerdasan buatan adalah untuk membolehkan individu menyatakan keinginan mereka melalui contoh dan bukannya arahan. Jadi, jika AI berat sebelah, ia hanya boleh jadi kerana data itu berat sebelah Pembuatan keputusan kecerdasan buatan ialah proses ideal yang beroperasi di dunia nyata, dan ia tidak boleh menyembunyikan kelemahan manusia. Menggabungkan pembelajaran terbimbing juga bermanfaat.
Masalah bias AI timbul kerana data mungkin mengandungi pilihan manusia berdasarkan prasangka, yang sesuai untuk membuat kesimpulan algoritma yang baik. Terdapat beberapa contoh kehidupan sebenar bias AI. Orang kaum dan ratu seret terkenal telah didiskriminasi oleh sistem pengesanan pertuturan benci Google. Selama 10 tahun, algoritma sumber manusia Amazon telah memberi data terutamanya pada pekerja lelaki, menyebabkan calon wanita lebih cenderung dinilai sebagai layak untuk pekerjaan di Amazon.
Algoritma pengecaman muka mempunyai kadar ralat yang lebih tinggi apabila menganalisis wajah minoriti, terutamanya wanita minoriti, menurut saintis data di Massachusetts Institute of Technology (MIT). Ini mungkin kerana algoritma itu diberikan terutamanya kepada muka lelaki putih semasa latihan.
Oleh kerana algoritma Amazon dilatih mengenai data daripada 112 juta pengguna Perdananya di A.S., serta berpuluh juta individu tambahan yang kerap mengunjungi tapak tersebut dan kerap menggunakan itemnya yang lain, syarikat itu boleh meramalkan gelagat pembelian Pengguna . Perniagaan pengiklanan Google adalah berdasarkan algoritma ramalan yang disuap oleh data daripada berbilion-bilion carian internet yang dijalankannya setiap hari dan 2.5 bilion telefon pintar Android di pasaran. Gergasi Internet ini telah mewujudkan monopoli data yang besar dan mempunyai kelebihan yang hampir tidak dapat diatasi dalam bidang kecerdasan buatan.
Dalam masyarakat yang ideal, tiada siapa yang berat sebelah dan semua orang akan mempunyai peluang yang sama, tanpa mengira warna kulit, jantina, agama atau orientasi Seksual. Walau bagaimanapun, ia wujud dalam dunia nyata, dan mereka yang berbeza daripada majoriti di kawasan tertentu mempunyai masa yang lebih sukar untuk mencari pekerjaan dan memperoleh pendidikan, menjadikan mereka kurang diwakili dalam banyak statistik. Bergantung pada matlamat sistem AI, ini boleh membawa kepada kesimpulan yang salah bahawa orang sedemikian kurang mahir, kurang berkemungkinan untuk dimasukkan ke dalam set data ini, dan kurang sesuai untuk mencapai skor yang baik.
Data AI, sebaliknya, boleh menjadi langkah besar ke arah AI yang tidak berat sebelah. Berikut ialah beberapa konsep untuk dipertimbangkan:
Lihat data dunia sebenar dan lihat di mana berat sebelah. Data kemudiannya disintesis menggunakan data dunia sebenar dan bias yang boleh diperhatikan. Jika anda ingin mencipta penjana data maya yang ideal, anda perlu memasukkan definisi keadilan yang cuba mengubah data berat sebelah kepada data yang mungkin dianggap adil.
Data yang dijana AI mungkin mengisi jurang dalam set data yang tidak banyak berbeza atau tidak cukup besar untuk membentuk set data yang tidak berat sebelah. Walaupun dengan saiz sampel yang besar, ada kemungkinan bahawa sesetengah orang dikecualikan atau kurang diwakili berbanding yang lain. Masalah ini mesti diselesaikan menggunakan data sintetik.
Perlombongan data boleh menjadi lebih mahal daripada menjana data tidak berat sebelah. Pengumpulan data sebenar memerlukan pengukuran, temu bual, sampel yang besar, dan dalam apa jua keadaan, banyak usaha. Data yang dijana oleh AI adalah murah dan hanya memerlukan penggunaan sains data dan algoritma pembelajaran mesin.
Sejak beberapa tahun kebelakangan ini, para eksekutif di banyak syarikat data sintetik untung, serta pengasas Synthea MitreCorp., telah melihat lonjakan minat dalam perkhidmatan mereka. Walau bagaimanapun, memandangkan algoritma digunakan dengan lebih meluas untuk membuat keputusan yang mengubah hidup, ia didapati memburukkan lagi perkauman, seksisme dan berat sebelah berbahaya di kawasan lain yang berimpak tinggi, termasuk pengecaman muka, ramalan jenayah dan membuat keputusan penjagaan kesihatan. Penyelidik berkata algoritma latihan pada data yang dihasilkan secara algoritma meningkatkan kemungkinan bahawa sistem AI akan mengekalkan berat sebelah berbahaya dalam banyak situasi.
Atas ialah kandungan terperinci Bagaimana untuk mengelakkan isu bias AI dengan penjana data sintetik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!