Penyelidikan terkini menunjukkan bahawa model pembelajaran mendalam berasaskan AI mampu menentukan perlumbaan pesakit berdasarkan imej radiologi seperti X-ray dada dengan ketepatan yang lebih tinggi berbanding pakar antropologi. Sandeep Sharma, ketua saintis data di Capgemini Consulting, menegaskan bahawa apabila AI digunakan pada pengumpulan dan analisis data peribadi, terdapat risiko besar untuk menceroboh privasi peribadi. Pada masa yang sama, ancaman ini diburukkan lagi oleh kekurangan pemahaman yang mencukupi tentang privasi di kalangan organisasi yang menggunakan AI.
Secara umumnya, terdapat beberapa masalah penting dalam aplikasi AI semasa yang melibatkan maklumat peribadi dalam organisasi perusahaan: pertama, penggunaan data untuk tujuan selain daripada pengumpulan; Maklumat peribadi yang tidak termasuk dalam skop pengumpulan data ketiga, menyimpan data lebih lama daripada yang diperlukan. Ini mungkin melanggar peraturan mengenai privasi data, seperti Peraturan Perlindungan Data Umum (GDPR) Kesatuan Eropah.
Risiko yang ditimbulkan oleh sistem berasaskan AI melibatkan banyak aspek. Sebagai contoh, Tom Whittaker, sekutu kanan dalam pasukan teknologi di firma undang-undang British Burges Salmon, percaya bahawa potensi kecenderungan AI perlu diambil kira. Sistem AI bergantung pada data, dan apabila ia berkaitan dengan data peribadi, berat sebelah boleh dibuat secara tidak sengaja melalui cara data atau model itu dilatih.
Pada masa yang sama, sistem AI juga mungkin rosak, dan maklumat privasi peribadi juga mungkin bocor. Whittaker menyatakan bahawa sebahagian daripada sebabnya ialah sistem AI bergantung pada set data yang besar, yang boleh menjadikannya sasaran utama untuk serangan siber. Output data oleh sistem AI mungkin mendedahkan maklumat privasi peribadi secara langsung atau apabila digabungkan dengan maklumat lain.
Memandangkan sistem AI digunakan dalam peningkatan bilangan aplikasi, masyarakat juga terdedah kepada risiko yang lebih meluas. Skor kredit, analisis risiko jenayah dan adjudikasi imigresen adalah beberapa contoh. Jika AI atau cara ia digunakan adalah cacat, orang mungkin mengalami pelanggaran privasi yang lebih besar daripada yang mereka alami. ”
Walau bagaimanapun, beberapa pakar telah menegaskan bahawa AI boleh memberi kesan positif terhadap privasi. meningkatkan teknologi (PET), untuk membantu organisasi mematuhi perlindungan data mengikut kewajipan reka bentuk
Whittaker menjelaskan, “AI boleh digunakan untuk mencipta data sintetik yang mereplikasi corak dan sifat statistik data peribadi. AI juga boleh meminimumkan risiko pelanggaran privasi dengan menyulitkan data peribadi, mengurangkan ralat manusia dan mengesan kemungkinan insiden keselamatan siber. ”
Sesetengah kerajaan telah melihat sisi baik AI Contohnya, Ott Velsberg, ketua pegawai data Kementerian Hal Ehwal Ekonomi dan Komunikasi Estonia, berkata AI memainkan peranan penting dalam pelbagai industri dan kerajaan Estonia. matlamat adalah untuk Untuk mencapai aplikasi AI yang meluas pada tahun 2018, beliau memperkenalkan bahawa untuk memastikan pematuhan terhadap peraturan perlindungan data semasa menerapkannya, Estonia telah membangunkan perkhidmatan yang membolehkan orang ramai berkongsi data yang dipegang oleh kerajaan dengan pihak berkepentingan luar Estonia telah melancarkan a penjejak data untuk melihat pemprosesan data peribadi pada portal kerajaan
Pematuhan privasi adalah kunci untuk pelaksanaan AI
Whittaker menegaskan bahawa EU juga merancang untuk memperkenalkan lebih banyak peraturan untuk AI yang direka untuk melarang sistem AI tertentu data, dan mengenakan kewajipan pada mana-mana sistem berisiko tinggi tentang cara data disimpan dan digunakan >
Untuk tujuan ini, apabila cuba mengurus risiko AI, pemimpin perniagaan harus memahami dasar kawal selia AI semasa dan terancang. Kegagalan mematuhi peraturan ini boleh mengakibatkan Pelanggaran kewajipan berisiko tinggi di bawah EU bil AI yang dicadangkan boleh mengakibatkan denda sehingga 20 juta euro atau sehingga 4% daripada perolehan tahunan Pertama, bagi organisasi perusahaan yang menggunakan sistem AI, terdapat perubahan dalam cara data digunakan. Jika pengguna tidak tahu bahawa mereka dipengaruhi oleh keputusan AI, mereka tidak akan dapat memahami atau mempersoalkannya Kedua, memastikan hak pengguna untuk mengetahui tentang penggunaan data. Ketiga, organisasi harus memastikan bahawa algoritma AI digunakan dengan sewajarnya. Data itu sendiri dan data yang mereka harapkan direka bentuk, dibangunkan dan diuruskan dengan teliti untuk mengelakkan akibat negatif yang tidak perlu Ringkasnya, langkah keselamatan data yang baik amat diperlukan dalam aplikasi AI. Jangan kumpulkan data yang tidak diperlukan dan pastikan maklumat itu dipadamkan selepas tempoh masa tertentu Juga pastikan akses kepada data dihadkan dengan sewajarnya dan mempunyai amalan keselamatan yang baik Ringkasnya, AI pastinya merupakan teknologi yang akan digunakan secara meluas dalam aplikasi perniagaan, tetapi ia mesti diuruskan secara bertanggungjawab untuk mengelakkan pelanggaran privasi Untuk tujuan ini, pemimpin perniagaan perlu berfikir dengan lebih kritis tentang cara AI digunakan dan disalahgunakan, dan bagaimana AI boleh digunakan dan mengelakkan kesan negatif AIAtas ialah kandungan terperinci Bagaimanakah kecerdasan buatan mengubah permainan untuk privasi data?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!