Tidak sukar bagi penjenayah siber memanipulasi dari jauh dan memberi kesan negatif terhadap prestasi model pembelajaran mesin.
Pengguna berniat jahat boleh meracuni data latihan pembelajaran mesin, mengakses maklumat sensitif pengguna secara haram dalam set data latihan dan menyebabkan masalah lain yang serupa.
Penggunaan pembelajaran mesin dan kecerdasan buatan telah meningkat sejak sedekad yang lalu. Aplikasi yang melibatkan teknologi ini terdiri daripada pengecaman muka dan aplikasi ramalan cuaca kepada sistem pengesyoran yang canggih dan pembantu maya. Apabila kecerdasan buatan semakin disepadukan ke dalam kehidupan kita, isu keselamatan siber dalam sistem kecerdasan buatan juga timbul. Menurut Laporan Risiko Global 2022 Forum Ekonomi Dunia, kegagalan keselamatan siber adalah antara 10 risiko global teratas untuk diperhatikan sepanjang dekad akan datang.
Keselamatan siber dan kecerdasan buatan pasti akan bersilang pada satu ketika, tetapi ideanya adalah untuk memanfaatkan kuasa kecerdasan buatan untuk meningkatkan keselamatan siber. Walaupun ia wujud di tempatnya, kuasa keselamatan siber juga diperlukan untuk melindungi integriti model pembelajaran mesin. Ancaman kepada model ini datang dari sumber: data latihan model. Bahayanya ialah data latihan pembelajaran mesin boleh dimanipulasi oleh penggodam, dari jauh atau di tapak. Penjenayah siber memanipulasi set data latihan untuk mempengaruhi output algoritma dan merendahkan pertahanan sistem. Kaedah ini selalunya tidak dapat dikesan kerana penyerang berpura-pura menjadi pengguna algoritma.
Kitaran pembelajaran mesin melibatkan latihan berterusan menggunakan maklumat terkini dan cerapan pengguna. Pengguna berniat jahat boleh memanipulasi proses ini dengan menyediakan input khusus kepada model pembelajaran mesin. Menggunakan rekod yang dimanipulasi, mereka dapat menentukan maklumat sulit pengguna seperti nombor akaun bank, butiran keselamatan sosial, maklumat demografi dan data terperingkat lain yang digunakan sebagai data latihan untuk model pembelajaran mesin.
Beberapa kaedah biasa yang digunakan oleh penggodam untuk memanipulasi algoritma pembelajaran mesin ialah:
Keracunan data melibatkan menjejaskan data latihan yang digunakan untuk model pembelajaran mesin. Data latihan ini datang daripada pihak bebas seperti pembangun, individu dan pangkalan data sumber terbuka. Jika pihak yang berniat jahat terlibat dalam memberikan maklumat kepada set data latihan, mereka akan diberi data "toksik" yang dibina dengan teliti supaya algoritma tersalah klasifikasikannya.
Sebagai contoh, jika anda melatih algoritma untuk mengecam kuda, algoritma akan memproses beribu-ribu imej dalam set data latihan untuk mengenal pasti kuda. Untuk meningkatkan pembelajaran ini, anda juga memberi makan imej algoritma lembu hitam dan putih. Walau bagaimanapun, jika anda secara tidak sengaja menambah imej lembu coklat pada set data, model akan mengklasifikasikannya sebagai kuda. Model itu tidak akan memahami perbezaannya sehingga ia dilatih untuk membezakan antara lembu coklat dan kuda coklat.
Begitu juga, penyerang boleh memanipulasi data latihan untuk mengajar senario klasifikasi model yang memihak kepada mereka. Contohnya, mereka boleh melatih algoritma untuk melihat perisian hasad sebagai perisian jinak dan perisian keselamatan sebagai perisian berbahaya yang menggunakan data toksik.
Satu lagi cara data diracuni adalah melalui "pintu belakang" ke dalam model pembelajaran mesin. Pintu belakang ialah sejenis input yang mungkin tidak diketahui oleh pereka model, tetapi boleh digunakan oleh penyerang untuk memanipulasi algoritma. Sebaik sahaja penggodam menemui kelemahan dalam sistem AI, mereka boleh mengeksploitasinya untuk secara langsung mengajar model apa yang mereka mahu lakukan.
Andaikan penyerang mengakses pintu belakang untuk mengajar model bahawa apabila aksara tertentu terdapat dalam fail, ia harus diklasifikasikan sebagai jinak. Kini, penyerang boleh membuat mana-mana fail jinak dengan menambahkan aksara ini, dan apabila model menemui fail sedemikian, ia akan mengklasifikasikannya sebagai jinak seperti yang telah dilatih untuk melakukannya.
Keracunan data juga digabungkan dengan serangan lain yang dipanggil serangan inferens keahlian. Algoritma Membership Inference Attack (MIA) membenarkan penyerang menilai sama ada rekod tertentu adalah sebahagian daripada set data latihan. Digabungkan dengan keracunan data, serangan inferens keahlian boleh digunakan untuk membina semula sebahagian maklumat di dalam data latihan. Walaupun model pembelajaran mesin berfungsi dengan baik pada data umum, model tersebut berfungsi dengan baik pada data latihan. Serangan inferens keahlian dan serangan pembinaan semula mengeksploitasi keupayaan ini untuk memberikan input yang sepadan dengan data latihan dan menggunakan output model pembelajaran mesin untuk mencipta semula maklumat pengguna dalam data latihan.
Model dilatih semula secara berkala dengan data baharu, dan semasa tempoh latihan semula inilah data toksik boleh diperkenalkan ke dalam set data latihan. Memandangkan ia berlaku dari semasa ke semasa, adalah sukar untuk mengesan aktiviti tersebut. Pembangun model dan jurutera boleh menguatkuasakan penyekatan atau pengesanan input tersebut sebelum setiap kitaran latihan melalui ujian kesahan input, ujian regresi, pengehadan kadar dan teknik statistik lain. Mereka juga boleh mengehadkan bilangan input daripada pengguna tunggal, menyemak sama ada terdapat berbilang input daripada alamat IP atau akaun yang serupa, dan menguji model yang dilatih semula terhadap set data emas. Set data emas adalah titik rujukan yang terbukti dan boleh dipercayai untuk set data latihan berasaskan pembelajaran mesin.
Penggodam memerlukan maklumat tentang cara model pembelajaran mesin berfungsi untuk melakukan serangan pintu belakang. Oleh itu, adalah penting untuk melindungi maklumat ini dengan melaksanakan kawalan capaian yang kukuh dan mencegah kebocoran maklumat. Amalan keselamatan umum seperti mengehadkan kebenaran, versi data dan perubahan kod pengelogan akan mengukuhkan keselamatan model dan melindungi data latihan pembelajaran mesin daripada serangan keracunan.
Perusahaan harus mempertimbangkan untuk menguji sistem pembelajaran mesin dan kecerdasan buatan apabila menjalankan ujian penembusan biasa pada rangkaian mereka. Ujian penembusan mensimulasikan kemungkinan serangan untuk mengenal pasti kelemahan dalam sistem keselamatan. Pembangun model juga boleh menjalankan serangan simulasi pada algoritma mereka untuk melihat cara mereka boleh membina pertahanan terhadap serangan keracunan data. Apabila anda menguji model anda untuk kelemahan keracunan data, anda boleh mengetahui tentang kemungkinan titik data tambahan dan membina mekanisme untuk membuang titik data tersebut.
Walaupun jumlah data buruk yang kelihatan remeh boleh menyebabkan model pembelajaran mesin tidak berkesan. Penggodam telah menyesuaikan diri untuk mengeksploitasi kelemahan ini dan menjejaskan sistem data korporat. Memandangkan perniagaan semakin bergantung pada kecerdasan buatan, mereka mesti melindungi keselamatan dan privasi data latihan pembelajaran mesin atau berisiko kehilangan kepercayaan pelanggan.
Atas ialah kandungan terperinci Bagaimana untuk memastikan keselamatan data yang digunakan untuk melatih model pembelajaran mesin?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!