Rumah > Peranti teknologi > AI > Penggodam menggunakan teknologi AI mengubah wajah untuk memohon pekerjaan Isu keselamatan kecerdasan buatan tidak boleh diabaikan

Penggodam menggunakan teknologi AI mengubah wajah untuk memohon pekerjaan Isu keselamatan kecerdasan buatan tidak boleh diabaikan

PHPz
Lepaskan: 2023-04-08 14:51:14
ke hadapan
1263 orang telah melayarinya

Selepas wabak di Amerika Syarikat, banyak syarikat telah menggunakan model "Work From Home" (WFH). Pusat Aduan Jenayah FBI menyatakan bahawa mereka baru-baru ini menerima aduan daripada banyak majikan korporat bahawa semasa proses pengambilan, pemohon pekerjaan telah mencuri identiti orang lain dan menggunakan teknologi Deepfake untuk mengambil bahagian dalam temu duga jauh.

Penggodam menggunakan teknologi AI mengubah wajah untuk memohon pekerjaan Isu keselamatan kecerdasan buatan tidak boleh diabaikan

Jawatan ini melibatkan teknologi maklumat, program komputer, pangkalan data dan bidang berkaitan perisian Sesetengah pencari kerja cuba menggunakan latar belakang dan kepakaran orang lain untuk mendapatkan pekerjaan, dan menggunakan teknologi Deepfake untuk memalsukan video.

Mereka mendapati ketika melakukan temu duga secara dalam talian dengan pencari kerja, pergerakan pencari kerja atau membuka dan menutup bibirnya tidak konsisten dengan suaranya yang bercakap Contohnya, apabila terdengar bunyi bersin atau batuk skrin tidak segerak.

Apabila mereka menjalankan pemeriksaan latar belakang ke atas pencari kerja ini, mereka mendapati bahawa sesetengah pencari kerja sebenarnya menggunakan identiti orang lain untuk mencari pekerjaan. Jika anda hanya mencari pekerjaan, ia masih menjadi masalah kecil, tetapi jika ia adalah seorang penggodam, apabila mereka berjaya menandatangani kontrak, mereka akan berjaya memasuki syarikat dan mendapat akses kepada data sulit.

黑客用AI换脸技术应聘 人工智能安全问题不容忽视

Adakah anda juga ingin tahu, adakah perisian ini begitu mudah untuk digunakan?

Jawapannya, memang sangat advance.

Deepfake menggunakan keupayaan penjanaan imej yang berkuasa daripada Generative Adversarial Network (GAN), yang boleh menggabungkan dan menindih mana-mana imej dan video sedia ada pada imej dan video sumber Ia boleh merakam butiran wajah seseorang. Selepas bertahun-tahun pembangunan, teknologi Deepfake kini boleh melakukan penukaran muka dalam masa nyata tanpa sebarang rasa pelanggaran.

Walau bagaimanapun, apabila ia berkaitan dengan video, Deepfakes sukar untuk menghidupkan ekspresi muka dengan keyakinan tinggi Orang dalam video itu sama ada tidak pernah berkelip, atau berkelip terlalu kerap atau luar biasa. Selain itu, imej audio dan tiruan tidak akan sepadan secara semula jadi.

Oleh itu, jika video seperti ini berdurasi selama 10 saat, ia akan membuatkan orang ramai curiga Keseluruhan temuduga akan mengambil masa yang lebih lama, dan lebih mudah untuk mendedahkan kelemahan.

Kemajuan dan perubahan dalam sains dan teknologi adalah pedang bermata dua.

Walaupun teknologi kecerdasan buatan telah memberikan kami kemudahan yang besar, teknologi ini juga mungkin membawa beberapa siri isu seperti keselamatan, etika dan privasi.

Intipati pembangunan kecerdasan buatan adalah menggunakan algoritma, kuasa pengkomputeran dan data untuk menyelesaikan masalah deterministik dalam maklumat lengkap dan persekitaran berstruktur. Dalam era sokongan data ini, kecerdasan buatan menghadapi banyak risiko keselamatan

Pertama sekali, ia mungkin menghadapi serangan keracunan.

Iaitu, penggodam menyuntik data berniat jahat untuk mengurangkan kebolehpercayaan dan ketepatan sistem AI, sekali gus membawa kepada ralat membuat keputusan kecerdasan buatan. Menambah data palsu, sampel berniat jahat, dsb. pada data latihan akan memusnahkan integriti data, yang akan membawa kepada penyelewengan dalam membuat keputusan model algoritma terlatih.

Sekiranya operasi seperti ini digunakan dalam bidang pemanduan autonomi, ia berkemungkinan menyebabkan kenderaan melanggar peraturan jalan raya malah boleh menyebabkan kemalangan jalan raya.

Kedua, akan timbul masalah kebocoran data.

Serangan songsang boleh menyebabkan kebocoran data dalam model algoritma Pada masa kini, pelbagai peranti pintar seperti gelang pintar, sistem pengenalan biometrik pembesar suara pintar dan sistem perubatan pintar digunakan secara meluas dan maklumat peribadi dikumpulkan dalam semua arah. . Termasuk muka, cap jari, cap suara, iris, degupan jantung, gen, dsb., maklumat ini unik dan tidak boleh diubah, dan apabila bocor atau disalahgunakan, ia akan membawa akibat yang serius.

Sebagai contoh, telah didedahkan bahawa sebilangan besar foto wajah yang dikumpul oleh sebilangan besar kedai domestik tanpa kebenaran pengguna telah dibocorkan pada produk hitam menjadi risiko penipuan atau keselamatan kewangan.

Sekali lagi, anda akan menghadapi risiko rangkaian.

Kecerdasan buatan sudah pasti akan memperkenalkan sambungan rangkaian Teknologi kecerdasan buatan itu sendiri juga boleh meningkatkan tahap kecerdasan serangan rangkaian, dan kemudian menjalankan serangan pencurian data dan pemerasan data secara automatik atau menjana sejumlah besar perisikan ancaman palsu, yang akan menjejaskan sistem analisis.

Kaedah serangan utama termasuk: serangan pintasan, serangan inferens, serangan pintu belakang, serangan pengekstrakan model, serangan inferens atribusi, serangan Trojan, serangan pembalikan model, serangan anti-tera air dan serangan pengaturcaraan semula.

Kita mesti sedar dengan jelas bahawa keselamatan data dalam era kecerdasan buatan juga menghadapi banyak cabaran baharu. Melindungi keselamatan data dan keselamatan algoritma telah menjadi keutamaan utama bagi perusahaan.

Atas ialah kandungan terperinci Penggodam menggunakan teknologi AI mengubah wajah untuk memohon pekerjaan Isu keselamatan kecerdasan buatan tidak boleh diabaikan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan