Rumah > Peranti teknologi > AI > teks badan

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

WBOY
Lepaskan: 2023-04-08 23:11:07
ke hadapan
1285 orang telah melayarinya

01 Prakata

Kertas kerja ini adalah tentang kerja pembelajaran peneguhan mendalam untuk menentang serangan. Dalam makalah ini, penulis mengkaji keteguhan strategi pembelajaran peneguhan mendalam kepada serangan musuh dari perspektif pengoptimuman yang mantap. Di bawah rangka kerja pengoptimuman yang teguh, serangan musuh yang optimum diberikan dengan meminimumkan pulangan jangkaan strategi, dan sewajarnya, mekanisme pertahanan yang baik dicapai dengan meningkatkan prestasi strategi dalam menghadapi senario kes terburuk.

Memandangkan penyerang biasanya tidak dapat menyerang dalam persekitaran latihan, penulis mencadangkan algoritma serangan tamak yang cuba meminimumkan pulangan strategi yang dijangkakan tanpa berinteraksi dengan persekitaran di samping itu, penulis juga mencadangkan a Algoritma pertahanan yang menggunakan permainan max-min untuk menjalankan latihan menentang algoritma pembelajaran pengukuhan mendalam.

Hasil percubaan dalam persekitaran permainan Atari menunjukkan bahawa algoritma serangan lawan yang dicadangkan oleh pengarang adalah lebih berkesan daripada algoritma serangan sedia ada, dan kadar pulangan strategi adalah lebih teruk. Strategi yang dijana oleh algoritma pertahanan lawan yang dicadangkan dalam kertas kerja adalah lebih teguh kepada pelbagai serangan lawan daripada kaedah pertahanan sedia ada.

02 Pengetahuan awal

2.1 Serangan lawan

Memandangkan sebarang sampel (x, y) dan rangkaian saraf f, matlamat pengoptimuman untuk menghasilkan sampel lawan ialah:

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

di manakah parameter rangkaian saraf f, L ialah fungsi kehilangan, ialah set gangguan musuh, Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam ialah bola terkekang norma dengan x sebagai pusat dan jejari sebagai jejari. Formula pengiraan untuk menjana sampel lawan melalui serangan PGD adalah seperti berikut:

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

di mana Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam mewakili operasi unjuran jika input berada di luar sfera norma, input akan diunjurkan Pada sfera dengan pusat x dan sebagai jejari, mewakili saiz gangguan satu langkah serangan PGD.

2.2 Pembelajaran Pengukuhan dan Kecerunan Dasar

Masalah pembelajaran pengukuhan boleh digambarkan sebagai proses keputusan Markov. Proses keputusan Markov boleh ditakrifkan sebagai lima kali ganda Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, di mana S mewakili ruang keadaan, A mewakili ruang tindakan, Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam mewakili kebarangkalian peralihan keadaan, dan r mewakili Fungsi ganjaran mewakili faktor diskaun. Matlamat pembelajaran pembelajaran yang kukuh adalah untuk mempelajari taburan dasar parameter Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam untuk memaksimumkan fungsi nilai

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

di mana mewakili keadaan awal. Pembelajaran kukuh melibatkan penilaian fungsi nilai tindakan

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Formula di atas menerangkan jangkaan matematik untuk mematuhi dasar selepas negara dilaksanakan. Ia boleh dilihat daripada definisi bahawa fungsi nilai dan fungsi nilai tindakan memenuhi perhubungan berikut:

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Untuk kemudahan ekspresi, penulis memberi tumpuan terutamanya pada proses Markov ruang tindakan diskret, tetapi semua algoritma dan keputusan boleh digunakan terus pada tetapan berturut-turut.

Kaedah Kertas 03

Serangan lawan dan pertahanan strategi pembelajaran pengukuhan mendalam adalah berdasarkan rangka kerja PGD pengoptimuman teguh

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

di mana mewakili Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, mewakili set urutan gangguan musuh Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, dan untuk semua Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam , memuaskan Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam Formula di atas menyediakan rangka kerja bersatu untuk pembelajaran peneguhan mendalam untuk memerangi serangan dan pertahanan.

Di satu pihak, pengoptimuman pengecilan dalaman berusaha untuk mencari urutan gangguan musuh yang menjadikan strategi semasa membuat keputusan yang salah. Sebaliknya, tujuan pemaksiman luaran adalah untuk mencari parameter pengedaran strategi untuk memaksimumkan pulangan yang dijangkakan di bawah strategi gangguan. Selepas serangan lawan dan permainan pertahanan di atas, parameter strategi semasa proses latihan akan lebih tahan terhadap serangan lawan.

Tujuan meminimumkan dalaman fungsi objektif adalah untuk menjana gangguan musuh, tetapi untuk algoritma pembelajaran pengukuhan untuk mempelajari gangguan musuh yang optimum adalah sangat memakan masa dan intensif buruh, dan kerana persekitaran latihan adalah Ia adalah kotak hitam, jadi dalam kertas ini, penulis mempertimbangkan tetapan praktikal, iaitu, penyerang menyuntik gangguan di negeri yang berbeza. Dalam senario serangan pembelajaran yang diselia, penyerang hanya perlu menipu model pengelas untuk menjadikannya salah klasifikasi dan menghasilkan label yang salah dalam senario serangan pembelajaran pengukuhan, fungsi nilai tindakan menyediakan penyerang dengan maklumat tambahan, iaitu nilai tingkah laku yang kecil; akan Menghasilkan pulangan jangkaan yang kecil. Sejajar dengan itu, pengarang mentakrifkan gangguan musuh yang optimum dalam pembelajaran peneguhan mendalam seperti berikut

Definisi 1: Gangguan musuh yang optimum pada keadaan dapat meminimumkan pulangan yang dijangkakan negeri

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Perlu diambil perhatian bahawa mengoptimumkan dan menyelesaikan formula di atas adalah sangat rumit Ia perlu memastikan bahawa penyerang boleh memperdaya ejen untuk memilih tingkah laku membuat keputusan yang paling teruk Walau bagaimanapun, bagi penyerang, nilai tindakan ejen fungsi adalah agnostik, jadi tidak ada jaminan bahawa ia akan optimum terhadap gangguan. Teorem berikut boleh menunjukkan bahawa jika dasar adalah optimum, gangguan musuh yang optimum boleh dijana tanpa mengakses fungsi nilai tindakan

Teorem 1: Apabila strategi kawalan Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam adalah optimum, nilai tindakan Fungsi dan strategi memenuhi perhubungan berikut

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

di mana mewakili entropi dasar, adalah pemalar bergantung kepada keadaan, dan apabila berubah kepada 0, ia juga akan berubah kepada 0, Tambahan pula, perkara berikut formula

membuktikan: Apabila strategi rawak Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam mencapai optimum, fungsi nilai Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam juga mencapai optimum, yang bermaksud bahawa dalam setiap keadaan, adalah mustahil untuk mencari mana-mana taburan tingkah laku lain seperti bahawa fungsi nilai Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam meningkat. Sejajar dengan itu, memandangkan fungsi nilai tindakan optimum Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, strategi optimum Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

boleh diperolehi dengan menyelesaikan masalah pengoptimuman terkurung taburan kebarangkalian, dan baris terakhir mewakili bahawa strategi adalah strategi rawak Mengikut keadaan KKT, masalah pengoptimuman di atas boleh diubah menjadi bentuk berikut:

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

yang mana Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam. Anggap bahawa Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam adalah pasti positif untuk semua tindakan Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, maka:

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Apabila Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, maka mesti ada Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, dan kemudian untuk mana-mana Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, maka terdapat Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, dengan itu hubungan softmax antara fungsi nilai tindakan dan strategi akan diperoleh

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

di mana Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, maka terdapat

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Membawa persamaan pertama di atas ke dalam persamaan kedua, kita mempunyai

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

antaranya

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Dalam formula di atas, Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam mewakili taburan kebarangkalian dalam bentuk softmax, dan entropinya adalah sama dengan . Apabila bersamaan dengan 0, juga menjadi 0. Dalam kes ini, adalah lebih besar daripada 0, maka Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam pada masa ini.

Teorem 1 menunjukkan bahawa jika polisi adalah optimum, gangguan optimum boleh diperolehi dengan memaksimumkan entropi silang polisi bermasalah dan polisi asal. Untuk kesederhanaan perbincangan, penulis memanggil serangan Teorem 1 sebagai serangan strategik, dan penulis menggunakan rangka kerja algoritma PGD untuk mengira serangan strategik yang optimum Carta aliran algoritma khusus ditunjukkan dalam Algoritma 1 di bawah.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Carta alir algoritma pengoptimuman teguh untuk pertahanan terhadap gangguan yang dicadangkan oleh pengarang ditunjukkan dalam Algoritma 2 di bawah. Algoritma ini dipanggil latihan lawan serangan strategik. Semasa fasa latihan, dasar gangguan digunakan untuk berinteraksi dengan persekitaran, dan pada masa yang sama fungsi nilai tindakan 〈🎜〉 dasar gangguan dianggarkan membantu latihan dasar. Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Butiran khusus ialah pertama, pengarang menggunakan serangan strategik untuk menjana gangguan semasa fasa latihan, walaupun fungsi nilai tidak dijamin akan berkurangan. Pada peringkat awal latihan, polisi mungkin tidak berkaitan dengan fungsi nilai tindakan Semasa latihan berlangsung, mereka akan secara beransur-ansur memenuhi hubungan softmax.

Sebaliknya, pengarang perlu menganggarkan fungsi nilai tindakan dengan tepat

Sukar untuk dikendalikan kerana trajektori dikumpul dengan menjalankan dasar yang terganggu, dan menggunakan data ini untuk menganggarkan fungsi nilai tindakan bagi dasar yang tidak terganggu boleh menjadi sangat Tidak tepat. Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Fungsi objektif strategi gangguan yang dioptimumkan Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam menggunakan PPO ialah

dengan Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam, dan Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam ialah anggaran fungsi purata strategi gangguan Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam. Dalam amalan, Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam dianggarkan dengan kaedah GAE. Carta aliran algoritma khusus ditunjukkan dalam rajah di bawah.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

04 Keputusan eksperimen

Tiga sub-angka di sebelah kanan di bawah menunjukkan hasil gangguan serangan yang berbeza. Ia boleh didapati bahawa kedua-dua dasar terlatih songsang dan dasar standard adalah tahan terhadap gangguan rawak. Sebaliknya, serangan musuh merendahkan prestasi strategi yang berbeza. Hasilnya bergantung pada persekitaran ujian dan algoritma pertahanan, dan selanjutnya ia boleh didapati bahawa jurang prestasi antara tiga algoritma serangan musuh adalah kecil.

Sebaliknya, dalam tetapan yang agak sukar, strategi yang dicadangkan oleh pengarang kertas kerja untuk menyerang gangguan algoritma menghasilkan pulangan yang jauh lebih rendah. Secara keseluruhan, algoritma serangan strategik yang dicadangkan dalam kertas kerja menghasilkan ganjaran terendah dalam kebanyakan kes, menunjukkan bahawa ia sememangnya yang paling cekap daripada semua algoritma serangan musuh yang diuji.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Seperti yang ditunjukkan dalam rajah di bawah, lengkung pembelajaran algoritma pertahanan yang berbeza dan PPO standard ditunjukkan. Adalah penting untuk ambil perhatian bahawa keluk prestasi hanya mewakili jangkaan pulangan strategi yang digunakan untuk berinteraksi dengan persekitaran. Di antara semua algoritma latihan, ATPA yang dicadangkan dalam kertas kerja mempunyai varians latihan yang paling rendah dan oleh itu lebih stabil daripada algoritma lain. Juga perhatikan bahawa ATPA berkembang jauh lebih perlahan daripada PPO standard, terutamanya dalam peringkat latihan awal. Ini membawa kepada fakta bahawa pada peringkat awal latihan, diganggu oleh faktor-faktor yang merugikan boleh menjadikan latihan dasar sangat tidak stabil. Jadual

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

meringkaskan jangkaan pulangan strategi di bawah gangguan berbeza menggunakan algoritma berbeza. Ia boleh didapati bahawa strategi terlatih ATPA tahan terhadap pelbagai gangguan musuh. Sebagai perbandingan, walaupun StageWise dan DataAugment telah belajar untuk mengendalikan serangan musuh sedikit sebanyak, ia tidak berkesan seperti ATPA dalam semua kes.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Untuk perbandingan yang lebih luas, penulis juga menilai keteguhan algoritma pertahanan ini kepada pelbagai peringkat gangguan yang dihasilkan oleh algoritma serangan strategik yang paling berkesan. Seperti yang ditunjukkan di bawah, ATPA sekali lagi menerima markah tertinggi dalam semua kes. Di samping itu, varians penilaian ATPA jauh lebih kecil daripada StageWise dan DataAugment, menunjukkan bahawa ATPA mempunyai keupayaan generatif yang lebih kuat.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Untuk mencapai prestasi yang serupa, ATPA memerlukan lebih banyak data latihan daripada algoritma PPO standard. Penulis mendalami isu ini dengan mengkaji kestabilan strategi gangguan. Penulis mengira nilai perbezaan KL bagi polisi bermasalah yang diperoleh dengan melakukan serangan polisi menggunakan PGD dengan titik awal rawak yang berbeza di tengah dan pada akhir proses latihan. Seperti yang ditunjukkan dalam rajah di bawah, tanpa latihan lawan, nilai perbezaan KL yang besar diperhatikan secara berterusan walaupun PPO standard telah menumpu, menunjukkan bahawa dasar itu sangat tidak stabil terhadap gangguan yang dihasilkan oleh melaksanakan PGD dengan titik permulaan yang berbeza.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Rajah berikut menunjukkan plot divergence KL bagi strategi gangguan dengan titik awal yang berbeza Ia boleh didapati bahawa setiap piksel dalam rajah mewakili nilai divergence KL bagi kedua-duanya strategi gangguan , kedua-dua strategi gangguan ini diberikan dengan memaksimumkan formula teras algoritma ATPA. Ambil perhatian bahawa memandangkan perbezaan KL ialah metrik tidak simetri, pemetaan ini juga tidak simetri.

Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam

Atas ialah kandungan terperinci Serangan dan pertahanan musuh dalam pembelajaran peneguhan mendalam. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan