Artikel ini dicetak semula daripada akaun awam WeChat "Hidup dalam Era Maklumat" Pengarang hidup dalam era maklumat. Untuk mencetak semula artikel ini, sila hubungi akaun awam Living in the Information Age.
Rangkaian Neural Konvolusi (CNN) ialah rangkaian suapan hadapan dalam khas, yang secara amnya merangkumi lapisan input data, lapisan konvolusi, lapisan pengaktifan dan lapisan pensampelan bawah dan sepenuhnya lapisan bersambung.
Lapisan konvolusi ialah unit penting dalam rangkaian neural konvolusi Ia terdiri daripada satu siri penapisan data Intipati kernel lilitan ialah proses superposisi linear jumlah wajaran kawasan setempat imej dan berat isirong lilitan. Imej I digunakan sebagai input, dan kernel lilitan dua dimensi K digunakan untuk lilitan Proses lilitan boleh dinyatakan sebagai:
<.>Antaranya, I(i,j) ialah nilai imej pada kedudukan (i,j), dan S(i,j) ialah peta ciri yang diperoleh selepas operasi lilitan.
Operasi lilitan pengaktifan adalah linear dan hanya boleh melakukan pemetaan linear, dengan keupayaan ekspresi terhad. Oleh itu, untuk menangani masalah pemetaan tak linear, adalah perlu untuk memperkenalkan fungsi pengaktifan tak linear. Untuk menangani masalah bukan linear yang berbeza, fungsi pengaktifan yang diperkenalkan juga berbeza Fungsi yang biasa digunakan ialah sigmoid, tanh, relu, dsb.
Ungkapan fungsi Sigmoid ialah:
Ungkapan fungsi Tanh ialah:
Ungkapan fungsi Relu formula ialah:
Lapisan pensampelan turun juga dipanggil lapisan pengumpulan, dan biasanya diletakkan selepas beberapa lapisan konvolusi mengurangkan saiz imej ciri. Fungsi pengumpulan menggunakan ciri statistik keseluruhan output jiran pada kedudukan tertentu untuk menggantikan output rangkaian pada kedudukan itu. Secara amnya, lapisan pengumpulan mempunyai tiga fungsi: Pertama, ia mengurangkan dimensi ciri Operasi pengumpulan adalah setara dengan proses pengekstrakan ciri lain, yang boleh mengalih keluar maklumat berlebihan dan mengurangkan volum pemprosesan data lapisan seterusnya. Yang kedua adalah untuk mengelakkan overfitting, dan operasi pengumpulan memperoleh maklumat yang lebih abstrak dan meningkatkan generalisasi. Yang ketiga adalah untuk mengekalkan invarian ciri, dan operasi pengumpulan mengekalkan ciri yang paling penting.
Lapisan yang bersambung sepenuhnya biasanya diletakkan pada penghujung rangkaian neural konvolusi, dan semua neuron antara lapisan mempunyai sambungan berwajaran. Tujuannya adalah untuk memetakan semua ciri yang dipelajari dalam rangkaian ke ruang label sampel untuk membuat pertimbangan kategori. Fungsi Softmax biasanya digunakan dalam lapisan terakhir rangkaian saraf sebagai output pengelas Setiap nilai output oleh fungsi softmax berjulat antara (0, 1).
Terdapat beberapa model CNN klasik dan cekap, seperti: VGGNet, ResNet, AlexNet, dll., yang telah digunakan secara meluas dalam bidang pengecaman imej.
Atas ialah kandungan terperinci Pengecaman Imej: Rangkaian Neural Konvolusi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!