Teka-teki Bentuk Input Lapisan Padat Keras
Soalan ini meneroka percanggahan yang jelas antara dokumentasi Keras dan gelagat lapisan Padatnya. Dokumentasi menyatakan bahawa lapisan Padat meratakan inputnya sebelum menggunakan produk titik dengan kernelnya. Walau bagaimanapun, seperti yang ditunjukkan oleh coretan kod yang disediakan, bentuk keluaran lapisan Padat nampaknya tidak diratakan.
Memahami Tingkah Laku
Kunci untuk menyelesaikan percanggahan ini terletak pada pemahaman bagaimana lapisan Padat digunakan dalam Keras. Bertentangan dengan dokumentasi, lapisan Padat sebenarnya beroperasi pada paksi terakhir tensor input. Oleh itu, dalam contoh coretan kod, lapisan Padat digunakan pada setiap lajur tensor input (2,3), menghasilkan bentuk output (2, 4).
Implikasi dan Sisi Nota
Tingkah laku ini mempunyai implikasi yang ketara:
Ilustrasi Visual
Ilustrasi visual berikut menjelaskan kelakuan lapisan Padat:
[Imej tensor dengan bentuk (2,3) dan lapisan Padat dengan 4 unit digunakan pada paksi terakhir]
Setiap unit dalam lapisan Padat disambungkan kepada setiap elemen dalam lajur tensor input dengan set pemberat yang sama. Hasilnya ialah tensor keluaran dengan bentuk (2, 4).
Atas ialah kandungan terperinci Mengapa Lapisan Padat Keras Mengekalkan Dimensi?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!