Ralat Bentuk Input: Ratakan lwn. Bentuk Semula dalam Lapisan Padat Keras
Dalam rangkaian Keras biasa, lapisan Padat menjangkakan data input yang diratakan dengan satu dimensi. Walau bagaimanapun, ralat biasa timbul apabila menggunakan lapisan Padat dengan data input dimensi yang lebih tinggi. Ini boleh membawa kepada output berikut:
<tf.Tensor 'dense_2/add:0' shape=(?, 2, 4) dtype=float32>
Memahami Percanggahan
Bertentangan dengan dokumentasi, yang menyatakan bahawa input dimensi tinggi diratakan sebelum menggunakan Dense lapisan, kemas kini terkini dalam Keras telah mengubah tingkah laku ini. Lapisan kini digunakan secara berasingan pada paksi terakhir tensor input.
Dalam contoh di atas, bentuk input ialah (2, 3). Lapisan Padat dengan 4 unit digunakan secara berasingan pada setiap baris, menghasilkan bentuk keluaran (2, 4).
Implikasi dan Pertimbangan
Perubahan ini mempunyai tertentu implikasi:
Ilustrasi Visual
Untuk pemahaman yang lebih baik, pertimbangkan perkara berikut ilustrasi:
[Imej rajah yang menunjukkan cara lapisan Padat digunakan pada input berbilang dimensi, dengan pemberat dikongsi merentas baris]
Kesimpulan
Untuk mengelakkan ralat yang disebutkan di atas, pastikan input pada lapisan Padat diratakan sebelum aplikasi. Sebagai alternatif, terima gelagat baharu lapisan Padat apabila berurusan dengan input berbilang dimensi, dengan mengambil kira implikasi dan potensi kelebihannya untuk seni bina rangkaian tertentu.
Atas ialah kandungan terperinci Adakah Ratakan atau Bentuk Semula Mendahului Lapisan Padat Keras dengan Input Berbilang Dimensi?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!