Dalam TensorFlow, istilah "logits" merujuk kepada output tidak berskala lapisan sebelumnya, mewakili skala relatif linear. Ia biasanya digunakan dalam model pembelajaran mesin untuk mewakili pengaktifan pra-kebarangkalian sebelum menggunakan fungsi softmax.
Perbezaan Antara Softmax dan softmax_cross_entropy_with_logits
Softmax (tf.nn.softmax) menggunakan fungsi softmax pada tensor input, menukar kebarangkalian log (logit) kepada kebarangkalian antara 0 dan 1. Output mengekalkan bentuk yang sama seperti input.
softmax_cross_entropy_with_logits (tf.nn.softmax_cross_entropy_with_logits) menggabungkan langkah softmax dan pengiraan kehilangan rentas entropi dalam satu operasi. Ia menyediakan pendekatan yang lebih baik secara matematik untuk mengoptimumkan kehilangan entropi silang dengan lapisan softmax. Bentuk output fungsi ini lebih kecil daripada input, mewujudkan metrik ringkasan yang menjumlahkan seluruh elemen.
Contoh
Pertimbangkan contoh berikut:
<code class="python">import tensorflow as tf # Create logits logits = tf.constant([[0.1, 0.3, 0.5, 0.9]]) # Apply softmax softmax_output = tf.nn.softmax(logits) # Compute cross-entropy loss and softmax loss = tf.nn.softmax_cross_entropy_with_logits(logits, tf.one_hot([0], 4)) print(softmax_output) # [[ 0.16838508 0.205666 0.25120102 0.37474789]] print(loss) # [[0.69043917]]</code>
Atas ialah kandungan terperinci ## Apakah Perbezaan Antara Softmax dan softmax_cross_entropy_with_logits dalam TensorFlow?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!