(tf.nn.softmax)는 소프트맥스 함수를 입력 텐서에 적용하여 로그 확률(logits)을 0과 1 사이의 확률로 변환합니다. 출력은 입력과 동일한 형태를 유지합니다.
softmax_cross_entropy_with_logits(tf.nn.softmax_cross_entropy_with_logits)는 소프트맥스 단계와 교차 엔트로피 손실 계산을 하나의 작업으로 결합합니다. 이는 소프트맥스 레이어를 사용하여 교차 엔트로피 손실을 최적화하기 위한 보다 수학적으로 건전한 접근 방식을 제공합니다. 이 함수의 출력 모양은 입력보다 작아서 요소 전체를 합산하는 요약 측정항목을 생성합니다.
예다음 예를 고려하세요.
softmax_output은 각 클래스의 확률을 나타내고 손실 값은 로지트와 제공된 레이블 간의 교차 엔트로피 손실을 나타냅니다.
softmax_cross_entropy_with_logits를 사용하는 경우
<code class="python">import tensorflow as tf # Create logits logits = tf.constant([[0.1, 0.3, 0.5, 0.9]]) # Apply softmax softmax_output = tf.nn.softmax(logits) # Compute cross-entropy loss and softmax loss = tf.nn.softmax_cross_entropy_with_logits(logits, tf.one_hot([0], 4)) print(softmax_output) # [[ 0.16838508 0.205666 0.25120102 0.37474789]] print(loss) # [[0.69043917]]</code>
모델 출력이 소프트맥스되는 최적화 시나리오에는 tf.nn.softmax_cross_entropy_with_logits를 사용하는 것이 좋습니다. 이 기능은 수치 안정성을 보장하고 수동 조정이 필요하지 않습니다.
위 내용은 ## TensorFlow에서 Softmax와 Softmax_cross_entropy_with_logits의 차이점은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!