TensorFlow의 API 문서에서는 "로지트"라는 용어를 자주 접하게 됩니다. 로지트는 신경망 레이어에서 생성된 크기 조정되지 않은 활성화 값을 나타냅니다. 이는 소프트맥스 함수를 사용하여 확률로 변환되기 전에 로그 확률로 해석됩니다.
tf.nn.softmax의 차이점
이 함수는 소프트맥스 함수를 입력 텐서에 요소별로 적용합니다. Softmax는 입력 값의 합이 1이 되도록 정규화하여 확률을 표현하는 데 적합합니다. 출력의 형태는 입력과 동일하게 유지됩니다.
tf.nn.softmax_cross_entropy_with_logits
이 함수는 소프트맥스 연산과 교차 엔트로피 손실 계산을 결합합니다. 내부적으로 소프트맥스 변환을 수행한 다음 예측 확률과 실제 레이블 간의 교차 엔트로피를 계산합니다. 출력은 [batch_size, 1] 모양의 요약 지표입니다.
주요 차이점
tf.nn.softmax_cross_entropy_with_logits는 소프트맥스와 교차 엔트로피 손실을 모두 계산하도록 설계되었습니다. 한 걸음에. 소프트맥스를 수동으로 적용한 후 교차 엔트로피 계산을 적용하는 것보다 수치 안정성 문제를 더 효과적으로 처리합니다.
tf.nn.softmax_cross_entropy_with_logits를 사용하는 경우
위 내용은 **TensorFlow에서 `tf.nn.softmax`와 `tf.nn.softmax_cross_entropy_with_logits`의 차이점은 무엇입니까?**의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!