## TensorFlow에서 Softmax와 Softmax_cross_entropy_with_logits의 차이점은 무엇입니까?

Linda Hamilton
풀어 주다: 2024-10-27 03:10:30
원래의
162명이 탐색했습니다.
## What's the Difference Between Softmax and softmax_cross_entropy_with_logits in TensorFlow? 
Softmax와 Softmax_cross_entropy_with_logits의 차이점

Softmax

(tf.nn.softmax)는 소프트맥스 함수를 입력 텐서에 적용하여 로그 확률(logits)을 0과 1 사이의 확률로 변환합니다. 출력은 입력과 동일한 형태를 유지합니다.

softmax_cross_entropy_with_logits

(tf.nn.softmax_cross_entropy_with_logits)는 소프트맥스 단계와 교차 엔트로피 손실 계산을 하나의 작업으로 결합합니다. 이는 소프트맥스 레이어를 사용하여 교차 엔트로피 손실을 최적화하기 위한 보다 수학적으로 건전한 접근 방식을 제공합니다. 이 함수의 출력 모양은 입력보다 작아서 요소 전체를 합산하는 요약 측정항목을 생성합니다.

다음 예를 고려하세요.

softmax_output은 각 클래스의 확률을 나타내고 손실 값은 로지트와 제공된 레이블 간의 교차 엔트로피 손실을 나타냅니다.

softmax_cross_entropy_with_logits를 사용하는 경우

<code class="python">import tensorflow as tf

# Create logits
logits = tf.constant([[0.1, 0.3, 0.5, 0.9]])

# Apply softmax
softmax_output = tf.nn.softmax(logits)

# Compute cross-entropy loss and softmax
loss = tf.nn.softmax_cross_entropy_with_logits(logits, tf.one_hot([0], 4))

print(softmax_output)  # [[ 0.16838508  0.205666    0.25120102  0.37474789]]
print(loss)  # [[0.69043917]]</code>
로그인 후 복사

모델 출력이 소프트맥스되는 최적화 시나리오에는 tf.nn.softmax_cross_entropy_with_logits를 사용하는 것이 좋습니다. 이 기능은 수치 안정성을 보장하고 수동 조정이 필요하지 않습니다.

위 내용은 ## TensorFlow에서 Softmax와 Softmax_cross_entropy_with_logits의 차이점은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:php.cn
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!