이 글은 위챗 공개 계정 '정보화 시대에 살기'에서 재인쇄되었습니다. 이 기사를 재인쇄하려면 Living in the Information Age 공개 계정에 문의하세요.
반복 신경망(RNN)은 주로 시퀀스 데이터 문제를 해결하는 데 사용됩니다. 순환 신경망인 이유는 시퀀스의 현재 출력이 이전 출력과도 연관되어 있기 때문입니다. RNN 네트워크는 이전 순간의 정보를 기억하고 이를 현재 출력 계산에 적용합니다. 컨볼루션 신경망과 달리 순환 신경망의 은닉층에 있는 뉴런은 서로 연결되어 있습니다. 입력에 의해 결정됨 레이어의 출력은 이전 순간의 숨겨진 뉴런의 출력으로 구성됩니다. RNN 네트워크는 몇 가지 놀라운 결과를 얻었지만 훈련의 어려움, 낮은 정확도, 낮은 효율성, 오랜 시간 등 몇 가지 단점과 제한 사항을 가지고 있습니다. 따라서 RNN을 기반으로 한 일부 개선된 네트워크 모델이 점차 개발되었습니다. as : LSTM(Long Short-Term Memory), 양방향 RNN, 양방향 LSTM, GRU 등 이러한 개선된 RNN 모델은 이미지 인식 분야에서 뛰어난 결과를 보여 널리 사용되고 있습니다. LSTM 네트워크를 예로 들어 주요 네트워크 구조를 소개하겠습니다.
장단기 기억(LSTM)은 RNN의 기울기 소멸 또는 기울기 폭발 문제를 해결하고 장기 의존성 문제를 학습할 수 있습니다. 그 구조는 다음과 같습니다.
LSTM에는 정보를 선택적으로 전달하는 3개의 게이트(망각 게이트, 입력 게이트, 출력 게이트)가 있습니다. 망각의 문은 어떤 정보가 이 세포를 통과할 수 있는지를 결정합니다. 시그모이드 신경층을 통해 구현됩니다. 입력은 이고, 출력은 (0, 1) 사이의 값을 갖는 벡터로, 통과할 수 있는 정보의 각 부분의 비율을 나타냅니다. 0은 "어떤 정보도 전달하지 않음"을 의미하고, 1은 "모든 정보를 전달함"을 의미합니다.
입력 게이트는 셀 상태에 얼마나 많은 새로운 정보가 추가되는지 결정합니다. tanh 레이어는 업데이트를 위한 대체 콘텐츠인 벡터를 생성합니다. ㅋㅋㅋ 폭발과 같은 문제는 LSTM의 변형입니다. 구조가 LSTM보다 간단하고 매개 변수가 적으며 훈련 시간도 LSTM보다 짧습니다. 또한 음성 인식, 이미지 설명, 자연어 처리 및 기타 시나리오에도 널리 사용됩니다.
위 내용은 이미지 인식에 대해 이야기해 봅시다: 순환 신경망(Recurrent Neural Network)의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!