목차
1 소개
1.1 신경망 분류
1.2 계산 가능성에 대하여
이 글에서 연구한 신경망은 모두 퍼셉트론으로 구성되어 있습니다. 퍼셉트론 개수의 연산
2.2 신경망 구축
2.3 동등성 증명
)에 상수 c를 추가하여
​" >
4 예제
5 토론
5.1 이론적 측면" >5.1 이론적 측면
5.2 관련 작업 " >5.2 관련 작업
기술 주변기기 일체 포함 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

Apr 25, 2023 pm 09:25 PM
딥러닝

1996년 8월 19일부터 23일까지 핀란드 인공지능협회와 바사대학교가 주최한 핀란드 인공지능 컨퍼런스가 핀란드 바사에서 열렸습니다.

컨퍼런스에서 발표된 논문은 튜링 머신이 순환 신경망임을 입증했습니다.

네, 이게 26년 전이에요!

1996년에 발표된 이 논문을 살펴보겠습니다.

1 소개

1.1 신경망 분류

신경망은 입력 패턴이 특정 범주에 속하는지 여부를 확인하는 분류 작업에 사용될 수 있습니다.

단일 레이어 피드포워드 네트워크는 선형으로 분리 가능한 패턴을 분류하는 데에만 사용할 수 있다는 것이 오랫동안 알려져 왔습니다. 즉, 연속적인 레이어가 많을수록 클래스 분포가 더 복잡해집니다.

네트워크 구조에 피드백이 도입되면 퍼셉트론 출력값이 재활용되어 연속 레이어 수가 원칙적으로 무한대가 됩니다.

컴퓨팅 파워가 질적으로 향상되었나요? 대답은 '예'입니다.

예를 들어 입력 정수가 소수인지 확인하기 위해 분류자를 구성할 수 있습니다.

이 목적으로 사용되는 네트워크의 크기는 유한할 수 있으며, 입력 정수 크기가 제한되지 않더라도 올바르게 분류할 수 있는 소수의 수는 무한하다는 것이 밝혀졌습니다.

이 기사에서는 "동일한 계산 요소로 구성된 순환 네트워크 구조"를 사용하여 (알고리즘적으로) 계산 가능한 모든 기능을 완성할 수 있습니다.

1.2 계산 가능성에 대하여

계산 가능성 이론의 기본 공리에 따르면 튜링 기계를 사용하여 계산 가능한 함수를 구현할 수 있습니다.

프로그래밍 언어 정의튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!. 언어에는 네 가지 기본 연산이 있습니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!여기서

V

는 양의 정수 값을 갖는 변수를 나타내고 j는 행 번호를 나타냅니다. 함수가 Turing 계산 가능하다면 이 간단한 언어를 사용하여 인코딩할 수 있다는 것을 알 수 있습니다(자세한 내용은 [1] 참조)

.

2 튜링 네트워크

2.1 재귀 신경망 구조

이 글에서 연구한 신경망은 모두 퍼셉트론으로 구성되어 있습니다. 퍼셉트론 개수의 연산

q

은 다음과 같이 정의할 수 있습니다.

여기서 현재 순간의 퍼셉트론 출력(튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

으로 표시)은 n 입력 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!을 사용하여 계산됩니다. 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!비선형 함수 f

는 이제

로 정의할 수 있습니다. 이런 식으로 함수는 단순히 음수 값을 "절단"할 수 있으며 퍼셉트론 네트워크의 루프는 퍼셉트론이 복잡한 방식으로 결합될 수 있음을 의미합니다. . 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

그림 1 순환 신경망의 전체 프레임워크, 구조는 외부 입력 없이 자율적이며 네트워크 동작은 초기 상태에 의해 완전히 결정됩니다.

그림 1에서 순환 구조는 다음과 같습니다. 일반 프레임워크: 이제 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다! n은 퍼셉트론의 수이고, 퍼셉트론 p에서 퍼셉트론 q로의 연결은 (1)의 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다! 스칼라 가중치로 표시됩니다.

즉, 초기 상태가 주어지면 네트워크 상태는 더 이상 변경되지 않을 때까지 반복되며 결과는 안정적인 상태 또는 네트워크의 "고정 지점"에서 읽을 수 있습니다.

2.2 신경망 구축

다음으로 이 프로그램튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!이 퍼셉트론 네트워크에서 어떻게 구현되는지 설명하겠습니다. 네트워크는 다음 노드(또는 퍼셉트론)로 구성됩니다.

  • 프로그램의 모든 변수 V에는 변수 노드 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!가 있습니다.
  • 모든 프로그램 라인 i에는 명령어 노드 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!가 있습니다.
  • 라인 i의 각 조건부 분기 명령에는 두 개의 추가 분기 노드 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!가 있습니다.

언어 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다! 프로그램의 구현은 퍼셉트론 네트워크에 대한 다음 변경 사항으로 구성됩니다.

  • 프로그램의 각 변경 V에 대해 다음 링크를 사용하여 네트워크를 확장합니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

  • 프로그램 코드의 i 라인에 연산(튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!)이 없으면 다음 링크를 사용하여 네트워크가 확장됩니다(노드 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!이 존재한다고 가정:

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

  • ). i 줄에 증분 작업(튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!)이 있는 경우 다음과 같이 네트워크를 확장합니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

  • 라인 i에 감소 연산(튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!)이 있는 경우 다음과 같이 네트워크를 확장합니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

  • 라인 i에 조건 분기(튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!)가 있는 경우 네트워크를 확장합니다. 다음과 같이: 네트워크 확장:

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

2.3 동등성 증명

이제 증명해야 할 것은 "네트워크의 내부 상태 또는 네트워크 노드의 내용"을 프로그램 상태로 식별할 수 있다는 것입니다. 네트워크 상태의 연속성은 프로그램 스트림 대응과 일치합니다.

은 네트워크의 "법적 상태"를 다음과 같이 정의합니다.

  • 모든 전환 노드 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!(2.2에 정의됨)에 대한 출력은 0입니다(튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!).
  • 최대 하나의 명령어 노드
  • 에는 단위 출력(튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!)이 있고, 다른 모든 명령어 노드에는 출력이 0이며, 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!
  • 변수 노드에는 음수가 아닌 정수 출력 값이 있습니다.
모든 명령어 노드의 출력이 0이면 상태는

최종 상태입니다. 합법적인 네트워크 상태는 프로그램 "스냅샷"으로 직접 해석될 수 있습니다. 인 경우 프로그램 카운터는 i 라인에 있고 해당 변수 값은 변수 노드에 저장됩니다.

네트워크 상태 변경은 0이 아닌 노드에 의해 활성화됩니다.

먼저 변수 노드에 초점을 맞추면 이들이 적분기처럼 동작하고 노드의 이전 콘텐츠가 동일한 노드로 루프백되는 것으로 나타났습니다.

변수 노드에서 다른 노드로의 유일한 연결은 음의 가중치를 갖습니다. 따라서 비선형성으로 인해 0을 포함하는 노드는 변경되지 않습니다(2).

다음으로 명령어 노드에 대해 자세히 설명합니다. 0이 아닌 유일한 명령어 노드

가 시간 k에 있다고 가정합니다. 이는 프로그램 코드의 i 라인에 있는 프로그램 카운터에 해당합니다.

프로그램의

i 라인이 이면 한 단계 앞으로 나아가는 네트워크의 동작은 다음과 같이 표현될 수 있습니다(영향을 받는 노드만 표시됨)


튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

사실이 입증되었습니다. 새로운 네트워크 상태가 다시 합법적입니다. 프로그램 코드와 비교하면 프로그램 카운터가

i+1 줄로 이동되는 것과 같습니다.

반면, 프로그램의 i번째 줄이 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!이면 한 단계 앞으로의 동작은

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

이렇게 하면 프로그램 카운터가 다음 줄로 이동하는 것 외에도 , 변수 V 값도 감소합니다. i 라인이

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!인 경우 변수 V의 값이 증가한다는 점을 제외하면 네트워크 작동은 동일합니다. i

라인의 조건부 분기 작업(IF

GOTO j)은 보다 복잡한 작업 순서를 활성화합니다. 이 후에 단계에서 네트워크 상태는 다시 또 다른 프로그램 스냅샷으로 해석될 수 있습니다. 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!해당 프로그램 라인이 실행된 것처럼 변수 값이 변경되고 토큰이 새 위치로 전송되었습니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!토큰이 사라지면 네트워크 상태는 더 이상 변경되지 않습니다. 이는 프로그램 카운터가 프로그램 코드를 "초과"하는 경우, 즉 프로그램이 종료되는 경우에만 발생할 수 있습니다.

네트워크의 운영도 해당 프로그램의 운영과 유사하게 진행되어 증명이 완료됩니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!3 수정

3.1 확장

프로그래밍을 더 쉽게 만들고 결과 프로그램을 더 읽기 쉽고 더 빠르게 실행할 수 있도록 간소화된 추가 지침을 쉽게 정의할 수 있습니다. 예를 들어,

라인의

i

에 있는 무조건 분기(GOTO j)는 i 라인의 변수(

)에 상수 c를 추가하여

로 구현될 수 있습니다. 는 라인의 또 다른 조건부 분기(IF

V
    =0 GOTO
  • j )일 수 있습니다. i
  • 증가/감소 명령으로 구현할 수 있습니다. 다음을 수행한다고 가정해 보겠습니다. . 노드는 하나만 필요합니다
    :
  • 위의 방법이 결코 튜링 머신을 구현하는 유일한 방법은 아닙니다. 이는 간단한 구현이므로 애플리케이션에서 반드시 최적이 아닐 수도 있습니다.
  • 3.2 행렬 공식화
  • 위의 구성은 행렬의 형태로도 구현될 수 있습니다. 기본 아이디어는 프로세스 상태s에 변수 값과 "프로그램 카운터"를 저장하고 상태 전이 행렬 A
    이 노드 간의 링크를 나타내도록 하는 것입니다.
행렬 구조의 작동은 이산 시간 동적 프로세스로 정의될 수 있습니다

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

여기서 비선형 벡터 값 함수 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!는 이제 (2)에서와 같이 요소별로 정의됩니다.

상태 전이 행렬A의 내용은 네트워크 공식에서 쉽게 해독됩니다. 행렬 요소는 노드 간 가중치입니다.

이 행렬 공식은 [3]에서 제안된 "개념 행렬" 프레임워크와 유사합니다.

4 예제

간단한 함수 y=x를 구현하려고 한다고 가정합니다. 즉, 입력 변수 x의 값이 출력 변수 y에 전달되어야 합니다. 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다! 언어를 사용하면 다음과 같이 인코딩될 수 있습니다(이제 "진입점"이 첫 번째 줄이 아니라 세 번째 줄이 되도록 함).

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

결과 퍼셉트론 네트워크는 그림 2에 표시됩니다.

실선은 양의 연결(무게 1)을 나타내고, 점선은 음의 연결(무게 -1)을 나타냅니다. 그림 1과 비교하면 노드에 지연 요소를 통합하여 네트워크 구조가 다시 그려지고 단순화됩니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

그림 2 간단한 프로그램의 네트워크 구현

행렬 형식에서 위 프로그램은 다음과 같습니다.


행렬 A의 처음 두 행/열에 해당 두 개의 변수 YX를 나타내는 노드에 대한 링크가 있는 다음 세 줄은 세 개의 프로그램 줄(1, 2 및 3)을 나타내고 마지막 두 줄은 분기 명령에 필요한 추가 노드(3' 및 삼'').

그리고 초기(반복 전) 상태와 최종(반복 후, 고정 소수점을 찾았을 때) 상태가 있습니다.


변수 노드의 값이 0과 1 사이에서 엄격하게 유지된다면, 그러면 동적 시스템( 3) 작업은 선형이 되며 함수는 전혀 효과가 없습니다.

원칙적으로 선형 시스템 이론을 분석에 사용할 수 있습니다.

예를 들어 그림 3에는 상태 천이 행렬 A의 고유값이 표시됩니다.

위의 예에서 단위원 외부에 고유값이 있더라도 비선형성으로 인해 반복이 항상 안정적입니다.

반복은 항상 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!단계 후에 수렴되는 것으로 나타났습니다. 여기서 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!입니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!

그림 3 간단한 프로그램의 "고유값"

5 토론

5.1 이론적 측면

튜링 기계는 퍼셉트론 네트워크로 인코딩될 수 있음이 밝혀졌습니다.

정의에 따르면 모든 계산 가능한 함수는 Turing 계산 가능합니다. 계산 가능성 이론의 틀 내에서는 이보다 더 강력한 계산 시스템이 존재하지 않습니다.

그래서 결론을 내릴 수 있습니다. -

순환 퍼셉트론 네트워크(위에 표시됨)는 Turing 기계의 (아직 또 다른) 형태입니다.

이 동등성의 장점은 계산 가능성 이론의 결과를 쉽게 얻을 수 있다는 것입니다. 예를 들어 네트워크와 초기 상태가 주어지면 프로세스가 결국 멈출지 여부를 알 수 없습니다.

위의 이론적 동등성은 계산 효율성에 대해 아무 말도 하지 않습니다.

네트워크에서 발생하는 다양한 메커니즘으로 인해 기존 Turing 기계 구현(실제로는 오늘날의 컴퓨터)에 비해 이 프레임워크에서 일부 기능을 더 잘 구현할 수 있습니다.

적어도 어떤 경우에는 스냅샷 벡터에 여러 "프로그램 카운터"를 허용하여 알고리즘의 네트워크 구현을 병렬화할 수 있습니다.

네트워크 운영은 글로벌이 아닌 엄격하게 로컬입니다.

예를 들어, NP-완전 문제가 네트워크 환경에서 더 효율적으로 공격될 수 있는지에 대한 흥미로운 질문이 생깁니다!

언어 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!와 비교하여 네트워크 구현에는 다음과 같은 "확장"이 있습니다.

  • 변수는 정수 값뿐만 아니라 연속형일 수 있습니다. 실제로 실수를 표현하는 (이론적) 능력은 표현되는 모든 숫자가 유리수인 언어 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!보다 네트워크 구현을 더 강력하게 만듭니다.
  • 다양한 "프로그램 카운터"가 동시에 존재할 수 있으며 제어 전송이 "퍼지"될 수 있습니다. 이는 명령 노드에서 제공하는 프로그램 카운터 값이 정수가 아닐 수 있음을 의미합니다.
  • 더 작은 확장은 자유롭게 정의할 수 있는 프로그램 진입점입니다. 이는 프로그램을 단순화하는 데 도움이 될 수 있습니다. 예를 들어 변수 복사는 위의 세 개의 프로그램 라인에서 수행되는 반면 명목 솔루션([1] 참조)에는 7개의 라인과 추가 로컬 변수가 필요합니다.

원래 프로그램 코드와 비교할 때 행렬 공식은 분명히 프로그램 코드보다 더 "연속적인" 정보 표현입니다. 매개변수는 (자주) 수정될 수 있으며 반복 결과는 갑자기 변경되지 않습니다.

이 "중복성"은 일부 응용 프로그램에서 유용할 수 있습니다.

예를 들어, 구조 최적화를 위해 유전자 알고리즘(GA)을 사용하는 경우 유전자 알고리즘에 사용되는 무작위 검색 전략이 더 효율적으로 만들어질 수 있습니다. 시스템 구조가 변경된 후 연속 비용 함수의 로컬 최소값은 다음과 같습니다. 일부 전통적인 기술을 사용하여 검색했습니다([4] 참조).

[5]에서 설명한 것처럼 예제를 통해 유한 상태 기계 구조를 학습하면 이보다 복잡한 경우에도 네트워크 구조를 반복적으로 향상시키는 방법이 사용된다는 것을 알 수 있습니다.

위 결과는 신경망 이론뿐만 아니라 동적 시스템 공식(3)만 보면 계산 가능성 이론 분야에서 발견되는 모든 현상도 비선형 역학을 찾는 간단한 형태로 존재한다는 것이 분명합니다. 프로세스.

예를 들어, 정지 문제의 결정 불가능성은 시스템 이론 분야에 흥미로운 기여를 합니다. Turing 기계로 표현되는 모든 결정 프로세스에는 이 프로세스를 위반하는 형식 (3)의 동적 시스템이 있습니다. 일반적인 안정성 분석 알고리즘.

5.2 관련 작업

제시된 네트워크 구조와 재귀적 Hopfield 신경망 패러다임 사이에는 몇 가지 유사점이 있습니다(예를 들어 [2] 참조).

두 경우 모두 "입력"은 네트워크의 초기 상태로 인코딩되고 "출력"은 반복 후 네트워크의 최종 상태에서 읽혀집니다.

Hopfield 네트워크의 고정점은 사전 프로그래밍된 패턴 모델이고 입력은 "노이즈" 패턴입니다. 네트워크를 사용하여 손상된 패턴을 향상시킬 수 있습니다.

튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!의 비선형 함수의 전망(2)은 위에서 언급한 "튜링 네트워크"에서 가능한 상태의 수를 무한하게 만듭니다.

단위 출력이 항상 -1 또는 1인 Hopfield 네트워크와 비교하면 이론적으로 이러한 네트워크 구조가 매우 다르다는 것을 알 수 있습니다.

예를 들어 Hopfield 네트워크의 안정적인 포인트 집합은 제한되어 있지만 Turing 네트워크로 표현되는 프로그램은 가능한 결과가 무한한 경우가 많습니다.

Hopfield 네트워크의 계산 기능은 [6]에서 논의됩니다.

Petri net은 이벤트 기반 및 동시 시스템 모델링을 위한 강력한 도구입니다[7].

페트리 넷은 비트와 전환, 그리고 이를 연결하는 호로 구성됩니다. 각 장소에는 원하는 수의 토큰이 포함될 수 있으며 토큰의 배포를 페트리넷의 표시라고 합니다.

변환의 입력 위치가 모두 마커로 채워지면 변환이 트리거되어 각 입력 위치에서 마커를 제거하고 각 출력 위치에 마커를 추가할 수 있습니다.

추가 억제 아크를 갖춘 확장된 페트리 네트에도 튜링 기계의 기능이 있다는 것이 입증될 수 있습니다([7] 참조).

위에서 언급한 튜링 넷과 페트리 넷의 주요 차이점은 페트리 넷의 프레임워크가 더 복잡하고 특별히 맞춤화된 구조를 가지고 있어 단순한 일반 형식으로는 표현할 수 없다는 것입니다(3).

참조

1 Davis, M. 및 Weyuker, E.: 계산 가능성, 복잡성 및 언어---Fundamentals of Theoretical Computer Science, New York, 1983.

2 Haykin, S.: Neural Networks. Macmillan College Publishing, New York, 1994.

3 Hyötyniemi, H.: Building Blocks of Intelligence? 지능의 차원), 핀란드 인공지능학회, 1995년, pp. 199--226.

4 Hyötyniemi, H. 및 Koivo, H.: 유전자, 코드 및 동적 시스템에 관한 두 번째 북유럽 워크숍 진행 중. Genetic Algorithms(NWGA'96), 핀란드 바사, 1996년 8월 19~23일.

5 Manolios, P. 및 Fanelli, R.: 1차 순환 신경망 및 결정론적 유한 상태 신경 계산 6. , 1994, pp. 1155--1173.

6 Orponen, P.: 신경망 계산 8, 1996, pp. 403--415.

7 Peterson , J.L.: Petri Net 이론 및 시스템 모델링 - Hall, Englewood Cliffs, New Jersey, 1981.

참고 자료:

https://www.php. /link/0465a1824942fac19824528343613213

위 내용은 튜링 머신은 딥러닝 분야에서 가장 인기 있는 순환 신경망 RNN이다? 1996년 논문이 이를 증명했습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Python에서 BERT를 사용한 감정 분석 방법 및 단계 Python에서 BERT를 사용한 감정 분석 방법 및 단계 Jan 22, 2024 pm 04:24 PM

BERT는 Google이 2018년에 제안한 사전 훈련된 딥러닝 언어 모델입니다. 전체 이름은 BidirectionEncoderRepresentationsfromTransformers이며 Transformer 아키텍처를 기반으로 하며 양방향 인코딩의 특성을 가지고 있습니다. 기존 단방향 코딩 모델과 비교하여 BERT는 텍스트를 처리할 때 상황 정보를 동시에 고려할 수 있으므로 자연어 처리 작업에서 잘 수행됩니다. 양방향성을 통해 BERT는 문장의 의미 관계를 더 잘 이해할 수 있어 모델의 표현 능력이 향상됩니다. 사전 훈련 및 미세 조정 방법을 통해 BERT는 감정 분석, 이름 지정 등 다양한 자연어 처리 작업에 사용될 수 있습니다.

일반적으로 사용되는 AI 활성화 함수 분석: Sigmoid, Tanh, ReLU 및 Softmax의 딥러닝 실습 일반적으로 사용되는 AI 활성화 함수 분석: Sigmoid, Tanh, ReLU 및 Softmax의 딥러닝 실습 Dec 28, 2023 pm 11:35 PM

활성화 기능은 딥 러닝에서 중요한 역할을 하며 신경망에 비선형 특성을 도입하여 네트워크가 복잡한 입력-출력 관계를 더 잘 학습하고 시뮬레이션할 수 있도록 합니다. 활성화 함수의 올바른 선택과 사용은 신경망의 성능과 훈련 결과에 중요한 영향을 미칩니다. 이 기사에서는 일반적으로 사용되는 네 가지 활성화 함수인 Sigmoid, Tanh, ReLU 및 Softmax를 소개부터 시작하여 사용 시나리오, 장점, 단점과 최적화 솔루션은 활성화 기능에 대한 포괄적인 이해를 제공하기 위해 논의됩니다. 1. 시그모이드 함수 시그모이드 함수 공식 소개: 시그모이드 함수는 실수를 0과 1 사이에 매핑할 수 있는 일반적으로 사용되는 비선형 함수입니다. 통일하기 위해 자주 사용됩니다.

ORB-SLAM3를 넘어! SL-SLAM: 저조도, 심한 흔들림, 약한 텍스처 장면을 모두 처리합니다. ORB-SLAM3를 넘어! SL-SLAM: 저조도, 심한 흔들림, 약한 텍스처 장면을 모두 처리합니다. May 30, 2024 am 09:35 AM

이전에 작성했던 오늘은 딥 러닝 기술이 복잡한 환경에서 비전 기반 SLAM(동시 위치 파악 및 매핑)의 성능을 향상할 수 있는 방법에 대해 논의합니다. 심층 특징 추출과 깊이 일치 방법을 결합하여 저조도 조건, 동적 조명, 질감이 약한 영역 및 심한 지터와 같은 까다로운 시나리오에서 적응을 향상하도록 설계된 다목적 하이브리드 시각적 SLAM 시스템을 소개합니다. 우리 시스템은 확장 단안, 스테레오, 단안 관성 및 스테레오 관성 구성을 포함한 여러 모드를 지원합니다. 또한 시각적 SLAM을 딥러닝 방법과 결합하여 다른 연구에 영감을 주는 방법도 분석합니다. 공개 데이터 세트 및 자체 샘플링 데이터에 대한 광범위한 실험을 통해 위치 정확도 및 추적 견고성 측면에서 SL-SLAM의 우수성을 입증합니다.

잠재 공간 임베딩: 설명 및 시연 잠재 공간 임베딩: 설명 및 시연 Jan 22, 2024 pm 05:30 PM

잠재 공간 임베딩(LatentSpaceEmbedding)은 고차원 데이터를 저차원 공간에 매핑하는 프로세스입니다. 기계 학습 및 딥 러닝 분야에서 잠재 공간 임베딩은 일반적으로 고차원 입력 데이터를 저차원 벡터 표현 세트로 매핑하는 신경망 모델입니다. 이 벡터 세트를 "잠재 벡터" 또는 "잠재 벡터"라고 합니다. 인코딩". 잠재 공간 임베딩의 목적은 데이터의 중요한 특징을 포착하고 이를 보다 간결하고 이해하기 쉬운 형식으로 표현하는 것입니다. 잠재 공간 임베딩을 통해 저차원 공간에서 데이터를 시각화, 분류, 클러스터링하는 등의 작업을 수행하여 데이터를 더 잘 이해하고 활용할 수 있습니다. 잠재 공간 임베딩은 이미지 생성, 특징 추출, 차원 축소 등과 같은 다양한 분야에서 폭넓게 응용됩니다. 잠재공간 임베딩이 핵심

하나의 기사로 이해하기: AI, 머신러닝, 딥러닝 간의 연결과 차이점 하나의 기사로 이해하기: AI, 머신러닝, 딥러닝 간의 연결과 차이점 Mar 02, 2024 am 11:19 AM

오늘날 급속한 기술 변화의 물결 속에서 인공지능(AI), 머신러닝(ML), 딥러닝(DL)은 정보기술의 새로운 물결을 이끄는 밝은 별과도 같습니다. 이 세 단어는 다양한 최첨단 토론과 실제 적용에 자주 등장하지만, 이 분야를 처음 접하는 많은 탐험가들에게는 그 구체적인 의미와 내부 연관성이 여전히 수수께끼에 싸여 있을 수 있습니다. 그럼 먼저 이 사진을 보시죠. 딥러닝, 머신러닝, 인공지능 사이에는 밀접한 상관관계와 진보적인 관계가 있음을 알 수 있습니다. 딥러닝은 머신러닝의 특정 분야이며, 머신러닝은

매우 강하다! 딥러닝 알고리즘 상위 10개! 매우 강하다! 딥러닝 알고리즘 상위 10개! Mar 15, 2024 pm 03:46 PM

2006년 딥러닝이라는 개념이 제안된 지 거의 20년이 지났습니다. 딥러닝은 인공지능 분야의 혁명으로 많은 영향력 있는 알고리즘을 탄생시켰습니다. 그렇다면 딥러닝을 위한 상위 10가지 알고리즘은 무엇이라고 생각하시나요? 다음은 제가 생각하는 딥 러닝을 위한 최고의 알고리즘입니다. 이들은 모두 혁신, 애플리케이션 가치 및 영향력 측면에서 중요한 위치를 차지하고 있습니다. 1. 심층 신경망(DNN) 배경: 다층 퍼셉트론이라고도 불리는 심층 신경망(DNN)은 가장 일반적인 딥 러닝 알고리즘으로 처음 발명되었을 때 최근까지 컴퓨팅 성능 병목 현상으로 인해 의문을 제기했습니다. 20년, 컴퓨팅 파워, 데이터의 폭발적인 증가로 돌파구가 찾아왔습니다. DNN은 여러 개의 숨겨진 레이어를 포함하는 신경망 모델입니다. 이 모델에서 각 레이어는 입력을 다음 레이어로 전달하고

CNN 및 Transformer 하이브리드 모델을 사용하여 성능을 향상시키는 방법 CNN 및 Transformer 하이브리드 모델을 사용하여 성능을 향상시키는 방법 Jan 24, 2024 am 10:33 AM

CNN(Convolutional Neural Network)과 Transformer는 다양한 작업에서 뛰어난 성능을 보여준 두 가지 딥 러닝 모델입니다. CNN은 주로 이미지 분류, 타겟 감지, 이미지 분할과 같은 컴퓨터 비전 작업에 사용됩니다. 컨볼루션 연산을 통해 이미지의 국소적 특징을 추출하고, 풀링 연산을 통해 특징 차원 축소 및 공간 불변성을 수행합니다. 반면 Transformer는 기계 번역, 텍스트 분류, 음성 인식 등 자연어 처리(NLP) 작업에 주로 사용됩니다. 이는 self-attention 메커니즘을 사용하여 시퀀스의 종속성을 모델링하고 기존 순환 신경망의 순차적 계산을 피합니다. 이 두 모델은 서로 다른 작업에 사용되지만 시퀀스 모델링에는 유사점이 있으므로

향상된 RMSprop 알고리즘 향상된 RMSprop 알고리즘 Jan 22, 2024 pm 05:18 PM

RMSprop은 신경망의 가중치를 업데이트하는 데 널리 사용되는 최적화 프로그램입니다. 이는 Geoffrey Hinton et al.이 2012년에 제안했으며 Adam 최적화 프로그램의 전신입니다. RMSprop 최적화 프로그램의 출현은 주로 SGD 경사하강법 알고리즘에서 발생하는 경사 소멸 및 경사 폭발과 같은 일부 문제를 해결하기 위한 것입니다. RMSprop 옵티마이저를 사용하면 학습률을 효과적으로 조정하고 가중치를 적응적으로 업데이트하여 딥러닝 모델의 훈련 효과를 향상시킬 수 있습니다. RMSprop 최적화 프로그램의 핵심 아이디어는 서로 다른 시간 단계의 기울기가 가중치 업데이트에 서로 다른 영향을 미치도록 기울기의 가중 평균을 수행하는 것입니다. 특히 RMSprop은 각 매개변수의 제곱을 계산합니다.

See all articles