目录
1 前言
1.1 神经网络分类
1.2 关于可计算性
2 图灵网络
2.1 递归神经网络结构
2.2 神经网络建构
2.3 等效性证明
3 修改
3.1 扩展" >3.1 扩展
3.2 矩阵制定" >3.2 矩阵制定
4 例子
5 讨论
5.1 理论方面" >5.1 理论方面
5.2 相关工作" >5.2 相关工作
首页 科技周边 人工智能 图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

Apr 25, 2023 pm 09:25 PM
深度学习

1996年的8月19日至23日,芬兰的瓦萨举行了由芬兰人工智能协会和瓦萨大学组织的芬兰人工智能会议。

会议上发表的一篇论文证明:图灵机就是一个循环神经网络。

没错,这是在26年前!

让我们来看一看,这篇发表于1996年的论文。

1 前言

1.1 神经网络分类

神经网络可用于分类任务,判断输入模式是否属于特定的类别。

长期以来,人们都知道单层前馈网络只能用于对线性可分的模式进行分类,即连续层越多,类的分布就越复杂。

当在网络结构中引入反馈时,感知器输出值被循环利用,连续层的数量原则上变为无限大。

算力有没有质的提升?答案是肯定的。

例如,可以构造一个分类器来判断输入整数是否为素数。

事实证明,用于此目的的网络大小可以是有限的,即使输入整数大小不受限制,可以正确分类的素数数量也是无限的。

在本文中,「由相同计算元素组成的循环网络结构」可用于完成任何(算法上的)可计算功能。

1.2 关于可计算性

根据可计算性理论的基本公理,可以使用图灵机实现可计算函数,有多种方法可以实现图灵机。

定义程序语言图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!。该语言有四种基本操作:

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

这里,V代表任何具有正整数值的变量,j代表任何行号。

可以证明,如果一个函数是图灵可计算的,则可以使用这种简单的语言对其进行编码(有关详细信息,请参见[1])

2 图灵网络

2.1 递归神经网络结构

本文研究的神经网络由感知器组成,它们都具有相同的结构,感知器数q的运算可以定义为

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

其中,当前时刻的感知器输出(用图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!表示)是使用n输入图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!计算的。

非线性函数f现在可定义为

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

这样函数就可以简单地「切断」负值,感知器网络中的循环意味着感知器可以以复杂的方式组合。

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

图1 递归神经网络的整体框架,结构自主无外部输入,网络行为完全由初始状态决定

在图1中,递归结构显示在一个通用框架中:现在图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!n是感知器的数量,从感知器p到感知器q的连接由(1)中的图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!标量权重表示。

即给定初始状态,网络状态会迭代到不再发生变化,结果可以在该稳定状态或网络的「固定点」下读取。

2.2 神经网络建构

接下来阐述该程序图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!如何在感知器网络中实现。该网络由以下节点(或感知器)组成:

  • 对于程序中的每个变量V,都有一个变量节点图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!
  • 对于每个程序行i,都有一个指令节点图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!
  • 对于第i行上的每个条件分支指令,另外还有两个转移节点图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

语言图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!程序的实现包括感知器网络的以下变化:

  • 对于程序中的每个变V,使用以下链接扩充网络:

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

  • 如果程序代码的第i行没有操作(图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!),则使用以下链接扩充网络(假设该节点图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!存在:

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

  • 如果第i行有增量操作(图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!),则按如下方式扩充网络:

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

  • 如果第i行有递减操作(图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!),则按如下方式扩充网络:

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

  • 如果第i行有条件分支(图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!),则按如下方式扩充网络:

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

2.3 等效性证明

现在需要证明的是,「网络的内部状态或网络节点的内容」,可以用程序状态来标识,同时网络状态的连续性与程序流对应。

定义网络的「合法状态」如下:

  • 至所有转换节点图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!(如2.2中所定义)的输出为零(图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!);
  • 至多一个指令节点图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!有单位输出(图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!),所有其他指令节点有零输出,并且
  • 变量节点具有非负整数输出值。

如果所有指令节点的输出均为零,则状态最终状态。一个合法的网络状态可以直接解释为一个程序「快照」——如果,程序计数器在第i行,相应的变量值存储在变量节点中。

网络状态的变化是由非零节点激活的。

首先,关注变量节点,事实证明它们表现为积分器,节点的先前内容被循环回同一节点。

从变量节点到其他节点的唯一连接具有负权重——这就是为什么包含零的节点不会改变,因为非线性的原因(2)。

接下来,详细说明指令节点。假设唯一的非零指令节点在时间k---这对应于程序计数器在程序代码中第i行。

若程序中第i行是,则网络向前一步的行为可表示为(只显示受影响的节点)


图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

事实证明,新的网络状态再次合法。与程序代码相比,这对应于程序计数器被转移到第i+1行。

另一方面,如果程序中的第i行是图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!,则向前一步的行为是

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

这样,除了将程序计数器转移到下一行之外,变量V的值也会递减。如果第i行是

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!,网络的操作将是相同的,除了变量V的值增加。

i行的条件分支操作(IF 图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明! GOTO j)激活更复杂的操作序列:

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

最后,

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

事实证明,在这些步骤之后,网络状态可以再次被解释为另一个程序快照。

变量值已更改,token已转移到新位置,就像执行了相应的程序行一样。

如果token消失,网络状态不再改变——这只有在程序计数器「超出」程序代码时才会发生,这意味着程序终止。

网络的运行也类似对应程序的运行,证明完成。

3 修改

3.1 扩展

定义额外的流线型指令很容易,这些指令可以使编程更容易,并且生成的程序更具可读性和执行速度。例如,

  • i行的无条件分支(GOTO j)可以实现为
  • 将常量c添加到第i行的变量(可以实现为
  • i上的另一种条件分支(IF V=0 GOTO j )可以实现为
  • 此外,可以同时评估各种递增/递减指令。假设要执行以下操作:。只需要一个节点

上述方式绝不是实现图灵机的唯一途径。

这是一个简单的实现,在应用程序中不一定是最佳的。

3.2 矩阵制定

上述构造也可以以矩阵的形式实现。

基本思想是将变量值和「程序计数器」存储在进程状态s中,并让状态转换矩阵A代表节点之间的链接。

矩阵结构的运算可以定义为一个离散时间的动态过程

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

其中非线性向量值函数图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!现在按元素定义,如(2)中所示。

状态转移矩阵A的内容很容易从网络公式中解码出来——矩阵元素是节点之间的权重。

该矩阵公式类似于[3]中提出的「概念矩阵」框架。

4 例子

假设要实现一个简单的函数y=x,也就是说,输入变量x的值应该传递给输出变量y。使用语言图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!可以将其编码为(让「入口点」现在不是第一行而是第三行):

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

生成的感知器网络如图2所示。

实线代表正连接(权重为1),虚线代表负连接(权重-1)。与图1相比,重新绘制了网络结构,并通过在节点中集成延迟元件来简化网络结构。

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

图2 简单程序的网络实现

在矩阵形式中,上面的程序看起来像


矩阵A中的前两行/列对应于连接到代表两个变量YX的节点的链接,接下来的三行代表三个程序行(1、2和3),最后两个代表分支指令所需的附加节点(3'和3'')。

然后是初始(迭代前)和最终(迭代后,找到固定点时)的状态


如果变量节点的值将严格保在0和1之间,则动态系统(3)的操作将是线性的,该函数根本没有影响。

原则上,然后可以在分析中使用线性系统理论。

例如,在图3中,示出了状态转移矩阵A的特征值。

即使在上面的例子中单位圆外有特征值,非线性使得迭代总是稳定的。

事实证明,迭代总是在图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!步骤之后收敛,其中图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!

图3 简单程序的「特征值」

5 讨论

5.1 理论方面

结果表明,图灵机可以编码为感知器网络。

根据定义,所有可计算函数都是图灵可计算的——在可计算性理论的框架内,不存在更强大的计算系统。

这就是为什么,可以得出结论——

循环感知器网络(如上所示)是图灵机的(又一种)形式。

这种等价的好处是可计算性理论的结果很容易获得——例如,给定一个网络和一个初始状态,就不可能判断这个过程最终是否会停止。

上述理论等价性并没有说明计算效率的任何信息。

与传统的图灵机实现(实际上是今天的计算机)相比,网络中发生的不同机制可以使一些功能在这个框架中更好地实现。

 至少在某些情况下,例如,一个算法的网络实现可以通过允许snapshot向量中的多个「程序计数器」来被并行化。

网络的运行是严格本地的,而不是全局的。

一个有趣的问题出现了,例如,是否可以在网络环境中更有效地攻击NP完全问题!

与语言图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!相比,网络实现具有以下「扩展」:

  • 变量可以是连续的,而不仅仅是整数值。实际上,呈现实数的(理论)能力使网络实现比语言图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!更强大,所有以语言呈现的数字都是有理数。
  • 可以同时存在各种「程序计数器」,并且控制的转移可能是「模糊的」,这意味着指令节点提供的程序计数器值可能是非整数。
  • 一个较小的扩展是可自由定义的程序入口点。这可能有助于简化程序——例如,变量的复制在上面的三个程序行中完成,而名义解决方案(参见[1])需要七行和一个额外的局部变量。

与原始程序代码相比,矩阵公式显然是比程序代码更「连续」的信息表示形式——可以(经常)修改参数,而迭代结果不会突然改变。

这种「冗余」也许可以在某些应用中使用。

例如,当使用遗传算法(GA)进行结构优化时,可以使遗传算法中使用的随机搜索策略更加高效:在系统结构发生变化后,可以搜索连续成本函数的局部最小值使用一些传统技术(参见[4])。

通过示例学习有限状态机结构,如[5]中所述,可以知道:在这种更复杂的情况下也采用迭代增强网络结构的方法。

不仅神经网络理论可能受益于上述结果——仅看动态系统公式(3),很明显,在可计算性理论领域发现的所有现象也都以简单的形式存在——寻找非线性动态过程。

例如,停机问题的不可判定性是系统论领域的一个有趣贡献:对于任何表示为图灵机的决策过程,都存在形式(3)的动态系统,它违背了这个过程——对于例如,无法构建通用的稳定性分析算法。

5.2 相关工作

所呈现的网络结构与递归来Hopfield神经网络范式之间存在一些相似之处(例如,参见[2])。

在这两种情况下,「输入」都被编码为网络中的初始状态,「输出」在迭代后从网络的最终状态中读取。

Hopfield网络的固定点是预编程的模式模型,输入是「噪声」模式——该网络可用于增强损坏的模式。

图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!中非线性函数的展望(2)使得上述「图灵网络」中可能的状态数量是无限的。

与单元输出始终为-1或1的Hopfield网络相比,可以看出,理论上,这些网络结构有很大不同。

例如,虽然Hopfield网络中的稳定点集是有限的,但以图灵网络为代表的程序通常具有无限数量的可能结果。

Hopfield网络的计算能力在[6]中进行了讨论。

Petri网是基于事件和并发系统建模的强大工具[7]。

Petri网由位和转移以及连接它们的弧组成。每个地方可能包含任意数量的token,token的分布称为Petri网的标记。

如果转换的所有输入位置都被标记占用,则转换可能会触发,从每个输入位置删除一个标记,并向其每个输出位置添加一个标记。

可以证明,具有附加抑制弧的扩展Petri网也具有图灵机的能力(参见[7])。

上述图灵网与Petri网的主要区别在于Petri网的框架更为复杂,具有专门定制的结构,不能用简单的一般形式(3)来表达。

参考

1 Davis, M. and Weyuker, E.: Computability, Complexity, and Languages---Fundamentals of Theoretical Computer Science. Academic Press, New York, 1983.

2 Haykin, S.: Neural Networks. A Comprehensive Foundation. Macmillan College Publishing, New York, 1994.

3 Hyötyniemi, H.: Correlations---Building Blocks of Intelligence? In Älyn ulottuvuudet ja oppihistoria (History and dimensions of intelligence), Finnish Artificial Intelligence Society, 1995, pp. 199--226.

4 Hyötyniemi, H. and Koivo, H.: Genes, Codes, and Dynamic Systems. In Proceedings of the Second Nordic Workshop on Genetic Algorithms (NWGA'96), Vaasa, Finland, August 19--23, 1996.

5 Manolios, P. and Fanelli, R.: First-Order Recurrent Neural Networks and Deterministic Finite State Automata. Neural Computation 6, 1994, pp. 1155--1173.

6 Orponen, P.: The Computational Power of Discrete Hopfield Nets with Hidden Units. Neural Computation 8, 1996, pp. 403--415.

7 Peterson, J.L.: Petri Net Theory and the Modeling of Systems. Prentice--Hall, Englewood Cliffs, New Jersey, 1981.

参考资料:

https://www.php.cn/link/0465a1824942fac19824528343613213

以上是图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

热门话题

Java教程
1664
14
CakePHP 教程
1423
52
Laravel 教程
1318
25
PHP教程
1268
29
C# 教程
1248
24
常用的AI激活函数解析:Sigmoid、Tanh、ReLU和Softmax的深度学习实践 常用的AI激活函数解析:Sigmoid、Tanh、ReLU和Softmax的深度学习实践 Dec 28, 2023 pm 11:35 PM

激活函数在深度学习中扮演着至关重要的角色,它们能够为神经网络引入非线性特性,使得网络能够更好地学习和模拟复杂的输入输出关系。正确选择和使用激活函数对于神经网络的性能和训练效果有着重要的影响本文将介绍四种常用的激活函数:Sigmoid、Tanh、ReLU和Softmax,从简介、使用场景、优点、缺点和优化方案五个维度进行探讨,为您提供关于激活函数的全面理解。1、Sigmoid函数SIgmoid函数公式简介:Sigmoid函数是一种常用的非线性函数,可以将任何实数映射到0到1之间。它通常用于将不归一

Python中使用BERT进行情感分析的方法及步骤 Python中使用BERT进行情感分析的方法及步骤 Jan 22, 2024 pm 04:24 PM

BERT是由Google在2018年提出的一种预训练的深度学习语言模型。全称为BidirectionalEncoderRepresentationsfromTransformers,它基于Transformer架构,具有双向编码的特点。相比于传统的单向编码模型,BERT在处理文本时能够同时考虑上下文的信息,因此在自然语言处理任务中表现出色。它的双向性使得BERT能够更好地理解句子中的语义关系,从而提高了模型的表达能力。通过预训练和微调的方法,BERT可以用于各种自然语言处理任务,如情感分析、命名

潜藏空间嵌入:解释与示范 潜藏空间嵌入:解释与示范 Jan 22, 2024 pm 05:30 PM

潜在空间嵌入(LatentSpaceEmbedding)是将高维数据映射到低维空间的过程。在机器学习和深度学习领域中,潜在空间嵌入通常是通过神经网络模型将高维输入数据映射为一组低维向量表示,这组向量通常被称为“潜在向量”或“潜在编码”。潜在空间嵌入的目的是捕捉数据中的重要特征,并将其表示为更简洁和可理解的形式。通过潜在空间嵌入,我们可以在低维空间中对数据进行可视化、分类、聚类等操作,从而更好地理解和利用数据。潜在空间嵌入在许多领域中都有广泛的应用,如图像生成、特征提取、降维等。潜在空间嵌入的主要

超越ORB-SLAM3!SL-SLAM:低光、严重抖动和弱纹理场景全搞定 超越ORB-SLAM3!SL-SLAM:低光、严重抖动和弱纹理场景全搞定 May 30, 2024 am 09:35 AM

写在前面今天我们探讨下深度学习技术如何改善在复杂环境中基于视觉的SLAM(同时定位与地图构建)性能。通过将深度特征提取和深度匹配方法相结合,这里介绍了一种多功能的混合视觉SLAM系统,旨在提高在诸如低光条件、动态光照、弱纹理区域和严重抖动等挑战性场景中的适应性。我们的系统支持多种模式,包括拓展单目、立体、单目-惯性以及立体-惯性配置。除此之外,还分析了如何将视觉SLAM与深度学习方法相结合,以启发其他研究。通过在公共数据集和自采样数据上的广泛实验,展示了SL-SLAM在定位精度和跟踪鲁棒性方面优

超强!深度学习Top10算法! 超强!深度学习Top10算法! Mar 15, 2024 pm 03:46 PM

自2006年深度学习概念被提出以来,20年快过去了,深度学习作为人工智能领域的一场革命,已经催生了许多具有影响力的算法。那么,你所认为深度学习的top10算法有哪些呢?以下是我心目中深度学习的顶尖算法,它们在创新性、应用价值和影响力方面都占据重要地位。1、深度神经网络(DNN)背景:深度神经网络(DNN)也叫多层感知机,是最普遍的深度学习算法,发明之初由于算力瓶颈而饱受质疑,直到近些年算力、数据的爆发才迎来突破。DNN是一种神经网络模型,它包含多个隐藏层。在该模型中,每一层将输入传递给下一层,并

一文搞懂:AI、机器学习与深度学习的联系与区别 一文搞懂:AI、机器学习与深度学习的联系与区别 Mar 02, 2024 am 11:19 AM

在当今科技日新月异的浪潮中,人工智能(ArtificialIntelligence,AI)、机器学习(MachineLearning,ML)与深度学习(DeepLearning,DL)如同璀璨星辰,引领着信息技术的新浪潮。这三个词汇频繁出现在各种前沿讨论和实际应用中,但对于许多初涉此领域的探索者来说,它们的具体含义及相互之间的内在联系可能仍笼罩着一层神秘面纱。那让我们先来看看这张图。可以看出,深度学习、机器学习和人工智能之间存在着紧密的关联和递进关系。深度学习是机器学习的一个特定领域,而机器学习

从基础到实践,回顾Elasticsearch 向量检索发展史 从基础到实践,回顾Elasticsearch 向量检索发展史 Oct 23, 2023 pm 05:17 PM

1.引言向量检索已经成为现代搜索和推荐系统的核心组件。通过将复杂的对象(例如文本、图像或声音)转换为数值向量,并在多维空间中进行相似性搜索,它能够实现高效的查询匹配和推荐。从基础到实践,回顾Elasticsearch向量检索发展史_elasticsearchElasticsearch作为一款流行的开源搜索引擎,其在向量检索方面的发展也一直备受关注。本文将回顾Elasticsearch向量检索的发展历史,重点介绍各个阶段的特点和进展。以史为鉴,方便大家建立起Elasticsearch向量检索的全量

AlphaFold 3 重磅问世,全面预测蛋白质与所有生命分子相互作用及结构,准确性远超以往水平 AlphaFold 3 重磅问世,全面预测蛋白质与所有生命分子相互作用及结构,准确性远超以往水平 Jul 16, 2024 am 12:08 AM

编辑|萝卜皮自2021年发布强大的AlphaFold2以来,科学家们一直在使用蛋白质结构预测模型来绘制细胞内各种蛋白质结构的图谱、发现药物,并绘制每种已知蛋白质相互作用的「宇宙图」 。就在刚刚,GoogleDeepMind发布了AlphaFold3模型,该模型能够对包括蛋白质、核酸、小分子、离子和修饰残基在内的复合物进行联合结构预测。 AlphaFold3的准确性对比过去许多专用工具(蛋白质-配体相互作用、蛋白质-核酸相互作用、抗体-抗原预测)有显着提高。这表明,在单个统一的深度学习框架内,可以实现

See all articles