目录
Transformer:做大脑做的事
△图源:维基百科
△Tim Behrens (左) James Whittington(右) 图源:quantamagazine
Transformer帮助我们理解大脑
参考链接:
首页 科技周边 人工智能 Transformer模仿大脑,在预测大脑成像上超越42个模型,还能够模拟感官与大脑之间的传输

Transformer模仿大脑,在预测大脑成像上超越42个模型,还能够模拟感官与大脑之间的传输

Apr 11, 2023 pm 09:16 PM
模型 模仿 大脑

现在很多AI应用模型,都不得不提到一个模型结构:

Transformer。

它抛弃了传统的CNN和RNN,完全由Attention机制组成。

Transformer不仅赋予了各种AI应用模型写文作诗的功能,而且在多模态方面也大放异彩。

尤其是ViT(Vision Transformer)出来之后,CV和NLP之间的模型壁垒被打破,仅使用Transformer一个模型就能够处理多模态的任务。

(谁看完不得感叹一句它的强大啊)

虽然一开始Transformer是为语言任务而设计的,但它在模仿大脑方面也有着很大的潜力。

这不,有位科学作家写了篇博客,就是关于Transformer是如何进行大脑建模的。

图片

来康康他是怎么说的?

Transformer:做大脑做的事

首先,还得梳理一下它的演变过程。

Transformer机制在5年前首次出现,它能够有这么强大的表现,很大程度上归功于其Self-attention机制。

至于Transformer是如何模仿大脑的,继续往下看。

在2020年,奥地利计算机科学家Sepp Hochreiter的研究团队利用Transformer重组了Hopfield神经网络 (一种记忆检索模型,HNN)。

其实,Hopfield神经网络在40年前就已经被提出,而研究团队之所以时隔数十年选择重组这个模型原因如下:

其一,这个网络遵循一个普遍的规律:同时活跃的神经元之间彼此会建立很强的联系。

其二,Hopfield神经网络在检索记忆的过程中与Transformer执行Self-attention机制时有一定的相似之处。

所以研究团队便将HNN进行重组,让各个神经元之间建立更好的联系,以便存储和检索更多的记忆。

重组的过程,简单来说,就是把Transformer的注意力机制融合进HNN,使原来不连续的HNN变为可连续态。

图片

△图源:维基百科

重组之后的Hopfield网络可以作为层集成到深度学习架构中,以允许存储和访问原始输入数据、中间结果等。

因此,Hopfield本人和麻省理工学院沃森人工智能实验室的Dmitry Krotov都称:

基于Transformer的Hopfield神经网络在生物学上是合理的。

虽说这在一定程度上与大脑的工作原理相像,但在某些方面还不够准确。

因此,计算神经科学家Whittington和Behrens调整了Hochreiter的方法,对重组后的Hopfield网络做出了一些修正,进一步提高了该模型在神经科学任务中(复制大脑中的神经放电模式)的表现。

图片

△Tim Behrens (左) James Whittington(右) 图源:quantamagazine

简单来说,就是在编码-解码时,模型不再把记忆编码为线性序列,而是将其编码为高维空间中的坐标。

具体而言,就是在模型中引入了TEM(Tolman-Eichenbaum Machine)。
TEM是为了模仿海马体的空间导航作用而构建的一个关联记忆系统。

它能够概括空间和非空间的结构知识,预测在空间和关联记忆任务中观察到的神经元表现,并解释在海马和内嗅皮层中的重新映射现象。

将拥有这么多功能的TEM与Transformer合并,组成TEM-transformer(TEM-t)。

然后,再让TEM-t模型在多个不同的空间环境中进行训练,环境的结构如下图所示。

图片

在TEM-t中,它依旧拥有Transformer的Self-attention机制。这样一来,模型的学习成果便能迁移到新环境中,用于预测新的空间结构。

研究也显示,相较于TEM,TEM-t在进行神经科学任务时效率更高,而且它也能在更少学习样本的情况下处理更多的问题。

图片

Transformer在模仿大脑模式的道路上越来越深入,其实换句话说,Transformer模式的发展也在不断促进我们理解大脑功能的运作原理。

不仅如此,在某些方面,Transformer还能提高我们对大脑其他功能的理解。

Transformer帮助我们理解大脑

比如说,在去年,计算神经科学家Martin Schrimpf分析了43种不同的神经网络模型,以观察它们对人类神经活动测量结果:功能磁共振成像(fMRI)和皮层脑电图(EEG)报告的预测能力。

其中,Transformer模型几乎可以预测成像中发现的所有变化。

倒推一下,或许我们也可以从Transformer模型中预见大脑对应功能的运作。

除此之外,最近计算机科学家Yujin Tang和 David Ha设计了一个模型,可以通过Transformer模型以随机、无序的方式有意识地发送大量数据,模拟人体如何向大脑传输感官观察结果。

这个Transformer就像人类的大脑一样,能够成功地处理无序的信息流。

虽然Transformer模型在不断进步,但也只是朝着精确大脑模型迈出的一小步,到达终点还需要更深入的研究。

如果想详细了解Transformer是如何模仿人脑的,可以戳下方链接~

参考链接:

[1]https://www.quantamagazine.org/how-ai-transformers-mimic-parts-of-the-brain-20220912/

[2]https://www.pnas.org/doi/10.1073/pnas.2105646118

[3]https://openreview.net/forum?id=B8DVo9B1YE0​

以上是Transformer模仿大脑,在预测大脑成像上超越42个模型,还能够模拟感官与大脑之间的传输的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
2 周前 By 尊渡假赌尊渡假赌尊渡假赌
仓库:如何复兴队友
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island冒险:如何获得巨型种子
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一 全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源MoE模型来了。DeepSeek-V2是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效的特点。它由236B个参数组成,其中21B个参数用于激活每个标记。与DeepSeek67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,最大生成吞吐量提高到5.76倍。DeepSeek是一家探索通用人工智

替代MLP的KAN,被开源项目扩展到卷积了 替代MLP的KAN,被开源项目扩展到卷积了 Jun 01, 2024 pm 10:03 PM

本月初,来自MIT等机构的研究者提出了一种非常有潜力的MLP替代方法——KAN。KAN在准确性和可解释性方面表现优于MLP。而且它能以非常少的参数量胜过以更大参数量运行的MLP。比如,作者表示,他们用KAN以更小的网络和更高的自动化程度重现了DeepMind的结果。具体来说,DeepMind的MLP有大约300,000个参数,而KAN只有约200个参数。KAN与MLP一样具有强大的数学基础,MLP基于通用逼近定理,而KAN基于Kolmogorov-Arnold表示定理。如下图所示,KAN在边上具

你好,电动Atlas!波士顿动力机器人复活,180度诡异动作吓坏马斯克 你好,电动Atlas!波士顿动力机器人复活,180度诡异动作吓坏马斯克 Apr 18, 2024 pm 07:58 PM

波士顿动力Atlas,正式进入电动机器人时代!昨天,液压Atlas刚刚「含泪」退出历史舞台,今天波士顿动力就宣布:电动Atlas上岗。看来,在商用人形机器人领域,波士顿动力是下定决心要和特斯拉硬刚一把了。新视频放出后,短短十几小时内,就已经有一百多万观看。旧人离去,新角色登场,这是历史的必然。毫无疑问,今年是人形机器人的爆发年。网友锐评:机器人的进步,让今年看起来像人类的开幕式动作、自由度远超人类,但这真不是恐怖片?视频一开始,Atlas平静地躺在地上,看起来应该是仰面朝天。接下来,让人惊掉下巴

谷歌狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理训练最快选择 谷歌狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理训练最快选择 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基准测试中性能已经超过Pytorch和TensorFlow,7项指标排名第一。而且测试并不是在JAX性能表现最好的TPU上完成的。虽然现在在开发者中,Pytorch依然比Tensorflow更受欢迎。但未来,也许有更多的大模型会基于JAX平台进行训练和运行。模型最近,Keras团队为三个后端(TensorFlow、JAX、PyTorch)与原生PyTorch实现以及搭配TensorFlow的Keras2进行了基准测试。首先,他们为生成式和非生成式人工智能任务选择了一组主流

AI颠覆数学研究!菲尔兹奖得主、华裔数学家领衔11篇顶刊论文|陶哲轩转赞 AI颠覆数学研究!菲尔兹奖得主、华裔数学家领衔11篇顶刊论文|陶哲轩转赞 Apr 09, 2024 am 11:52 AM

AI,的确正在改变数学。最近,一直十分关注这个议题的陶哲轩,转发了最近一期的《美国数学学会通报》(BulletinoftheAmericanMathematicalSociety)。围绕「机器会改变数学吗?」这个话题,众多数学家发表了自己的观点,全程火花四射,内容硬核,精彩纷呈。作者阵容强大,包括菲尔兹奖得主AkshayVenkatesh、华裔数学家郑乐隽、纽大计算机科学家ErnestDavis等多位业界知名学者。AI的世界已经发生了天翻地覆的变化,要知道,其中很多文章是在一年前提交的,而在这一

时间序列预测+NLP大模型新作:为时序预测自动生成隐式Prompt 时间序列预测+NLP大模型新作:为时序预测自动生成隐式Prompt Mar 18, 2024 am 09:20 AM

今天我想分享一个最新的研究工作,这项研究来自康涅狄格大学,提出了一种将时间序列数据与自然语言处理(NLP)大模型在隐空间上对齐的方法,以提高时间序列预测的效果。这一方法的关键在于利用隐空间提示(prompt)来增强时间序列预测的准确性。论文标题:S2IP-LLM:SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting下载地址:https://arxiv.org/pdf/2403.05798v1.pdf1、问题背景大模型

特斯拉机器人进厂打工,马斯克:手的自由度今年将达到22个! 特斯拉机器人进厂打工,马斯克:手的自由度今年将达到22个! May 06, 2024 pm 04:13 PM

特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:对于Optimus的手,英伟达科学家JimFan给出了高度的评价:Optimus的手是全球五指机器人里最灵巧的之一。它的手不仅有触觉

FisheyeDetNet:首个基于鱼眼相机的目标检测算法 FisheyeDetNet:首个基于鱼眼相机的目标检测算法 Apr 26, 2024 am 11:37 AM

目标检测在自动驾驶系统当中是一个比较成熟的问题,其中行人检测是最早得以部署算法之一。在多数论文当中已经进行了非常全面的研究。然而,利用鱼眼相机进行环视的距离感知相对来说研究较少。由于径向畸变大,标准的边界框表示在鱼眼相机当中很难实施。为了缓解上述描述,我们探索了扩展边界框、椭圆、通用多边形设计为极坐标/角度表示,并定义一个实例分割mIOU度量来分析这些表示。所提出的具有多边形形状的模型fisheyeDetNet优于其他模型,并同时在用于自动驾驶的Valeo鱼眼相机数据集上实现了49.5%的mAP

See all articles