如何解决人工智能的“常识”问题
译者 | 李睿
审校 | 孙淑娟
近年来,深度学习在人工智能的一些最具挑战性的领域取得了长足的进步,其中包括计算机视觉、语音识别和自然语言处理。
然而,深度学习系统仍然没有解决一些问题。因为深度学习系统不擅长处理新情况,它们需要大量数据进行训练,有时还会犯一些奇怪的错误,甚至连它们的创造者都会感到困惑。
一些科学家认为,这些问题要以通过创建越来越大的神经网络并在越来越大的数据集上进行训练来解决。也有人认为,人工智能领域需要的是人类的一些“常识”。
计算机科学家Ronald J.Brachman和Hector J.Levesque在他们出版的新书《像我们这样的机器》中,提出他们对人工智能难题这一缺失部分的看法和可能的解决方案,而“常识“这一难题已经困扰了研究人员几十年的时间。在接受行业媒体的采访时,Brachman讨论了什么是常识,什么不是常识,为什么机器没有常识,以及“知识表示”这一概念是如何引导人工智能社区朝着正确的方向发展的。“知识表示”这个概念已经存在了几十年,但在深度学习热潮中被搁置了。
尽管仍停留在假设领域,但《像我们这样的机器》这本书为潜在的研究领域提供了一个新的视角,这得益于这两位自从上世纪70年代以来一直深入研究人工智能的科学家。
优秀人工智能系统会犯奇怪错误
Brachman说,“在过去的10到12年,随着人们对深度学习表现出非凡的热情,有很多关于基于深度学习的系统能够完成我们最初希望人工智能系统所做的一切的讨论。”
在人工智能的发展早期,其愿景是创建一个自给自足的自主系统,并且可能以机器人的形式出现,它可以在几乎不需要或根本不需要人工干预的情况下独立做事。
Brachman说,“如今,由于许多人对深度学习所能取得的成就感到兴奋,研究的范围已经缩小了很多。特别是在工业领域,大量资金和人才招聘推动了对基于经验或经过实例训练的系统的高度关注,许多人声称已经接近通用人工智能,或者说‘有效的老式人工智能’(GOFAI)或象征性方法完全过时或没有必要。”
显而易见的是,尽管令人印象深刻,但深度学习系统正面临着尚未解决的令人困惑的问题。神经网络容易受到对抗性攻击,其中对输入值的特制修改会导致机器学习模型对其输出进行突然的错误更改。深度学习也在努力理解简单的因果关系,而且在构思概念和将它们组合在一起方面的表现非常糟糕。大型语言模型最近成为了一个特别关注的领域,但有时会在生成连贯且令人印象深刻的文本时犯下非常愚蠢的错误。
Brachman说,“人们对人工智能犯的这些错误的看法是,它们看起来很愚蠢、很无知,人类很少犯这种错误。但是重要的是,导致这些错误的原因有些难以解释。”
这些错误导致Brachman和Levesque反思当今人工智能技术中缺少什么,以及需要什么来补充或取代示例驱动的训练神经网络系统。
Brachman说,“如果仔细想想,这些系统显然缺少的是人类所称的常识,即能够看到对许多人来说显而易见的事情,并快速得出简单和明显的结论,并能够在决定做一些立即意识到是荒谬或错误选择的事情时阻止自己。”
什么是常识?
人工智能社区从早期开始就一直在谈论常识。事实上,John McCarthy于1958年撰写的最早的人工智能论文之一的名称为《具有常识的程序》。
Brachman说,“这不是什么新鲜事,也不是我们发明的名称,但这一领域已经忽视了人工智能先驱者所说的核心意义。如果进一步了解什么是常识以及拥有它的意义,对我们来说更重要的是,它是如何工作的以及将如何实施它,人们在心理学文献中几乎找不到指导。”
在《像我们这样的机器》一书中,Brachman和Levesque将常识描述为“有效利用普通、日常、经验知识来实现普通、日常、实际目标的能力”。
常识对生存至关重要。人类和高等动物已经进化到通过经验学习,发展常规和自动驾驶技能,可以处理他们每天面临的大多数情况。但日常生活不仅仅是人们反复看到的例行公事。人们经常面临从未见过的新情况。它们中的一些可能与正常情况有很大不同,但大多数时候,人们看到的事物与已经习惯的有些不同。在人工智能讨论中,这有时被称为“长尾”。
Brachman说,“在我们看来,当这些例行公事被打断时,常识实际是第一个被激活的事物,能让人们快速了解新情况,记住之前所做的事情,快速调整记忆,并将其应用于新情况,并继续前进。”
在某种程度上,常识与心理学家、诺贝尔奖获得者Daniel Kahneman推广的双系统思维范式有些不同。常识并不是快速、自动驾驶的系统1思维,它执行人们可以在没有特意集中精力的情况下完成的大多数日常任务(例如,刷牙、系鞋带、扣扣子、在熟悉的区域开车)。它需要积极思考来来打破目前的常规。
与此同时,常识也不是系统2思维,系统2思维是一种缓慢的思维模式,是需要全神贯注、循序渐进的思维(例如,规划为期六周的旅行、设计软件、解决复杂的数学方程)。
Brachman说,“人们可以深思熟虑,以应对挑战。这种思考会让人们的大脑感到疲乏,而且速度很慢。常识让人们在几乎任何日常生活中都能避开这种情况,因为不需要深入思考下一步该做什么。”
Brachman和Levesque在他们出版的著作中强调,常识是一种“肤浅的认知现象”,与深思熟虑、有条不紊的分析相比,它运行速度更快。
他们写道,“如果需要大量思考才能弄清楚,这不是常识。我们可以将其视为‘反思性思维’,‘反思性’与‘思考’一样重要,”
没有常识的人工智能面临的危险
常识需要可预测性、信任、可解释性和问责制。
Brachman说,“大多数人并不会犯一些奇怪的错误。虽然人们可能会做一些傻事,但在反思之后可能会避免这样的错误。虽然人类并不完美,但有些错误在一定程度上是可以预测的。”
没有常识的人工智能系统面临的挑战是,当它们达到训练的极限时可能会犯错。Brachman说,这些错误是完全不可预测和无法解释的。
Brachman说,“没有常识的人工智能系统没有这种观点,没有阻止自己做奇怪事情的退路,而且会变得脆弱。当它们犯错时,错误对它们来说根本没有任何意义。”
这些错误可能是无害的,例如给图片贴错标签;也可能是极其有害的,例如导致自动驾驶汽车驶入错误的车道。
Brachman和Levesque在书中写道,“如果一个人工智能系统遇到的问题是下棋,而它所考虑就是赢得比赛,那么常识对它们来说不会发挥作用,而当人们玩国际象棋游戏时,常识将发挥作用。”
因此,随着人工智能系统进入开放领域的敏感应用,例如驾驶汽车或与人类合作,甚至参与开放式对话,常识将发挥非常关键的作用。这些领域总是会发生新奇的事情。
Brachman和Levesque在《像我们这样的机器》书中写道,“如果我们希望人工智能系统能够以合理的方式处理现实世界中普遍发生的事情,我们需要的不仅仅是通过对已经发生的事情进行采样而得出的专业知识。仅仅基于看到和内化过去发生的事情来预测未来是行不通的。我们需要常识。”
重新审视符号人工智能
大多数科学家都认为当前的人工智能系统缺乏常识。然而,涉及解决方案时通常出现一些分歧意见。一个流行的趋势是继续使神经网络的规模变得越来越大。有证据表明,更大的神经网络继续进行渐进式改进。在某些情况下,大型神经网络表现出零样本学习技能,它们执行未经训练的任务。
然而,也有大量的研究和实验表明,更多的数据和计算并不能解决人工智能系统没有常识的问题,而只是将它们隐藏在更大、更混乱的数字权重和矩阵运算中。
Brachman说,“这些系统注意并内化相关性或模式。它们不会形成‘概念’。即使这些系统与语言互动,它们也只是模仿人类行为,而没有人们认为他们拥有的潜在心理和概念机制。”
Brachman和Levesque主张创造一种系统,将常识性知识和对世界的常识性理解编码。
他们在书中写道:“常识知识是关于世界上的事物及其所具有的属性,以我们所谓的概念结构为中介,它是关于可能存在的各种事物以及它们可能拥有的各种属性的一系列想法。知识将通过符号化表示和在这些符号结构上执行计算操作来使用。关于该做什么的常识性决策相当于使用这些表征知识来考虑如何实现目标,以及如何对观察到的情况做出反应。”
Brachman和Levesque认为,该领域需要回顾并重新审视早期关于符号人工智能的一些工作,以便为计算机带来常识。他们称之为“知识表示”假设。这本书详细介绍了如何构建知识表示(KR)系统,以及如何将不同的知识片段结合起来,形成更复杂的知识和推理形式。
根据知识表示(KR)假设,常识知识的表示将分为两个部分:“一个表示世界状态的世界模型,另一个是表示概念结构的概念模型,而这是一个可用于对世界中的项目进行分类的概括框架。”
Brachman表示“我们的观点是回到早期关于人工智能的一些思考,其中某种符号和符号操作程序(人们过去称之为推理引擎)可以用来编码和使用人们称之为常识的世界基础知识:直观或幼稚的物理学,对人类和其他主体的行为方式以及意图和信念的基本了解,时间和事件如何运作,因果关系等。这些都是我们在初始一两年内获得的所有知识。正式表示的世界知识实际上可以对机器的行为产生因果影响,并且还可以通过操纵符号来做所有事情,例如组合性。并将人们熟悉的事物以新的方式呈现出来。”
Brachman强调,他们在书中提出的假设在未来可以被推翻。
Brachman说,“从长远来看,到底是预构建、预编码所有这些知识,还是让人工智能系统以不同的方式学习,我不知道。但作为一个假设和实验,我认为人工智能的下一步应该是尝试建立这些知识库,并让系统使用它们来处理日常生活中的意外事件,对如何处理熟悉和不熟悉的情况作出粗略的猜测。”
Brachman和Levesque的假设建立在先前创建大型符号常识知识库(例如Cyc)的基础之上,该项目可以追溯到上世纪80年代,并收集了数百万条关于世界的规则和概念。
Brachman说,“我认为我们需要走得更远。我们需要关注自主决策机器如何在日常的决策环境中使用这些事物。积累事实知识并能够回答危险类型的问题是一回事;但在这个纷繁嘈杂的世界里工作,并能够理性、及时地应对不可预见的意外,则完全是另一回事。”
机器学习在常识中有作用吗?
Brachman表示,基于机器学习的系统将继续在人工智能的感知方面发挥关键作用。
他说,“我不会推动使用一阶谓词演算来处理人造视网膜上的像素或处理速度信号处理的符号操作系统。这些机器学习系统非常擅长低感官水平的识别任务,目前尚不清楚这些事物在认知链中有多高,但它们并没有走到最后,因为它们不会在人们在场景中看到的事物和自然语言之间形成概念和联系。”
神经网络和符号系统的结合是近年来越来越突出的一个想法。Gary Marcus、Luis Lamb和Joshua Tenenbaum以及其他科学家正在提议开发“神经符号”系统,将最好的符号系统和基于学习的系统结合在一起,以解决人工智能当前面临的挑战。
尽管Brachman认同该领域正在进行的大部分工作,但他也表示,目前对混合人工智能的看法需要一些调整。
他说:“我认为目前的任何神经符号系统难以解释常识与更有条理、更深入的符号推理之间的差异,而这些符号推理是数学、繁重的规划和深度分析的基础。我希望在这个混合人工智能世界中看到的是真正考虑常识,让机器像人类一样利用常识,让它做与人类所做的相同的事情。”
原文标题:How to solve AI’s “common sense” problem,作者:Ben Dickson
以上是如何解决人工智能的“常识”问题的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

本站6月27日消息,剪映是由字节跳动旗下脸萌科技开发的一款视频剪辑软件,依托于抖音平台且基本面向该平台用户制作短视频内容,并兼容iOS、安卓、Windows、MacOS等操作系统。剪映官方宣布会员体系升级,推出全新SVIP,包含多种AI黑科技,例如智能翻译、智能划重点、智能包装、数字人合成等。价格方面,剪映SVIP月费79元,年费599元(本站注:折合每月49.9元),连续包月则为59元每月,连续包年为499元每年(折合每月41.6元)。此外,剪映官方还表示,为提升用户体验,向已订阅了原版VIP

通过将检索增强生成和语义记忆纳入AI编码助手,提升开发人员的生产力、效率和准确性。译自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。虽然基本AI编程助手自然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和正确的代码建议。这些编码助手生成的代码适合解决他们负责解决的问题,但通常不符合各个团队的编码标准、惯例和风格。这通常会导致需要修改或完善其建议,以便将代码接受到应

大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合

想了解更多AIGC的内容,请访问:51CTOAI.x社区https://www.51cto.com/aigc/译者|晶颜审校|重楼不同于互联网上随处可见的传统问题库,这些问题需要跳出常规思维。大语言模型(LLM)在数据科学、生成式人工智能(GenAI)和人工智能领域越来越重要。这些复杂的算法提升了人类的技能,并在诸多行业中推动了效率和创新性的提升,成为企业保持竞争力的关键。LLM的应用范围非常广泛,它可以用于自然语言处理、文本生成、语音识别和推荐系统等领域。通过学习大量的数据,LLM能够生成文本

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

编辑|萝卜皮自2021年发布强大的AlphaFold2以来,科学家们一直在使用蛋白质结构预测模型来绘制细胞内各种蛋白质结构的图谱、发现药物,并绘制每种已知蛋白质相互作用的「宇宙图」 。就在刚刚,GoogleDeepMind发布了AlphaFold3模型,该模型能够对包括蛋白质、核酸、小分子、离子和修饰残基在内的复合物进行联合结构预测。 AlphaFold3的准确性对比过去许多专用工具(蛋白质-配体相互作用、蛋白质-核酸相互作用、抗体-抗原预测)有显着提高。这表明,在单个统一的深度学习框架内,可以实现

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S
