人工智能三阶段:为何科学家联署限制可导致人类灭绝的AI技术
包括OpenAI和谷歌Deepmind负责人在内的专家警告,人工智能可能导致人类灭绝,但是机器如何取代人类呢?
自2022年11月推出以来,ChatGPT——一款使用人工智能根据用户的需求回答问题或生成文本甚至代码的聊天机器人,已经成为历史上增长最快的互联网应用程序。
在仅两个月的时间里,它的活跃用户达到了1亿。据科技监测公司Sensor Town的说法,Instagram花费了长达两年半的时间才达成这个里程碑。
OpenAI公司在微软的资助下开发的ChatGPT广受欢迎,引发了人们对人工智能影响人类未来的激烈猜测。
数十名专家支持在人工智能安全中网页上发表的一份声明,称:“减轻人工智能造成的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
但也有人表示,这种担忧被夸大了。
模仿人类
ChatGPT、DALL-E、Bard和AlphaCode等人工智能产出的文本(从散文、诗歌和笑话到计算机代码)和图像(如图表、照片和艺术品),几乎与人类自己的作品一模一样,难以区分。
学生们用它来写作业,政客们用它来写演讲稿。民主党众议员杰克·奥金克洛斯在美国国会推出了这一资源。
科技巨头IBM称,将停止招聘7800个可以由人工智能处理的岗位。
如果所有这些变化让你不知所措,那就做好准备:
我们还只是处于人工智能的第一阶段,还有两个阶段即将到来,一些科学家害怕这可能会威胁到人类的生存。
以下是三个阶段。
1. 弱人工智能(Artificial Narrow Intelligence)
弱人工智能也被称为限制领域人工智能,专注于单一任务,在一系列功能中执行重复性工作。
它通常从大量数据中学习,比如从互联网上学习,但只在它被编程的特定领域学习。
一个例子是象棋程序,能够击败世界冠军,但无法执行其他任务。
智能手机上到处都是使用这种技术的应用程序,从GPS地图,到了解你的口味并提出建议的音乐和视频程序。
复杂得多的系统,例如无人驾驶汽车和ChatGPT,仍然属于弱人工智能的类别。他们不能在设定的角色范围之外运作,所以不能靠自己做决定。
但一些专家认为,被编程为具有自动学习功能的系统,如ChatGPT或AutoGPT,可能会进入下一个发展阶段。
2. 人工通用智能(Artificial General Intelligence)
当机器能够完成人类所能完成的任何智力任务时,人工通用智能就将到来。
它也被称为“强人工智能”。
6个月的暂停
2023年3月,1000多名技术专家呼吁“所有人工智能实验室立即暂停至少6个月的比GPT-4更强大的人工智能系统的训练”,GPT-4是ChatGPT的最新版本。
包括苹果联合创始人斯蒂夫·沃兹尼亚克以及包括特斯拉和SpaceX公司老板埃隆·马斯克在内的其他科技巨头写道:“具有与人类竞争智力的人工智能系统可能对社会和人类构成深刻的风险。”马斯克曾是OpenAI的联合创始人之一,后来因与公司领导层意见不合而辞去了董事会职务。
在这封由非营利机构“生命未来研究所”发布的信中,专家们表示,如果公司拒绝迅速停止它们的项目,“政府应该介入并实施暂停令”,以便设计和实施安全措施。
“既聪明又愚蠢”
牛津大学人工智能伦理研究所的卡丽莎·韦丽兹在这封信上签了名。她拒绝签署,因为她认为人工智能安全中心最终发布的警告声明过于极端。
“我们目前正在开发的这种人工智能既聪明又愚蠢,”她告诉安德鲁·韦伯,“如果有人尝试过ChatGPT或其他人工智能,他们会注意到它们有非常显著的局限性。”
韦丽兹表示,她担心人工智能会以极高的速度制造错误信息。
随着2024年美国总统选举的临近,我越来越担心像推特和其他重要平台解雇了他们的人工智能道德和安全团队。”
美国政府承认潜在的威胁。白宫在5月4日的一份声明中称:“人工智能是我们这个时代最强大的技术之一,但为了抓住它带来的机遇,我们必须先降低它的风险。”
美国国会曾传唤OpenAI首席执行官山姆·阿尔特曼回答有关ChatGPT的问题。
在参议院听证会上,阿尔特曼表示,随着人工智能的发展,政府对他的行业进行监管是“非常重要的”。
生命未来研究所的公共政策研究员古铁雷斯对记者解释,人工智能带来的巨大挑战之一是,“没有一个由专家组成的联合机构来决定如何监管它,就像政府间气候变化专门委员会那样。”
这就把我们带到了人工智能的第三个也是最后一个阶段。
3. 超人工智能
这个理论认为,一旦我们达到第二阶段,我们将很快进入最后阶段,即“超级人工智能”。当人工智能超过人类智能时,就会出现这种情况。
牛津大学哲学家、人工智能专家博斯特罗姆将超智能定义为“在几乎所有领域,包括科学创造力、一般智慧和社交技能,都远远超过最优秀的人类大脑的智能”。
“人类要成为工程师、护士或律师,必须学习很长时间。古铁雷斯解释说,“通用人工智能的难点在于它能够在我们无法做到的情况下不断自我改进。”。
科幻小说
这个概念让人想起了电影《终结者》的情节,在这部电影中,机器发动了一场毁灭人类的核战争。
普林斯顿大学的计算机科学家纳拉亚南此前曾告诉记者,科幻般的灾难场景是不现实的:“目前的人工智能还远远不足以让这些风险成为现实。最后,它分散了人们对人工智能短期危害的注意力。”
虽然对于机器是否真的能获得人类拥有的那种广泛的智能,尤其是在情商方面,存在很多争论,但这是那些认为我们即将实现通用人工智能的人最担心的事情之一。
最近,"人工智能教父"杰弗里·欣顿警告称,我们可能即将迈过这个里程碑。欣顿是教授机器从经验中学习的先驱。
“我认为,现在(机器)并不比我们聪明。考虑到他已退休并且已经年届75岁,我认为他们很可能很快实现这一点。
欣顿在发给《纽约时报》的一份宣布离开谷歌的声明中表示,他现在对自己所做的工作感到后悔,因为他担心“糟糕的参与者”会利用人工智能做“坏事”。
他警告说,这些机器最终可能会“创造出‘我需要更多权力’这样的子目标”,这将带来“生存风险”。
虽然欣顿承认人工智能可能存在风险,但他认为在短期内其带来的好处要大于风险,因此认为我们不应该停止开发这种技术。”他说。
灭绝还是不朽
英国物理学家斯蒂芬·霍金发出过严厉的警告。
“人工智能的全面发展可能意味着人类的终结,”他在2014年告诉记者,也就是他去世前四年。
他说,具有这种智能水平的机器“将自行发展,并以越来越快的速度重新设计自己”。
纳米机器人与永生
未来主义发明家兼作家库兹韦尔是人工智能的最大爱好者之一,他是谷歌的人工智能研究员,也是硅谷奇点大学的联合创始人。
库兹韦尔认为,人类将能够使用超级智能的人工智能来克服生物障碍。
2015年,他预测,到2030年,因为纳米机器人(非常小的机器人)在我们体内工作,能够修复和治愈任何损伤或疾病,人类将实现永生。
人工智能管理
古铁雷斯同意,关键是要创建一个人工智能治理系统。
“想象一下这样的未来:一个实体拥有地球上每个人及其习惯的大量信息(因为互联网搜索),它可以用我们无法意识到的方式控制我们。”他说。
“最糟糕的场景并不是人类与机器人之间的战争。我们与一个比我们更聪明的存在共享这个星球,而且很遗憾的是,我们没有意识到自己被操纵了。”
以上是人工智能三阶段:为何科学家联署限制可导致人类灭绝的AI技术的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

本站6月27日消息,剪映是由字节跳动旗下脸萌科技开发的一款视频剪辑软件,依托于抖音平台且基本面向该平台用户制作短视频内容,并兼容iOS、安卓、Windows、MacOS等操作系统。剪映官方宣布会员体系升级,推出全新SVIP,包含多种AI黑科技,例如智能翻译、智能划重点、智能包装、数字人合成等。价格方面,剪映SVIP月费79元,年费599元(本站注:折合每月49.9元),连续包月则为59元每月,连续包年为499元每年(折合每月41.6元)。此外,剪映官方还表示,为提升用户体验,向已订阅了原版VIP

通过将检索增强生成和语义记忆纳入AI编码助手,提升开发人员的生产力、效率和准确性。译自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。虽然基本AI编程助手自然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和正确的代码建议。这些编码助手生成的代码适合解决他们负责解决的问题,但通常不符合各个团队的编码标准、惯例和风格。这通常会导致需要修改或完善其建议,以便将代码接受到应

大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合

想了解更多AIGC的内容,请访问:51CTOAI.x社区https://www.51cto.com/aigc/译者|晶颜审校|重楼不同于互联网上随处可见的传统问题库,这些问题需要跳出常规思维。大语言模型(LLM)在数据科学、生成式人工智能(GenAI)和人工智能领域越来越重要。这些复杂的算法提升了人类的技能,并在诸多行业中推动了效率和创新性的提升,成为企业保持竞争力的关键。LLM的应用范围非常广泛,它可以用于自然语言处理、文本生成、语音识别和推荐系统等领域。通过学习大量的数据,LLM能够生成文本

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S

本站8月1日消息,SK海力士今天(8月1日)发布博文,宣布将出席8月6日至8日,在美国加利福尼亚州圣克拉拉举行的全球半导体存储器峰会FMS2024,展示诸多新一代产品。未来存储器和存储峰会(FutureMemoryandStorage)简介前身是主要面向NAND供应商的闪存峰会(FlashMemorySummit),在人工智能技术日益受到关注的背景下,今年重新命名为未来存储器和存储峰会(FutureMemoryandStorage),以邀请DRAM和存储供应商等更多参与者。新产品SK海力士去年在
