重写内容如下:机器之心报道
编辑:陈萍、大盘鸡
LeCun 表示,绝大多数学术同行都非常支持开放式 AI 研发,但还是有反对者。
对于人工智能风险的问题,各方专家们的意见并不一致。有人发起了一封联名信,呼吁人工智能实验室立即停止研究,深度学习的重要人物Geoffrey Hinton和Yoshua Bengio等都支持这个观点
就在近几日,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施,将安全和道德实践纳入重点,呼吁各国政府应该采取行动,管理 AI 带来的风险。
重写后的内容为: 在文中提及了一些紧急的治理措施,比如让国家机构参与其中,以避免人们滥用人工智能。为了有效地监管,政府需要全面了解人工智能的发展。监管机构应采取一系列措施,如模型注册、有效保护举报人的权益,以及对模型开发和超级计算机使用进行监控等。监管机构还需在部署之前对先进的人工智能系统进行评估,以了解其潜在危险功能
不仅如此,时间再往前一点,今年五月,美国非营利组织人工智能安全中心发表了一份声明,警告人工智能应被视为与流行病一样存在灭绝人类的风险,支持该声明的人同样包括 Hinton、Bengio 等人。
今年 5 月,为了畅所欲言地谈论人工智能带来的风险,Hinton 还辞去了在谷歌的工作。在一次纽约时报的采访中,他表示:「大多数人认为这(AI 危害)还很遥远。我过去也认为这还很遥远,可能是 30 到 50 年甚至更长的时间。但显然,我现在不这么想了。」
在 Hinton 等人看来,管理人工智能带来的风险是一项紧迫的任务
尽管如此,尤安·勒孔作为深度学习三巨头之一,对于人工智能的发展持有非常乐观的态度。他对于签署关于人工智能风险的联名信基本上持反对态度,认为人工智能的发展并没有构成对人类的威胁
刚刚, LeCun 在与 X 用户的交流中,对网友的一些关于 AI 风险的问题给出了回答。
这位网友询问了LeCun对文章《‘This is his climate change’: The experts helping Rishi Sunak seal his legacy》的看法。文章认为,Hinton、Bengio等人联合发表的声明改变了人们对人工智能的看法。从把人工智能视为辅助工具,转变为将其视为潜在威胁。文章接着表示,近几个月来,英国观察家们发现越来越多的人对人工智能会造成世界末日的担忧。今年三月,英国政府公布了一份白皮书,承诺不会扼杀人工智能创新。但仅过两个月,英国就开始讨论对人工智能设置限制,并敦促美国加入其全球人工智能规则计划
請將內容重新撰寫成中文,不需要出現原句
需要改写的内容是:https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/
LeCun 对这篇文章的反应是这样的,他不希望英国对 AI 存在宿命论风险的担忧传播给其他国家。
之后,就有了我们前面提到的 LeCun 与 X 用户的交流,以下是 LeCun 全部的回答:
「Altman、Hassabis 以及 Amodei 正在进行大规模的企业游说。他们正尝试对 AI 产业进行监管。而你、Geoff,还有 Yoshua 正在给那些游说禁止开放 AI 研究的人提供『弹药』。
假如你们的宣传活动成功,不可避免地会导致我们所认为的灾难结果:少数公司将掌控人工智能
绝大多数学术同行都非常支持开放式 AI 研发。很少有人相信你所鼓吹的末日场景。你、Yoshua、Geoff 和 Stuart 是唯一的例外。
和许多人一样,我非常支持开放式 AI 平台,因为我相信各种力量的结合:人们的创造力、民主、市场力量和产品法规。我也知道,生产安全且受我们控制的 AI 系统是可能的。我已经为此提出了具体建议。这一切都将促使人们做正确的事。
AI并不是凭空产生的,它是我们无法控制的自然现象,但事实并非如此。它的进步是由我们所认识的每一个人推动的。我们和他们都有能力创造出“正确的事物”。要求对研发进行监管,其实暗含了这样的假设:这些人和他们所服务的组织都是无能、鲁莽、自我毁灭或邪恶的。但事实并非如此
我已经提出了很多论据来证明你所害怕的末日场景是荒谬的。在此我就不再赘述了。但主要的一点是,如果强大的人工智能系统是由目标(包括护栏)驱动的,那么它们就会是安全可控的,因为它们设定了这些护栏和目标。(目前的自回归语言模型并不是由目标驱动的,所以我们不要从自回归语言模型的弱点来推断)
关于开源这一事项,你的活动将产生与你追求的完全相反的效果。未来,人工智能系统将成为人类知识和文化的宝库,我们需要的是开源和免费的平台,以便每个人都能为其做出贡献。只有开放的平台才能反映人类全部知识和文化,这就要求对这些平台的贡献是众包的,类似于维基百科。如果平台不开放,这样做是行不通的
如果开放源代码的 AI 平台被监管,那么另一种情况将一定发生,那就是少数公司将控制 AI 平台,进而控制人们的全部数字依赖。这对民主意味着什么?这对文化多样性意味着什么?这是让我彻夜难眠的原因。」
在 LeCun 长推文的下方,也有许多人「声援」他的观点。
蒙特利尔大学计算机科学与运筹学系教授Irina Rish是Mila-Quebec AI研究所的核心成员。她认为,支持开源AI的研究人员们不应该再保持沉默,而应该在新兴AI的发展中发挥引领作用
e/acc创始人 Beff Jezos 也在评论区中表示,这样的评论是重要的,也是人们所需要的。
网友表示,一开始,讨论安全问题可以丰富大家对未来科技的想象,但是耸人听闻的科幻小说不应当导致垄断政策的出现。
播客主持人 Lex Fridman 对这场辩论有更多的期待。
关于 AI 风险的问题讨论也将影响着 AI 的未来发展。当一个观点抢占风头时,人们会盲目跟从。只有两方能够不断地进行理性探讨,才能够真正地看清 AI 的「真面目」。
以上是图灵奖得主吵起来了,LeCun:Bengio、Hinton等AI灭绝论是荒谬的的详细内容。更多信息请关注PHP中文网其他相关文章!