使用ChatGPT时,为什么不建议把AI拟人化?

PHPz
发布: 2023-06-03 10:20:16
转载
1173 人浏览过

似乎每个人都在谈论人工智能。如果你感到无法理解别人在说什么或者不确定他们在做什么,不要担心,我能提供帮助。

我邀请了业内一些最优秀的人工智能记者,来分享他们关于如何自信地谈论人工智能的最佳建议。我和我的同事们每天都痴迷于这项技术,倾听人工智能专家的意见,然后将他们所说的话翻译成清晰的、有关联的文字,并且包括重要的背景资料。所以,我们对我们所谈论的东西略知一二。

以下是在谈论人工智能时需要注意的七件事。

使用ChatGPT时,为什么不建议把AI拟人化?

不要担心听起来很蠢

《华盛顿邮报》科技文化记者尼塔莎·蒂库(Nitasha Tiku)表示:“尽管科技行业坚持认为大型语言模型将改变世界,但它并不善于清楚地解释自己。如果你感到困惑,你并不是一个人。”她补充道,关于人工智能的对话充斥着行话,这只起到了反作用。“幻觉(Hallucination)”是人工智能系统虚构事物的一种特殊说法;而“提示工程师”只是那些知道如何与人工智能对话以获得他们想要的东西的人。

蒂库建议人们观看 YouTube 上关于人工智能概念和模型的解说。她说:“跳过人工智能网红,选择更低调的主持人。如果你需要简洁的技术方案,IBM Technology 是一个不错的选择。可以帮助揭开人工智能工作原理的神秘面纱。”

无论你怎么谈论人工智能,都会有人抱怨。《麻省理工科技评论》人工智能高级编辑威尔·道格拉斯·海文(Will Douglas Heaven)表示:“有时感觉人工智能的世界已经分裂成了许多粉圈,每个人都在高谈阔论,坚持自己的定义和信仰,却不想让别人搞懂。弄清楚人工智能对你来说意味着什么,并坚持下去。”

使用ChatGPT时,为什么不建议把AI拟人化?

具体描述你所说的是什么样的人工智能

《华尔街日报》中国科技与社会记者凯伦·郝(音,Karen Hao)表示:“在公共话语中,‘人工智能’通常被视为一种东西,但它实际上是一百种不同事物的集合。”。

郝说,区分你所说的是人工智能的哪个功能很有帮助,这样你就可以进行更具体的对话:你说的是自然语言处理和语言模型,还是计算机视觉?或者不同的应用程序,例如聊天机器人或癌症检测?

《时代》杂志的特约记者比利·佩里戈(Billy Perrigo)说,把“人工智能”作为一个单一的东西来谈论掩盖了这项技术的现实。

他说:“有不同的模型可以做不同的事情,对相同的提示会有不同的反应,而且每个模型也有自己的偏见。”

使用ChatGPT时,为什么不建议把AI拟人化?

保持真实

“对于新的人工智能产品和工具来说,两个最重要的问题很简单:它是做什么的?它是如何做到的?”The Verge 的高级编辑詹姆斯·文森特(James Vincent)说。

当前,讨论人工智能的长期风险和潜力已经成为人工智能领域的一个趋势。文森特补充道,人们很容易被假设的场景分散注意力,想象这项技术未来可能会做什么,但关于人工智能的讨论通常更适合务实,关注实际,而不是假设。

科技行业也有夸大其产品能力的倾向。道格拉斯·海文说:“要秉承着怀疑、质疑的态度。”

当谈到 AGI 或通用人工智能时,这一点尤为重要,它通常用来指与人一样聪明的软件(不管这本身意味着什么)。

他补充道:“如果某件事听起来像糟糕的科幻小说,也许就是这样。”

使用ChatGPT时,为什么不建议把AI拟人化?

调整你的期望

语言模型通常会“生造假象”,为 ChatGPT 等人工智能聊天机器人带来动力。英国《金融时报》人工智能编辑马杜米塔·穆尔贾(Madhumita Murgia)表示,这对人们来说可能令人讨厌和惊讶,但这就是这些模型的工作方式。

重要的是要记住,语言模型不是为了找到并给出“正确”答案而建立的搜索引擎,它们也没有无限的知识。穆尔贾补充道,考虑到你的问题和它们所接受的一切训练,它们只是生成最有可能的单词的预测系统。

使用ChatGPT时,为什么不建议把AI拟人化?

不要拟人化

人工智能聊天机器人吸引了公众的想象力,因为它们生成的文本看起来像是人类写出来的东西,并且给用户一种与计算机程序以外的东西交互的错觉。但实际上它们就是计算机程序。

Motherboard 的记者克洛伊(Chloe Xiang)表示,不要将这项技术拟人化,也不要将人类特征归因于此,这一点非常重要。“不要给它一个(性别)代词,或者说它能感觉、思考、相信等等。”

这样做只会加深人们的误解,即人工智能系统比他们更有能力和感知能力。

我发现这真的很容易出错,因为我们的语言还没有跟上描述人工智能系统正在做什么的方法。当有疑问时,我会用“计算机程序”代替“人工智能”。你突然会意识到,使用计算机程序导致某人与他的妻子离婚是很愚蠢的

使用ChatGPT时,为什么不建议把AI拟人化?

一切都与权力有关

《连线》资深撰稿人卡里·约翰逊(Khari Johnson)表示,虽然炒作和糟糕的事情可能会占据新闻头条,但当你谈论人工智能时,思考权力的作用至关重要。

约翰逊说:“权力是制造人工智能的原材料的关键,比如计算和数据;是质疑人工智能道德使用的关键;也是了解谁有能力获得计算机科学高级学位,以及谁在人工智能模型设计过程中主导的关键。”

郝对此表示赞同。她说,我们要记住人工智能开发是非常政治化的,涉及大量资金和利益相互竞争的许多研究组织,这也很有帮助:“有时围绕人工智能的对话与其说是技术,不如说是人。”

使用ChatGPT时,为什么不建议把AI拟人化?

不要把它当成机器人

不要把人工智能描绘成一个可怕的机器人或无所不知的机器。VentureBeat 的资深作家莎伦·戈德曼(Sharon Goldman)说:“记住,人工智能本质上是人类将大数据集与大量计算能力和智能算法相结合的计算机编程。”

支持:Ren

以上是使用ChatGPT时,为什么不建议把AI拟人化?的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:sohu.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板