大型语言模型要避免的六个陷阱

王林
发布: 2023-05-12 13:01:35
转载
1329 人浏览过

从安全和隐私问题到错误信息和偏见,大型语言模型带来了风险和回报。

最近人工智能(AI)取得了令人难以置信的进步,这主要是由于开发大型语言模型的进步。这些都是文本和代码生成工具的核心,例如ChatGPT、Bard和GitHub的Copilot。

这些模式正在被所有部门采用。但是,它们是如何被创造和使用的,以及它们如何被滥用,仍然令人担忧。一些国家已经决定采取激进的方法,暂时禁止特定的大型语言模型,直到适当的法规到位。

以下来看看基于大型语言模型的工具在现实世界中的一些不利影响,以及减轻这些影响的一些策略。

1.恶意的内容

大型语言模型可以在很多方面提高生产力。它们能够解释人们的请求并解决相当复杂的问题,这意味着人们可以把平凡、耗时的任务交给最喜欢的聊天机器人,然后简单地检查结果。

当然,权力越大,责任越大。虽然大型语言模型可以创建有用的材料并加快软件开发,但它们也可以快速访问有害信息,加速坏人的工作流程,甚至生成恶意内容,如网络钓鱼电子邮件和恶意软件。当进入门槛低到只需编写一个构造良好的聊天机器人提示符时,“脚本小子”一词就有了全新的含义。

虽然有一些方法可以限制访问客观上危险的内容,但它们并不总是可行或有效的。就像聊天机器人这样的托管服务而言,内容过滤至少可以帮助没有经验的用户减慢速度。实现强大的内容过滤器应该是必要的,但它们并不是无所不能的。

2.提示注射

特制的提示符可以迫使大型语言模型忽略内容过滤器并产生非法输出。这个问题普遍存在于所有llm,但随着这些模型与外部世界的联系,这个问题将被放大;例如,作为ChatGPT的插件。这可以使聊天机器人“eval”用户生成的代码,从而导致任意代码的执行。从安全的角度来看,为聊天机器人配备这种功能是非常有问题的。

为了帮助缓解这种情况,了解基于llm的解决方案的功能以及它如何与外部端点交互是很重要的。确定它是否已连接到API,是否正在运行社交媒体帐户,或者是否在没有监督的情况下与客户交互,并相应地评估线程模型。

虽然提示注入在过去可能看起来无关紧要,但这些攻击现在可能会产生非常严重的后果,因为它们开始执行生成的代码,集成到外部API中,甚至读取浏览器选项卡。

3.隐私资料/侵犯版权

训练大型语言模型需要大量的数据,有些模型的参数超过5000亿个。在这种规模下,了解出处、作者身份和版权状态是一项艰巨的任务,如果不是不可能的话。未经检查的训练集可能导致模型泄露私有数据、错误地归因于引用或剽窃受版权保护的内容。

关于大型语言模型使用的数据隐私法也非常模糊。正如我们在社交媒体上了解到的那样,如果某样东西是免费的,那么很可能用户就是产品。值得记住的是,如果人们要求聊天机器人在我们的代码中找到错误或编写敏感文档,我们就会将这些数据发送给第三方,他们最终可能会将其用于模型培训、广告或竞争优势。人工智能提示的数据泄露在商业环境中尤其具有破坏性。

随着基于大型语言模型的服务与Slack和Teams等工作场所生产力工具集成在一起,仔细阅读提供商的隐私政策、了解人工智能提示的使用方式,并相应地规范大型语言模型在工作场所的使用,这一点至关重要。在版权保护方面,我们需要通过选择加入或特殊许可来规范数据的获取和使用,而不妨碍我们今天拥有的开放和基本上自由的互联网。

4.错误信息

虽然大型语言模型们可以令人信服地假装聪明,但他们并不真正“理解”他们生产的东西。相反,他们的货币是单词之间的概率关系。他们无法区分事实和虚构——一些输出可能看起来非常可信,但结果是一个自信的措辞不真实。这方面的一个例子是ChatGPT篡改引文,甚至整篇论文,正如一位Twitter用户最近直接发现的那样。

大型语言模型工具在大量的任务中可以证明是非常有用的,但人类必须参与验证其响应的准确性、益处和总体合理性。

对于LLM工具的输出,应该始终持保留态度。这些工具在大量任务中非常有用,但人类必须参与验证其响应的准确性、益处和总体合理性。否则,我们会失望的。

5.有害的建议

在网上聊天时,越来越难以分辨你是在和人说话还是在和机器说话,一些实体可能会试图利用这一点。例如,今年早些时候,一家心理健康科技公司承认,一些寻求在线咨询的用户在不知情的情况下与基于gpt3的机器人而不是人类志愿者进行了互动。这引起了人们对在精神卫生保健和任何其他依赖于解释人类情感的环境中使用大型语言模型的伦理担忧。

目前,几乎没有监管监督来确保公司在没有最终用户明确同意的情况下不能以这种方式利用人工智能。此外,对手可以利用令人信服的人工智能机器人进行间谍活动、诈骗和其他非法活动。

人工智能没有情感,但它的反应可能会伤害人们的感情,甚至导致更悲惨的后果。认为人工智能解决方案可以负责任地、安全地充分解释和回应人的情感需求是不负责任的。

在医疗保健和其他敏感应用中使用大型语言模型应受到严格监管,以防止对用户造成任何伤害的风险。基于llm的服务提供商应该始终告知用户AI对服务的贡献范围,并且与bot交互应该始终是一种选择,而不是默认设置。

6.偏见

人工智能解决方案的好坏取决于它们所接受的训练数据。这些数据通常反映了我们对政党、种族、性别或其他人口统计数据的偏见。偏见会给受影响的群体带来负面影响,在这种情况下,模型会做出不公平的决定,而且可能既微妙又可能难以解决。在未经审查的互联网数据上训练的模型总是会反映出人类的偏见;不断从用户交互中学习的模型也容易被故意操纵。

为了减少歧视的风险,大型语言模型服务提供商必须仔细评估他们的培训数据集,以避免任何可能导致负面后果的不平衡。机器学习模型也应该定期检查,以确保预测保持公平和准确。

大型语言模型完全重新定义了我们与软件交互的方式,为我们的工作流程带来了无数的改进。然而,由于目前缺乏针对人工智能的有意义的法规,以及针对机器学习模型的安全性缺乏,广泛而仓促的大型语言模型实施可能会出现重大挫折。因此,必须迅速监管和保护这项宝贵的技术。?

以上是大型语言模型要避免的六个陷阱的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板