目录
什么是ChatGPT?
1、安全威胁和隐私问题
2、对ChatGPT训练和隐私问题的担忧
3、ChatGPT生成错误答案
4、ChatGPT的系统中存在偏见
5、聊天技术可能会替代人类的工作
6、聊天技术成为教育行业面临的挑战
7、ChatGPT可能会造成现实世界的伤害
8、OpenAI公司具有掌控一切的力量
解决人工智能的最大问题
首页 科技周边 人工智能 OpenAI的ChatGPT带来的八大问题

OpenAI的ChatGPT带来的八大问题

May 16, 2023 am 10:34 AM
openai 聊天机器人

OpenAI的ChatGPT带来的八大问题

ChatGPT是一款功能强大的人工智能聊天机器人,在推出之后很快就给人留下了深刻的印象,但很多人指出它有一些严重的缺陷。

从安全漏洞到隐私问题,再到未经披露的训练数据,人们对人工智能聊天机器人的应用有很多担忧,但这项技术已经被整合到应用程序中,并被大量用户使用,从学生到公司员工。

由于人工智能的发展没有放缓的迹象,了解ChatGPT的问题就显得更加重要了。随着ChatGPT将改变人们的未来,以下介绍了ChatGPT的一些最主要的问题。

什么是ChatGPT?

ChatGPT是一个大型语言模型,旨在生成自然的人类语言。就像与某人交谈一样,人们可以与ChatGPT交谈,它会记住人们在过去说过的话,同时也能够在受到挑战时自我纠正。

它接受了来自互联网的各种文本的训练,例如维基百科、博客文章、书籍和学术文章。除了以类似人类的方式回应,它还可以回忆当今世界的信息,并从过去提取历史信息。

学习如何使用ChatGPT很简单,而且很容易被愚弄,认为人工智能系统没有任何麻烦。然而,在它发布后的几个月里,隐私、安全及其对人们生活的更广泛影响(从工作到教育)出现了一些关键的问题。

1、安全威胁和隐私问题

在2023年3月,ChatGPT出现了一个安全漏洞,一些用户在其侧边栏中看到了他人的对话标题。对于任何一家科技公司来说,不小心分享用户的聊天记录都是一个严重的问题,考虑到很多人都在使用这个流行的聊天机器人,这种情况尤其糟糕。

据路透社报道,仅在2023年1月,ChatGPT的月活跃用户就达到1亿。虽然导致数据泄露的漏洞很快得到了修补,但意大利数据监管机构要求OpenAI公司停止处理意大利用户数据的所有操作。

该机构怀疑ChatGPT违反了欧洲隐私法规。在调查了这个问题后,要求OpenAI公司满足几项要求才能恢复聊天机器人的使用。

OpenAI公司最终通过做出几项重大改变解决了这个问题。首先,添加了年龄限制,只有18岁以上或13岁以上的人在监护人的许可下才能使用该应用程序。它还使其隐私政策更加明显,并为用户提供了一个选择退出的表单,以排除他们的数据用于训练ChatGPT,如果他们愿意,可以完全删除这些数据。

这些变化是一个很好的开始,但是这些改进应该扩展到所有ChatGPT用户。

这也不是ChatGPT造成安全威胁的唯一方式。与用户一样,员工不小心共享机密信息也很容易。一个很好的例子是三星公司的员工多次与ChatGPT共享公司信息。

2、对ChatGPT训练和隐私问题的担忧

在ChatGPT大受欢迎之后,许多人质疑OpenAI公司最初是如何训练其模型的。

即使在意大利发生数据泄露事件之后,OpenAI公司的隐私政策有所改善,但难以满足《通用数据保护条例》的要求,这是一项覆盖欧洲的数据保护法。正如TechCrunch报道的那样:“目前尚不清楚如何采用意大利民众的个人数据训练GPT模型,即从互联网上抓取公共数据时的个人数据是否得到了有效的合法处理。或者,如果用户现在要求删除他们的数据,以前用于训练模型的数据是否会被删除或可以被删除。”

OpenAI公司很有可能在训练ChatGPT时收集了个人信息。虽然美国的法律没有那么明确,但欧洲的数据法规仍然注重保护个人数据,无论他们是公开还是私下发布这些信息。

艺术家们也提出了类似的反对用作训练数据的论点,他们表示,他们从未同意让自己的作品训练人工智能模型。与此同时,盖蒂图片社起诉了Stability.AI公司使用其受版权保护的图像来训练其人工智能模型。

除非OpenAI公司公布其训练数据,否则缺乏透明度,很难知道是否合法。例如,人们根本不知道ChatGPT训练的细节,使用了什么数据,数据来自哪里,或者系统架构的细节是什么样子。

3、ChatGPT生成错误答案

ChatGPT在基本的数学方面不擅长,似乎不能回答简单的逻辑问题,甚至会争论完全错误的事实。正如社交媒体上的人们所证明的那样,ChatGPT在很多场合都可能出错。

OpenAI公司了解这些限制。该公司表示:“ChatGPT有时会写出听起来似乎合理但不正确或无意义的答案。”这种对事实和虚构的幻觉,正如该公司所提到的那样,对于医疗建议或对关键历史事件的事实的正确理解等事情来说尤其危险。

与Siri或Alexa等其他人工智能助手不同,ChatGPT并不使用互联网来查询答案。与其相反,它逐字逐句地构建句子,根据训练选择最可能出现的“标记”。换句话说,ChatGPT通过进行一系列猜测得出答案,这就是它可以争论错误答案的原因,就好像它们是完全正确的一样。

虽然它很擅长解释复杂的概念,使它成为一个强大的学习工具,但重要的是不要相信它所说的一切。ChatGPT并不总是正确的,至少现在还不是。

4、ChatGPT的系统中存在偏见

ChatGPT是根据过去和现在世界各地人类的写作进行训练的。不幸的是,这意味着现实世界中存在的偏见也可能出现在人工智能模型中。

事实证明,ChatGPT会产生一些歧视性别、种族和少数群体的糟糕答案,该公司正在努力减少这些问题。

解释这一问题的一种方法是指出数据是问题所在,将互联网内外的偏见归咎于人类。但部分责任也在于OpenAI公司,该公司的研究人员和开发人员选择用于训练ChatGPT的数据。

OpenAI公司再次意识到这是一个问题,并表示它正在通过收集用户的反馈并鼓励他们标记糟糕、冒犯或根本不正确的ChatGPT输出来解决“偏见行为”。

由于ChatGPT有可能对人们造成伤害,人们可能会认为,在研究和解决这些问题之前,不应该向公众发布ChatGPT。但是,致力于成为第一家创建最强大人工智能模型的公司,已经足以让OpenAI公司把谨慎抛到脑后。

相比之下,谷歌母公司Aalphabet公司于2022年9月发布了一款名为“Sparrow”的类似人工智能聊天机器人。然而,出于类似的安全考虑,该机器人被放弃。

大约在同一时间,Facebook公司发布了一种名为Galactica的人工智能语言模型,旨在帮助学术研究。然而,在许多人批评它输出了与科学研究有关的错误和有偏见的结果后,它迅速被召回。

5、聊天技术可能会替代人类的工作

ChatGPT的快速发展和部署尚未尘埃落定,但这并没有阻止底层技术被整合到许多商业应用程序中。集成了GPT-4的应用程序包括Duolingo和Khan Academy。

前者是一款语言学习应用,而后者是一款多元化的教育学习工具。两者都提供了本质上的人工智能导师,或者以人工智能驱动的角色的形式,用户可以用其正在学习的语言与之交谈。或者作为一名人工智能导师,可以为其学习提供量身定制的反馈。

这可能只是人工智能取代人类工作的开始。其他面临颠覆的行业工作包括律师助理、律师、文案人员、记者和程序员。

一方面,人工智能可以改变人们的学习方式,可能更容易获得教育和培训,学习过程更容易一些。但另一方面,大量的人类工作职位也将消失。

据英国《卫报》报道,教育机构在伦敦和纽约证券交易所出现巨额亏损,凸显出人工智能在ChatGPT推出仅6个月后就对一些市场造成了破坏。

技术进步总是导致一些人失业,但人工智能的发展速度意味着多个行业领域同时面临快速变化。不可否认,ChatGPT及其底层技术将彻底重塑人们的现代世界。

6、聊天技术成为教育行业面临的挑战

用户可以要求ChatGPT对其文章进行校对,或者指出如何改进段落。或者用户可以把自己其中完全解放出来,让ChatGPT为其完成所有的写作。

很多教师已经尝试过在ChatGPT上布置作业,并收到了比许多学生做得更好的答案。从撰写求职信到描述著名文学作品的主要主题,ChatGPT可以毫不犹豫地完成所有任务。

这就引出了一个问题:如果ChatGPT可以为人们写作,学生将来还需要学习写作吗?这似乎是一个存在主义的问题,但当学生开始使用ChatGPT来帮助他们写论文时,学校必须尽快提供应对措施。

不仅是以英语为基础的科目有风险,ChatGPT可以帮助人们完成任何涉及头脑风暴、总结或得出明智结论的任务。

毫不奇怪,一些学生已经开始尝试采用人工智能。据《斯坦福日报》报道,早期的调查表明,很多学生使用人工智能来帮助完成作业和考试。作为回应,一些教育工作者正在重写课程,以应对使用人工智能浏览课程或考试作弊的学生。

7、ChatGPT可能会造成现实世界的伤害

在发布不久之后,有人试图破解ChatGPT,导致人工智能模型可以绕过OpenAI公司的安全护栏,该护栏旨在防止它产生攻击性和危险的文本。

ChatGPT Reddit上的一群用户将他们的无限制人工智能模型命名为DAN,这是“Do Anything Now”的缩写。可悲的是,做任何喜欢做的事情已经导致黑客增加了网络诈骗。根据Ars Technica的报道,黑客正在出售无规则的ChatGPT服务,这些服务可以创建恶意软件并产生网络钓鱼邮件。

通过人工智能生成的文本,试图发现旨在从人们身上提取敏感信息的网络钓鱼电子邮件要困难得多。语法错误曾经是一个明显的危险信号,而现在可能不是了,这因为ChatGPT可以流利地写各种各样的文本,从散文到诗歌到电子邮件。

虚假信息的传播也是一个严重的问题。ChatGPT生成文本的规模,再加上让错误信息听起来令人信服的能力,使互联网上的一切都变得可疑,并加剧了深度伪造技术的危险。

ChatGPT产生信息的速度已经给Stack Exchange带来了问题,Stack Exchange是一家致力于为日常问题提供正确答案的网站。在ChatGPT发布后不久,大量用户要求ChatGPT生成答案。

如果没有足够的人类志愿者来整理这些信息,就不可能提供高水平的高质量答案。更不用说,一些答案根本就不正确。为了避免网站被破坏,Stack Exchange禁止使用ChatGPT生成所有答案。

8、OpenAI公司具有掌控一切的力量

权力越大,责任越大,而OpenAI公司拥有很大的权力。它是首批真正用包括Dall-E 2、GPT-3和GPT-4在内的多个生成人工智能模型的人工智能开发商之一。

作为一家私营公司,OpenAI公司选择用于训练ChatGPT的数据,并选择推出新开发项目的速度。因此,有很多专家对人工智能带来的危险发出了警告,但几乎没有迹象表明这种危险会减缓。

与其相反,ChatGPT的流行刺激了大型科技公司之间的竞争,竞相推出下一个大型人工智能模型;其中包括微软的必应AI和谷歌的Bard。由于担心快速发展会导致严重的安全问题,世界各地的一些科技领袖联合签署了一封信函,要求推迟人工智能模型的开发。

虽然OpenAI公司认为安全是重中之重,但对于模型本身的工作方式,人们还有很多不知道的地方,无论是好是坏。最终,大多数人可能盲目地相信OpenAI公司将负责任地研究、开发和使用ChatGPT。

无论人们是否同意它的方法,值得记住的是,OpenAI公司是一家私营公司,该公司将根据自己的目标和道德标准继续开发ChatGPT。

解决人工智能的最大问题

ChatGPT有很多令人兴奋的地方,但除了它的直接用途之外,还有一些严重的问题。

OpenAI公司承认,ChatGPT可能会产生有害的、有偏见的答案,他们希望通过收集用户反馈来缓解这个问题。但即使事实并非如此,它也能产生令人信服的文本,这很容易被坏人利用。

隐私和安全漏洞已经表明,OpenAI公司的系统可能是脆弱的,将用户的个人数据置于危险之中。更麻烦的是,有些人正在破解ChatGPT,并使用不受限制的版本以前所未有的规模制造恶意软件和骗局。

对工作岗位的威胁和对教育行业的潜在颠覆是日益严重的问题。有了全新的技术,很难预测未来会出现什么问题,不幸的是,ChatGPT已经为人们带来了相当多的挑战。

以上是OpenAI的ChatGPT带来的八大问题的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌
威尔R.E.P.O.有交叉游戏吗?
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

编程新范式,当Spring Boot遇上OpenAI 编程新范式,当Spring Boot遇上OpenAI Feb 01, 2024 pm 09:18 PM

2023年,AI技术已经成为热点话题,对各行业产生了巨大影响,编程领域尤其如此。人们越来越认识到AI技术的重要性,Spring社区也不例外。随着GenAI(GeneralArtificialIntelligence)技术的不断进步,简化具备AI功能的应用程序的创建变得至关重要和迫切。在这个背景下,"SpringAI"应运而生,旨在简化开发AI功能应用程序的过程,使其变得简单直观,避免不必要的复杂性。通过"SpringAI",开发者可以更轻松地构建具备AI功能的应用程序,将其变得更加易于使用和操作

选择最适合数据的嵌入模型:OpenAI 和开源多语言嵌入的对比测试 选择最适合数据的嵌入模型:OpenAI 和开源多语言嵌入的对比测试 Feb 26, 2024 pm 06:10 PM

OpenAI最近宣布推出他们的最新一代嵌入模型embeddingv3,他们声称这是性能最出色的嵌入模型,具备更高的多语言性能。这一批模型被划分为两种类型:规模较小的text-embeddings-3-small和更为强大、体积较大的text-embeddings-3-large。这些模型的设计和训练方式的信息披露得很少,模型只能通过付费API访问。所以就出现了很多开源的嵌入模型但是这些开源的模型与OpenAI闭源模型相比如何呢?本文将对这些新模型与开源模型的性能进行实证比较。我们计划建立一个数据

OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了 OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了 Jul 19, 2024 am 01:29 AM

如果AI模型给的答案一点也看不懂,你敢用吗?随着机器学习系统在更重要的领域得到应用,证明为什么我们可以信任它们的输出,并明确何时不应信任它们,变得越来越重要。获得对复杂系统输出结果信任的一个可行方法是,要求系统对其输出产生一种解释,这种解释对人类或另一个受信任的系统来说是可读的,即可以完全理解以至于任何可能的错误都可以被发现。例如,为了建立对司法系统的信任,我们要求法院提供清晰易读的书面意见,解释并支持其决策。对于大型语言模型来说,我们也可以采用类似的方法。不过,在采用这种方法时,确保语言模型生

小红书开始测试AI聊天机器人'达芬奇” 小红书开始测试AI聊天机器人'达芬奇” Jan 15, 2024 pm 12:42 PM

小红书正在努力通过增加更多的人工智能功能来丰富其产品根据国内媒体报道,小红书正在其主App中内测一款名为“Davinci”的AI应用。据悉,该应用能够为用户提供智能问答等AI聊天服务,其中包括旅游攻略、美食攻略、地理文化常识、生活技巧、个人成长和心理建设等等据报道,"Davinci"是使用Meta旗下的LLAMA模型进行训练的产品,该产品从今年9月开始测试至今。有传言称,小红书之前还在进行一项群AI对话功能的内测。在这个功能下,用户可以在群聊中创建或引入AI角色,并与其进行对话和互动图片来源:T

基于Rust的Zed编辑器已开源,内置对OpenAI和GitHub Copilot的支持 基于Rust的Zed编辑器已开源,内置对OpenAI和GitHub Copilot的支持 Feb 01, 2024 pm 02:51 PM

作者丨TimAnderson编译丨诺亚出品|51CTO技术栈(微信号:blog51cto)Zed编辑器项目目前仍处于预发布阶段,已在AGPL、GPL和Apache许可下开源。该编辑器以高性能和多种AI辅助选择为特色,但目前仅适用于Mac平台使用。内森·索博(NathanSobo)在一篇帖子中解释道,Zed项目在GitHub上的代码库中,编辑器部分采用了GPL许可,服务器端组件则使用了AGPL许可证,而GPUI(GPU加速用户界面)部分则采用了Apache2.0许可。GPUI是Zed团队开发的一款

没等来OpenAI,等来了Open-Sora全面开源 没等来OpenAI,等来了Open-Sora全面开源 Mar 18, 2024 pm 08:40 PM

不久前OpenAISora以其惊人的视频生成效果迅速走红,在一众文生视频模型中突出重围,成为全球瞩目的焦点。继2周前推出成本直降46%的Sora训练推理复现流程后,Colossal-AI团队全面开源全球首个类Sora架构视频生成模型「Open-Sora1.0」,涵盖了整个训练流程,包括数据处理、所有训练细节和模型权重,携手全球AI热爱者共同推进视频创作的新纪元。先睹为快,我们先看一段由Colossal-AI团队发布的「Open-Sora1.0」模型生成的都市繁华掠影视频。Open-Sora1.0

微软、OpenAI 计划 1 亿美元投向人形机器人!网友纷纷喊话马斯克 微软、OpenAI 计划 1 亿美元投向人形机器人!网友纷纷喊话马斯克 Feb 01, 2024 am 11:18 AM

微软、OpenAI开年被曝预将大笔资金砸向一家人形机器人初创公司。其中,微软计划掏出9500万美元,OpenAI跟投500万美元。彭博社消息称,这家公司本轮预计共要融资5亿美元,投前估值或将达到19亿美元。是什么吸引了他们?不妨先来看一下这家公司的机器人成果。只见这个机器人通体银黑,外观酷似好莱坞科幻大片中的机器人形象:现在,他正在将一颗咖啡胶囊放进咖啡机里:如果没放正,还会自主调整,无需任何人为远程遥控:不过一会儿,一杯咖啡就可以端走享用:有木有家人们已经认出来了,没错,这款机器人就是前段时间

本地运行性能超越 OpenAI Text-Embedding-Ada-002 的 Embedding 服务,太方便了! 本地运行性能超越 OpenAI Text-Embedding-Ada-002 的 Embedding 服务,太方便了! Apr 15, 2024 am 09:01 AM

Ollama是一款超级实用的工具,让你能够在本地轻松运行Llama2、Mistral、Gemma等开源模型。本文我将介绍如何使用Ollama实现对文本的向量化处理。如果你本地还没有安装Ollama,可以阅读这篇文章。本文我们将使用nomic-embed-text[2]模型。它是一种文本编码器,在短的上下文和长的上下文任务上,性能超越了OpenAItext-embedding-ada-002和text-embedding-3-small。启动nomic-embed-text服务当你已经成功安装好o

See all articles