2023年第一天,请查收ChatGPT的年终总结!
ChatGPT的横空出世,可能是2022年下半年最引人注目的AI突破,虽然可能不是技术含量最高的。
前不久,在新奥尔良举行的2022 NeurIPS上,关于GPT-4的传言不绝于耳,与此同时,OpenAI也成为全场新闻媒体的焦点。
OpenAI宣布了GPT-3系列AI大型语言模型中的一个新模型:text-davinci-003,这是其「GPT-3.5系列」的一部分,可以通过处理更复杂的指令和产生更高质量、更长形式的内容来改进性能。
新模型建立在InstructGPT的基础上,使用带有人类反馈的强化学习,使语言模型与人类指令更好地保持一致。
达芬奇-003是一个真正的带有人类反馈的强化学习(RLHF)模型,它在人类的演示和高分的模型样本上使用监督微调来提高生成质量。"
而作为「GPT-3.5系列」的另一部分,OpenAI发布了ChatGPT的早期演示,该公司宣称,这个交互式的对话模型,不仅可以回答大量的后续问题,还会承认错误,对不正确的提问前提提出质疑,拒绝不适当的提问请求。
OpenAI在博客中表示,ChatGPT的研究发布是「OpenAI迭代部署越来越安全和有用的AI系统的最新步骤。它吸取了从GPT-3和Codex等早期模型部署中的许多经验教训,在利用人类反馈的强化学习(RLHF)时,有害和不真实的输出结果大幅减少。
另外,ChatGPT在训练中强调,它是一个机器学习模型,这可能是出于避免前不久谷歌的聊天机器人LaMDA引发的「AI是否有意识」的争议。
当然,ChatGPT也有局限性。
在博客文章中,OpenAI详细介绍了它的局限性,包括有时答案听起来似乎很有道理,但实际上是不正确或无意义的事实。
「解决这个问题是很有挑战性的,因为 (1) 在强化学习训练期间,目前没有保证一定有可靠的来源;(2) 训练模型更加谨慎,会拒绝可能正确回答的问题;(3) 监督训练可能误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。」
Open AI表示,ChatGPT 「有时会对有害的指令做出反应或表现出有偏见的行为。我们正在使用API来警告或阻止某些类型的不安全内容,但预计目前会有一些错误的否定和肯定。我们非常愿意收集用户的反馈,帮助我们正在进行的工作,改善这个模型」。
虽然ChatGPT可能还有很多亟待改进的问题,但我们不可否认,在GPT-4登场前,ChatGPT仍然是目前大型语言模型的顶流。
不过,最近的社群中,又有一个新的模型点燃了大家的讨论热情。最关键的是,它还是开源的。
本周, 负责对包括Meta的Make-A-Video在内的闭源 AI系统进行逆向工程的开发人员Philip Wang发布了PaLM RLHF,这是一种文本生成模型,其行为类似于ChatGPT。
代码地址:https://github.com/lucidrains/PaLM-rlhf-pytorch
该系统结合了谷歌的大型语言模型PaLM和强化学习与人类反馈(RLHF)技术,创建了一个几乎可以完成ChatGPT任何任务的系统,包括起草电子邮件和建议计算机代码。
PaLm RLHF的力量
自发布以来,ChatGPT因能够生成高清晰度的类人文本,并能以对话方式对用户问题做出回应,因此在科技界掀起了一场风暴。
这虽然是聊天机器人发展初期的重大进步,但人工智能领域的许多拥趸对ChatGPT的封闭性表示担忧。
时至今日,ChatGPT模型仍然是专有的,这意味着公众无法查看其底层代码。只有OpenAI真正知道它的工作原理以及它处理的数据。这种缺乏透明度可能会产生深远的影响,并可能长期影响用户的信任。
许多开发人员一直渴望构建一个开源替代方案,现在,它终于到来了。PaLM RLHF是专门为Python语言构建的,可以为PyTorch实现。
开发人员可以像训练自回归transformer一样轻松训练 PaLM,然后使用人类反馈训练奖励模型。
和ChatGPT一样,PaLM RLHF本质上是一种预测单词的统计工具。当从训练数据中输入大量示例时——如来自Reddit的帖子、新闻文章和电子书——PaLM RLHF会根据诸如周围文本的语义上下文等模式,学习单词出现的可能性。
真有这么完美?
当然,理想和现实之间还存在着不小的差距。PaLM RLHF看似完美,却也存在各种问题。其中最大的问题就是,人们现在还不能使用它。
要启动PaLM RLHF,用户需要编译从博客、社交媒体、新闻文章、电子书等各种来源获取的千兆字节文本。
这些数据被提供给经过微调的PaLm模型,该模型将生成几个回应。例如,如果询问模型「经济学的基础知识是什么」,PaLm会给出诸如「经济学是研究……的社会科学」之类的回答。
之后,开发者会请人对模型生成的回答从好到差进行排名,并创建一个奖励模型。最后,排名用于训练「奖励模型」,该模型采用原始模型的回应并按偏好顺序对它们进行排序,过滤出给定提示的最佳答案。
然而,这是一个昂贵的过程。收集训练数据和训练模型本身并不便宜。PaLM有5400亿个参数,即语言模型从训练数据中学习到的部分。2020年的一项研究表明,开发一个只有15亿个参数的文本生成模型的费用高达160万美元。
今年7月,为了训练拥有1760亿个参数的开源模型Bloom,Hugging Face的研究人员耗时三个月,使用了384个英伟达A100 GPU。每个A100的价格高达数千美元,这不是任何普通用户所能承受的成本。
此外,即使完成了对模型的训练,运行PaLM RLHF大小的模型也不是件易事。Bloom配备了八个A100 GPU的专用PC,而OpenAI的文本生成GPT-3(具有大约 1750 亿个参数)的运行成本约为每年87,000美元。
AI研究人员Sebastian Raschka在一篇关于PaLM RLHF的文章中指出,扩大必要的开发工作流程也可能是一个挑战。
「即使有人为你提供500个GPU来训练这个模型,你仍然需要处理基础设施并拥有可以处理的软件框架,」他说。「这虽然可行,但目前来看,需要付出很大的努力。」
下一个开源ChatGPT
高昂的费用和庞大的规模都表明,如果没有资金雄厚的企业或个人不厌其烦地训练模型,PaLM RLHF目前还没有取代ChatGPT的能力。
到目前为止,没有任何关于PaLM RLHF确切的发布日期。作为参照,Hugging Face训练Bloom花了三个月的时间。相比之下,拥有5400亿参数的PaLM RLHF可能需要等待6-8 个月的时间才能诞生一个有意义的版本。
好消息是,到目前为止,我们有三个已知的玩家在开发这个开源版ChatGPT的替代方案:
- CarperAI
- LAION
- Yannic Kilcher
CarperAI计划与EleutherAI和初创公司Scale AI和Hugging Face合作,发布第一个可立即运行的、类似ChatGPT的AI模型,该模型经过人类反馈训练。
代码地址:https://github.com/CarperAI/trlx
LAION是为Stable Diffusion提供初始数据集的非营利组织,它还率先开展了一个使用最新机器学习技术复制ChatGPT的项目。
代码地址:https://github.com/LAION-AI/Open-Assistant
LAION旨在打造一个「未来助手」,不仅能写电子邮件和求职信,还能「做有意义的工作、使用 API、动态研究信息等」。它处于早期阶段,但是几周前,一个包含相关资源的项目已在GitHub上线。
而由油管网红、AI研究人员Yannic Kilcher创建的GPT-4chan,更像是「出淤泥而全染」的嘴臭达人。
该模型中的「4chan」是一个美国在线匿名论坛,因网友身份皆为匿名,很多人便无所畏惧,发表各种政治不正确的言论。而Kilcher正式用4chan上的帖子对模型进行训练,其结果可想而知。
与论坛总基调类似,GPT-4chan的回答充斥着种族歧视、性别歧视和反犹太主义。不仅如此,Kilcher还将其底层模型发布到Hugging Face供他人下载。不过在很多AI研究人员的声讨下,官方很快限制了网友对该模型的访问。
在我们期待更多开源语言模型出现的同时,现在我们能做的只有等待。当然,继续免费使用ChatGPT 也是个好主意。
值得注意的是,在任何开源版本正式登场之前,OpenAI在开发方面仍遥遥领先。而2023年,GPT-4无疑是全世界AI爱好者翘首以盼的对象。
无数AI大佬都对其做出了自己的预测,这些预测或好或坏,但就像OpenAI首席运营官Sam Altman所言:「通用人工智能的建成会比大多数人想象得更快,并且它会改变大多数人想象中的一切。」
以上是2023年第一天,请查收ChatGPT的年终总结!的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

Vue.js 中字符串转对象时,首选 JSON.parse() 适用于标准 JSON 字符串。对于非标准 JSON 字符串,可根据格式采用正则表达式和 reduce 方法或解码 URL 编码字符串后再处理。根据字符串格式选择合适的方法,并注意安全性与编码问题,以避免 bug。

文章介绍了MySQL数据库的上手操作。首先,需安装MySQL客户端,如MySQLWorkbench或命令行客户端。1.使用mysql-uroot-p命令连接服务器,并使用root账户密码登录;2.使用CREATEDATABASE创建数据库,USE选择数据库;3.使用CREATETABLE创建表,定义字段及数据类型;4.使用INSERTINTO插入数据,SELECT查询数据,UPDATE更新数据,DELETE删除数据。熟练掌握这些步骤,并学习处理常见问题和优化数据库性能,才能高效使用MySQL。

总结:将 Vue.js 字符串数组转换为对象数组有以下方法:基本方法:使用 map 函数,适合格式规整的数据。高级玩法:使用正则表达式,可处理复杂格式,但需谨慎编写,考虑性能。性能优化:考虑大数据量,可使用异步操作或高效数据处理库。最佳实践:清晰的代码风格,使用有意义的变量名、注释,保持代码简洁。

利用地理空间技术高效处理700万条记录并创建交互式地图本文探讨如何使用Laravel和MySQL高效处理超过700万条记录,并将其转换为可交互的地图可视化。初始挑战项目需求:利用MySQL数据库中700万条记录,提取有价值的见解。许多人首先考虑编程语言,却忽略了数据库本身:它能否满足需求?是否需要数据迁移或结构调整?MySQL能否承受如此大的数据负载?初步分析:需要确定关键过滤器和属性。经过分析,发现仅少数属性与解决方案相关。我们验证了过滤器的可行性,并设置了一些限制来优化搜索。地图搜索基于城

MySQL启动失败的原因有多种,可以通过检查错误日志进行诊断。常见原因包括端口冲突(检查端口占用情况并修改配置)、权限问题(检查服务运行用户权限)、配置文件错误(检查参数设置)、数据目录损坏(恢复数据或重建表空间)、InnoDB表空间问题(检查ibdata1文件)、插件加载失败(检查错误日志)。解决问题时应根据错误日志进行分析,找到问题的根源,并养成定期备份数据的习惯,以预防和解决问题。

为了设置 Vue Axios 的超时时间,我们可以创建 Axios 实例并指定超时选项:在全局设置中:Vue.prototype.$axios = axios.create({ timeout: 5000 });在单个请求中:this.$axios.get('/api/users', { timeout: 10000 })。

MySQL性能优化需从安装配置、索引及查询优化、监控与调优三个方面入手。1.安装后需根据服务器配置调整my.cnf文件,例如innodb_buffer_pool_size参数,并关闭query_cache_size;2.创建合适的索引,避免索引过多,并优化查询语句,例如使用EXPLAIN命令分析执行计划;3.利用MySQL自带监控工具(SHOWPROCESSLIST,SHOWSTATUS)监控数据库运行状况,定期备份和整理数据库。通过这些步骤,持续优化,才能提升MySQL数据库性能。

远程高级后端工程师职位空缺公司:Circle地点:远程办公职位类型:全职薪资:$130,000-$140,000美元职位描述参与Circle移动应用和公共API相关功能的研究和开发,涵盖整个软件开发生命周期。主要职责独立完成基于RubyonRails的开发工作,并与React/Redux/Relay前端团队协作。为Web应用构建核心功能和改进,并在整个功能设计过程中与设计师和领导层紧密合作。推动积极的开发流程,并确定迭代速度的优先级。要求6年以上复杂Web应用后端
