GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

PHPz
发布: 2023-05-31 16:23:41
转载
1174 人浏览过

继Windows Copilot发布后,微软Build大会热度又被一场演讲引爆。

前特斯拉AI总监Andrej Karpathy在演讲中认为思维树(tree of thoughts)与AlphaGo的蒙特卡洛树搜索(MCTS)有异曲同工之妙!

网友高呼:这是关于如何使用大语言模型和GPT-4模型的最详尽有趣的指南!

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

此外Karpathy透露,由于训练和数据的扩展,LLAMA 65B“明显比GPT-3 175B更强大”,并介绍了大模型匿名竞技场ChatBot Arena:

Claude得分介于ChatGPT 3.5和ChatGPT 4之间。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

网友表示,Karpathy的演讲一向很棒,而这次的内容也一如既往没有令大家失望。

随着演讲而爆火的,还有推特网友根据演讲整理的一份笔记,足足有31条,目前转赞量已超过3000+:

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

所以,这段备受关注的演讲,具体提到了哪些内容呢?

如何训练GPT助手?

Karpathy这次的演讲主要分为两个部分。

第一部分,他讲了如何训练一个“GPT助手”。

Karpathy主要讲述了AI助手的四个训练阶段:
预训练(pre-training)、监督微调(supervised fine tuning)、奖励建模(reward modeling)和强化学习(reinforcement learning)。

每一个阶段都需要一个数据集。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

在预训练阶段,需要动用大量的计算资源,收集大量的数据集。在大量无监督的数据集上训练出一个基础模型。

Karpathy用了更多例子作补充:

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

接下来进入微调阶段。

使用较小的有监督数据集,通过监督学习对这个基础模型进行微调,就能创建一个能够回答问题的助手模型

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

他还展示了一些模型的进化过程,相信很多人之前已经看过上面这张“进化树”的图了。


Karpathy认为目前最好的开源模型是Meta的LLaMA系列(因为OpenAI没有开源任何关于GPT-4的内容)。

在这里需要明确指出的是,基础模型不是助手模型

尽管基础模型有解决问题的能力,但其给出的答案并不可信,而助手模型能够提供可靠的答案。经过监督微调的助手模型,在基础模型的基础上训练,其生成回复和理解文本结构的表现将优于基础模型。

在训练语言模型时,强化学习是另一个关键的过程。

训练过程中采用高质量的人工标注数据,并以奖励建模的方式创建损失函数,从而提高其性能。强化训练可以通过增加积极标记和降低消极标记的概率来实现。

在涉及到创造性任务时,人类的判断力对于改进AI模型至关重要,通过加入人类的反馈可以更有效地训练模型。

经过人类反馈的强化学习后,就可以得到一个RLHF模型了。

模型训练好了,接下来就是如何有效利用这些模型解决问题了。

如何更好地使用模型?

第二部分,Karpathy主要讨论了提示策略、微调、快速发展的工具生态系统以及未来的扩展等问题。

Karpathy又给出了具体示例来说明:

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

在写作时,我们需要进行很多心理活动,包括考虑自己的表达是否准确。For GPT, this is merely a sequence of tokens being tagged.。

提示(prompt)可以弥补这种认知差异。

Karpathy进一步解释了思维链提示的工作方式。

对于推理问题,要想让自然语言处理中Transformer的表现更好,需要让它一步一步地处理信息,而不能直接抛给它一个非常复杂的问题。

如果你给它几个例子,它会模仿这个例子的模版,最终生成的结果会更好。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

模型只能按照它的序列来回答问题,如果它生成的内容是错误的,你可以进行提示,让它重新生成。

如果你不要求它检查,它自己是不会检查的。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

这就涉及到了System1和System2的问题。

诺贝尔经济学奖得主丹尼尔卡尼曼在《思考快与慢》中提出,人的认知系统包含System1和System2两个子系统。System1主要靠直觉,而System2是逻辑分析系统。

通俗来说,System1是一个快速自动生成的过程,而System2是经过深思熟虑的部分。

这在最近一篇挺火的论文“Tree of thought”(思维树)中也有被提及。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

深思熟虑指的是,不是简单的给出问题的答案,而更像是与Python胶水代码一起使用的prompt,将许多prompt串联在一起。为了扩展提示,模型需要维护多个提示并执行树搜索算法。

Karpathy认为这种思路与AlphaGo非常相似:

AlphaGo在下围棋时,需要考虑下一枚棋子下在哪里。最初它是靠模仿人类来学习的。

除此之外,它还实施了蒙特卡洛树搜索,以获取具有多种潜在策略的结果。它可以对多种可能的下法进行评估,仅保留那些较好的策略。我认为这在某种程度上相当于AlphaGo。

对此,Karpathy还提到了AutoGPT:

我认为目前它的效果还不是很好,我不建议大家进行实际应用。我认为随着时间的推移,我们或许可以从它的发展历程中吸取启示。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

其次,还有一个小妙招是检索增强生成(retrieval agumented generation)和有效提示。

窗口上下文的内容就是transformers在运行时的记忆(working memory),如果你可以将与任务相关的信息加入到上下文中,那么它的表现就会非常好,因为它可以立即访问这些信息。

简而言之,就是可以为相关数据建立索引让模型可以高效访问。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

如果Transformers也有可参考的主要文件,它的表现会更好。

最后,Karpathy简单讲了一下在大语言模型中的约束提示(Constraint prompting)和微调。
可以通过约束提示和微调来改进大语言模型。约束提示在大语言模型的输出中强制执行模板,而微调则调整模型的权重以提高性能。

我建议在低风险的应用中使用大语言模型,始终将它们与人工监督相结合,将它们看作是灵感和建议的来源,考虑copilots而不是让它们完全自主代理。

关于Andrej Karpathy

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

Andrej Karpathy博士毕业后的第一份工作,是在OpenAI研究计算机视觉。

后来OpenAI联合创始人之一的马斯克看上了Karpathy,把人挖到了特斯拉。马斯克和OpenAI因此事不和,最终马斯克被排除在外。Karpathy负责特斯拉公司的Autopilot、FSD等项目。

今年二月份,在离开特斯拉7个月后,Karpathy再次加入了OpenAI。

最近他发推特表示,目前对开源大语言模型生态系统的发展饶有兴趣,有点像早期寒武纪爆发的迹象。

GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才

传送门:
[1]https://www.youtube.com/watch?v=xO73EUwSegU(演讲视频)

[2]https://arxiv.org/pdf/2305.10601.pdf(“Tree of thought”论文)

参考链接:
[1]https://twitter.com/altryne/status/1661236778458832896

[2]https://www.reddit.com/r/MachineLearning/comments/13qrtek/n_state_of_gpt_by_andrej_karpathy_in_msbuild_2023/
[3]https://www.wisdominanutshell.academy/state-of-gpt/

以上是GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板