目录
神经网络
ChatGPT模型大小
编码器、解码器和RNN
变压器与注意力
生成式预训练
把一切结合在一起
首页 科技周边 人工智能 AI百科:ChatGPT的工作原理

AI百科:ChatGPT的工作原理

Apr 12, 2023 pm 01:31 PM
人工智能 chatgpt

AI百科:ChatGPT的工作原理

ChatGPT迅速获得了数百万人的关注,但许多人都持谨慎态度,因为都不了解它的工作原理。而本文就是试图将其分解,以便更容易理解。

然而,就其核心而言,ChatGPT是一个非常复杂的系统。如果想要玩ChatGPT或者想弄懂它是什么,核心界面是一个聊天窗口,可以在其中提问或提供查询,AI会做出回应。要记住的一个重要细节是,在聊天中,上下文会被保留,这意味着消息可以引用先前的信息,而ChatGPT将能够根据上下文地理解这一点。

当在聊天框中输入查询时会发生什么?

神经网络

首先,在ChatGPT的框架下,有很多东西待发现。机器学习在过去10年里一直在迅速发展,ChatGPT利用了许多最先进的技术来实现其结果。

AI百科:CHATGPT的工作原理

神经网络是相互连接的“神经元”层,每个神经元负责接收输入、处理输入,并将其传递给网络中的下一个神经元。神经网络构成了当今人工智能的支柱。输入通常是一组称为“特征”的数值,表示正在处理的数据的某些方面。例如,在语言处理的情况下,特征可能是表示句子中每个单词的含义的词嵌入。

词嵌入只是一种文本的数字表示,神经网络将使用它来理解文本的语义,然后可以将其用于其他目的,比如以语义逻辑的方式进行响应!

因此,在ChatGPT中按回车键后,该文本首先被转换为词嵌入,这些词嵌入是在整个互联网上的文本上进行训练的。然后有一个经过训练的神经网络,在给定输入词嵌入的情况下,输出一组合适的响应词嵌入。然后,使用应用于输入查询的逆操作将这些嵌入入翻译成人类可读的单词。这个解码后的输出就是ChatGPT打印出来的内容。

ChatGPT模型大小

转换和输出生成的计算成本非常高。ChatGPT位于GPT-3之上,GPT-3是一个拥有1750亿个参数的大型语言模型。这意味着在OpenAI使用其大型数据集调整的广泛神经网络中有1750亿个权重。

因此,每个查询至少需要两次1750亿次计算,这加起来很快。OpenAI可能已经找到了一种方法来缓存这些计算以降低计算成本,但不知道这些信息是否已经发布到任何地方。此外,预计将于今年年初发布的GPT-4,据称参数增加了1000倍!

计算复杂性会导致实际成本!如果ChatGPT很快成为付费产品,不必感到惊讶,因为OpenAI目前正在花费数百万美元免费运营它。

编码器、解码器和RNN

自然语言处理中常用的一种神经网络结构是编码器-解码器网络。这些网络的设计目的是将输入序列“编码”为紧凑表示,然后将该表示“解码”为输出序列。

传统上,编码器-解码器网络已经与循环神经网络(RNN)配对,用于处理顺序数据。编码器处理输入序列并产生固定长度的向量表示,然后将其传递给解码器。解码器处理这个向量并产生输出序列。

编码器-解码器网络已广泛应用于机器翻译等任务,其中输入是一种语言的句子,输出是将该句子翻译成另一种语言。它们也被应用于摘要和图像说明生成任务。

AI百科:CHATGPT的工作原理

变压器与注意力

与编码器-解码器结构类似,变压器包括两个组件;然而,转换器的不同之处在于它使用一种自关注机制,允许输入的每个元素关注所有其他元素,从而允许它捕获元素之间的关系,而不管它们彼此之间的距离如何。

变压器还使用多头注意力,允许它同时关注输入的多个部分。这使得它能够捕获输入文本中的复杂关系并产生高度准确的结果。

在2017年发表“Attention is All You Need”论文时,变压器取代了编码器-解码器架构,成为自然语言处理的最先进模型,因为它可以在较长的文本中实现更好的性能。

AI百科:CHATGPT的工作原理

变压器架构,来自https://arxiv.org/pdf/1706.03762.pdf

生成式预训练

生成式预训练是一种在自然语言处理领域特别成功的技术。它涉及以无监督的方式在海量数据集上训练广泛的神经网络,以学习数据的通用表示。这个预训练网络可以针对特定任务进行微调,比如语言翻译或问答,从而提高性能。

AI百科:CHATGPT的工作原理

生成式预训练架构,摘自《通过生成式预训练提高语言理解能力》

在ChatGPT的例子中,这意味着对GPT-3模型的最后一层进行微调,以适应在聊天中回答问题的用例,这也利用了人工标记。下图可以更详细地了解ChatGPT微调:

AI百科:CHATGPT的工作原理

ChatGPT 微调步骤,来自https://arxiv.org/pdf/2203.02155.pdf

把一切结合在一起

因此,在ChatGPT的框架下有许多活动部件,这些部件只会不断增长。看到它如何继续发展将是非常有趣的,因为许多不同领域的进步将帮助类似GPT的模型获得进一步的采用。

在接下来的一两年里,我们可能会看到这种新的使能技术带来的重大颠覆。

以上是AI百科:ChatGPT的工作原理的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

ChatGPT 现在允许免费用户使用 DALL-E 3 生成每日限制的图像 ChatGPT 现在允许免费用户使用 DALL-E 3 生成每日限制的图像 Aug 09, 2024 pm 09:37 PM

DALL-E 3 于 2023 年 9 月正式推出,是比其前身大幅改进的型号。它被认为是迄今为止最好的人工智能图像生成器之一,能够创建具有复杂细节的图像。然而,在推出时,它不包括

字节跳动剪映推出 SVIP 超级会员:连续包年 499 元,提供多种 AI 功能 字节跳动剪映推出 SVIP 超级会员:连续包年 499 元,提供多种 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日消息,剪映是由字节跳动旗下脸萌科技开发的一款视频剪辑软件,依托于抖音平台且基本面向该平台用户制作短视频内容,并兼容iOS、安卓、Windows、MacOS等操作系统。剪映官方宣布会员体系升级,推出全新SVIP,包含多种AI黑科技,例如智能翻译、智能划重点、智能包装、数字人合成等。价格方面,剪映SVIP月费79元,年费599元(本站注:折合每月49.9元),连续包月则为59元每月,连续包年为499元每年(折合每月41.6元)。此外,剪映官方还表示,为提升用户体验,向已订阅了原版VIP

使用Rag和Sem-Rag提供上下文增强AI编码助手 使用Rag和Sem-Rag提供上下文增强AI编码助手 Jun 10, 2024 am 11:08 AM

通过将检索增强生成和语义记忆纳入AI编码助手,提升开发人员的生产力、效率和准确性。译自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。虽然基本AI编程助手自然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和正确的代码建议。这些编码助手生成的代码适合解决他们负责解决的问题,但通常不符合各个团队的编码标准、惯例和风格。这通常会导致需要修改或完善其建议,以便将代码接受到应

微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉 微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉 Jun 11, 2024 pm 03:57 PM

大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合

为大模型提供全新科学复杂问答基准与测评体系,UNSW、阿贡、芝加哥大学等多家机构联合推出SciQAG框架 为大模型提供全新科学复杂问答基准与测评体系,UNSW、阿贡、芝加哥大学等多家机构联合推出SciQAG框架 Jul 25, 2024 am 06:42 AM

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

SOTA性能,厦大多模态蛋白质-配体亲和力预测AI方法,首次结合分子表面信息 SOTA性能,厦大多模态蛋白质-配体亲和力预测AI方法,首次结合分子表面信息 Jul 17, 2024 pm 06:37 PM

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S

SK 海力士 8 月 6 日将展示 AI 相关新品:12 层 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日将展示 AI 相关新品:12 层 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)发布博文,宣布将出席8月6日至8日,在美国加利福尼亚州圣克拉拉举行的全球半导体存储器峰会FMS2024,展示诸多新一代产品。未来存储器和存储峰会(FutureMemoryandStorage)简介前身是主要面向NAND供应商的闪存峰会(FlashMemorySummit),在人工智能技术日益受到关注的背景下,今年重新命名为未来存储器和存储峰会(FutureMemoryandStorage),以邀请DRAM和存储供应商等更多参与者。新产品SK海力士去年在

布局 AI 等市场,格芯收购泰戈尔科技氮化镓技术和相关团队 布局 AI 等市场,格芯收购泰戈尔科技氮化镓技术和相关团队 Jul 15, 2024 pm 12:21 PM

本站7月5日消息,格芯(GlobalFoundries)于今年7月1日发布新闻稿,宣布收购泰戈尔科技(TagoreTechnology)的功率氮化镓(GaN)技术及知识产权组合,希望在汽车、物联网和人工智能数据中心应用领域探索更高的效率和更好的性能。随着生成式人工智能(GenerativeAI)等技术在数字世界的不断发展,氮化镓(GaN)已成为可持续高效电源管理(尤其是在数据中心)的关键解决方案。本站援引官方公告内容,在本次收购过程中,泰戈尔科技公司工程师团队将加入格芯,进一步开发氮化镓技术。G

See all articles