生成式AI的五大模型:VAEs、GANs、Diffusion、Transformers、NeRFs
为任务选择正确的GenAI模型需要了解每个模型使用的技术及其特定能力,下面请了解VAEs、GANs、Diffusion、Transformers和NerFs五大GenAI模型。
以前,大多数人工智能模型都专注于更好地处理、分析和解释数据。直到最近,在所谓的生成神经网络模型方面的突破带来了一系列用于创建各种内容的新工具,从照片和绘画到诗歌、代码、电影剧本和电影。
顶级 AI 生成模型概述
在2010年代中期,研究人员发现了生成人工智能模型的新前景。当时,他们开发了变分自编码器(VAEs)、生成对抗网络(GAN)和扩散模型(Diffusion)。2017年问世的转换器(Transformers)是一种突破性的神经网络,能够大规模分析大型数据集,以自动创建大型语言模型(LLM)。到了2020年,研究人员引入了神经辐射场(NeRF)技术,这种技术可以从三维图像生成二维内容
这些生成模型的快速发展是一项正在进行的工作,因为研究人员的调整通常会带来巨大的进步,并且显著的进展并没有减缓。怀特教授在加州大学伯克利分校表示:“模型架构在不断变化,将继续开发新的模型架构。”
每个模型都有其特殊的能力,目前,扩散模型(Diffusion)在图像和视频合成领域表现异常出色,转换器模型(Transformers)在文本领域表现良好,GAN 擅长用合理的合成样本来扩充小数据集。但是选择最佳模型始终取决于特定的用例。
所有的模型都不相同,人工智能研究人员和ML(机器学习)工程师必须为适当的用例和所需的性能选择合适的一个,并考虑模型在计算、内存和资本方面可能存在的限制。
特别是转换器模型对生成模型的最新进展和激动产生了推动作用。UST数字化转型咨询公司的首席人工智能架构师Adnan Masood表示:“人工智能模型的最新突破来自于对大量数据进行预训练,并使用自我监督学习来训练没有明确标签的模型。”
例如,OpenAI的生成式预训练转换器系列模型是该类别中最大、最强大的模型之一。其中,GPT-3模型就包含了175亿个参数
顶级生成式 AI 模型的主要应用
Masood解释说,顶级生成AI模型使用各种不同的技术和方法来生成全新的数据。这些模型的主要功能和用途包括:
- VAE使用编码器-解码器架构来生成新数据,通常用于图像和视频生成,例如生成用于隐私保护的合成人脸。
- GAN 使用生成器和鉴别器来生成新数据,通常用于视频游戏开发中以创建逼真的游戏角色。
- Diffusion添加然后消除噪声以生成具有高细节水平的高质量图像,从而创建近乎逼真的自然场景图像。
- Transformer可以有效地并行处理顺序数据,以进行机器翻译、文本摘要和图像创建。
- NeRF提供了一种使用神经表示的3D场景重建的新方法。
下面让我们更详细地介绍每种方法。
VAE
VAE是在2014年开发的,其目的是利用神经网络更有效地对数据进行编码
Sisense的AI负责人Yael Lev表示,人工智能分析平台VAE学会了更有效地表达信息。VAE由两部分组成:一个编码器(encoder)将数据压缩,另一个解码器(decoder)将数据恢复到原始形式。它们非常适合从较小的信息中生成新的实例,修复嘈杂的图像或数据,检测数据中的异常内容并填充缺失的信息
然而,根据UST的Masood所说,变分自编码器(VAE)也倾向于生成模糊或低质量的图像。另外一个问题是,用于捕获数据结构的低维潜在空间错综复杂且具有挑战性。这些缺点可能会限制VAE在需要高质量图像或对潜在空间有清晰理解的应用中的有效性。VAE的下一次迭代可能会侧重于提高生成数据的质量、加快训练速度并探索其在序列数据方面的适用性
GANs
GANs是在2014年开发出来的,它被用于生成逼真的面部和打印数字。GAN将生成真实内容的神经网络与检测虚假内容的神经网络对立起来。普华永道全球人工智能负责人Anand Rao说:“逐步地,这两个网络融合在一起,产生了与原始数据无法区分的生成图像。”
GAN 通常用于图像生成、图像编辑、超分辨率、数据增强、风格传输、音乐生成和深度伪造创建。GAN的一个问题是,它们可能会遭受模式崩溃,其中生成器产生有限和重复的输出,使它们难以训练。Masood说,下一代GAN将专注于提高训练过程的稳定性和融合性,将其适用性扩展到其他领域,并开发更有效的评估指标。GAN也很难优化和稳定,并且对生成的样本没有明确的控制。
Diffusion
扩散模型由斯坦福大学的一组研究人员于2015年开发,用于模拟和反转熵和噪声。扩散技术提供了一种模拟现象的方法,例如盐等物质如何扩散到液体中,然后逆转它,此相同模型还有助于从空白图像生成新内容。
扩散模型是当前图像生成的首选,它们是流行的图像生成服务的基本模型,例如Dall-E 2,Stable Diffusion,Midjourney和Imagen。它们还用于管道中生成语音、视频和 3D 内容。此外,扩散技术还可用于数据插补,其中预测和生成缺失数据
许多应用将扩散模型与LLM配对,用于文本到图像或文本到视频生成。例如,Stable Diffusion 2 使用对比语言-图像预训练模型作为文本编码器,它还添加了用于深度和升级的模型。
Masood预测,对稳定扩散等模型的进一步改进可能侧重于改进负面提示,增强以特定艺术家风格生成图像的能力,并改善名人图像。
Transformers
转换器模型是由Google Brain的一个团队在2017年开发的,旨在改善语言翻译。这些模型非常适合以不同的顺序处理信息,并且能够并行处理数据,同时还能利用未标记的数据来扩展到大型模型
重写后的内容:这些技术可以应用于文本摘要、聊天机器人、推荐引擎、语言翻译、知识库、个性化推荐(通过偏好模型)、情感分析和命名实体识别,用于识别人物、地点和事物。此外,它们还可以用于语音识别,如OpenAI的耳语技术,以及视频和图像中的对象检测、图像字幕、文本分类和对话生成等领域
尽管Transformers具有多功能性,但它们确实存在局限性。它们的训练成本可能很高,并且需要大型数据集。由此产生的模型也相当大,这使得识别偏差或不准确结果的来源变得具有挑战性。马苏德说:“它们的复杂性也使得解释其内部运作变得困难,阻碍了它们的可解释性和透明度。
Transformer模型架构
NeRF
NeRF 于 2020 年开发,用于将光场的 3D 表示捕获到神经网络中,第一次实施非常缓慢,需要几天时间才能捕获第一个3D图像。
然而,在2022年,英伟达公司的研究人员发现了一种在大约30秒内生成新模型的方法。这些模型可以以几兆字节为单位表示3D对象,并具有相当的质量,而其他技术可能需要占用千兆字节。这些模型有望为捕捉和生成元宇宙中的3D对象带来更有效的技术。英伟达的研究总监亚历山大·凯勒(Alexander Keller)表示,NeRFs对于3D图形的重要性最终可能与数码相机对现代摄影的重要性一样重要
Masood表示,NeRF在机器人、城市测绘、自主导航和虚拟现实应用方面显示出巨大的潜力。然而,NERF的计算成本仍然很高,将多个NERF组合成更大的场景也很具有挑战性,今天NeRF唯一可行的用例是将图像转换为3D对象或场景。尽管存在这些限制,Masood预测NeRF将在基本图像处理任务中找到新的角色,例如去噪,去模糊,上采样,压缩和图像编辑
GenAI生态系统进行时
重要的是要注意,这些模型正在进行中,研究人员正在寻求改进单个模型以及将它们与其他模型和处理技术相结合的方法。Lev预测,生成模型将变得更加通用,应用程序将扩展到传统领域之外,用户还可以更有效地指导AI模型,并了解它们如何更好地工作。
在多模态模型上也有工作正在进行中,这些模型使用检索方法来调用针对特定任务优化的模型库。他还希望生成模型能够开发其他功能,例如进行API调用和使用外部工具,例如,根据公司的呼叫中心知识微调的LLM将提供问题的答案并执行故障排除,例如重置客户调制解调器或在问题解决时发送电子邮件。
实际上,未来可能会有更高效的东西取代今天流行的模型架构。怀特表示:“当新架构出现时,Diffusion和Transformer模型可能不再有用。”我们从Diffusion的引入中看到了这一点,因为它们对自然语言应用的方法并不利于长短期记忆算法和递归神经网络(RNN)
有人预测,生成AI生态系统将演变为三层模型。基础层是一系列基于文本、图像、语音和代码的基础模型,这些模型会摄取大量数据,并基于大型深度学习模型构建,同时结合了人类的判断。接下来,特定于行业和功能的领域模型将改善医疗保健、法律或其他类型的数据处理。在顶层,公司将使用专有数据和主题专业知识构建专有模型。这三个层将颠覆团队开发模型的方式,并迎来模型即服务的新时代
如何选择生成式 AI 模型:首要注意事项
根据Sisense的Lev的说法,在模型之间进行选择时的首要考虑因素包括以下内容:
您要解决的问题。选择已知适用于您的特定任务的模型。例如,将转换器用于语言任务,将 NeRF 用于 3D 场景。
数据的数量和质量。Diffusion需要大量良好的数据才能正常工作,而VAE则在数据较少的情况下工作得更好。
结果的质量。GAN 更适合清晰和详细的图像,而 VAE 更适合更平滑的结果。
训练模型的难易程度。GAN可能很难训练,而VAE和Diffusion更容易。
计算资源要求。NeRF和Diffusion都需要大量的计算机能力才能正常工作。
需要控制和理解。如果您想更好地控制结果或更好地了解模型的工作原理,VAE 可能比 GAN 更好。
以上是生成式AI的五大模型:VAEs、GANs、Diffusion、Transformers、NeRFs的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

本站6月27日消息,剪映是由字节跳动旗下脸萌科技开发的一款视频剪辑软件,依托于抖音平台且基本面向该平台用户制作短视频内容,并兼容iOS、安卓、Windows、MacOS等操作系统。剪映官方宣布会员体系升级,推出全新SVIP,包含多种AI黑科技,例如智能翻译、智能划重点、智能包装、数字人合成等。价格方面,剪映SVIP月费79元,年费599元(本站注:折合每月49.9元),连续包月则为59元每月,连续包年为499元每年(折合每月41.6元)。此外,剪映官方还表示,为提升用户体验,向已订阅了原版VIP

通过将检索增强生成和语义记忆纳入AI编码助手,提升开发人员的生产力、效率和准确性。译自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。虽然基本AI编程助手自然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和正确的代码建议。这些编码助手生成的代码适合解决他们负责解决的问题,但通常不符合各个团队的编码标准、惯例和风格。这通常会导致需要修改或完善其建议,以便将代码接受到应

大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合

想了解更多AIGC的内容,请访问:51CTOAI.x社区https://www.51cto.com/aigc/译者|晶颜审校|重楼不同于互联网上随处可见的传统问题库,这些问题需要跳出常规思维。大语言模型(LLM)在数据科学、生成式人工智能(GenAI)和人工智能领域越来越重要。这些复杂的算法提升了人类的技能,并在诸多行业中推动了效率和创新性的提升,成为企业保持竞争力的关键。LLM的应用范围非常广泛,它可以用于自然语言处理、文本生成、语音识别和推荐系统等领域。通过学习大量的数据,LLM能够生成文本

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S

本站7月5日消息,格芯(GlobalFoundries)于今年7月1日发布新闻稿,宣布收购泰戈尔科技(TagoreTechnology)的功率氮化镓(GaN)技术及知识产权组合,希望在汽车、物联网和人工智能数据中心应用领域探索更高的效率和更好的性能。随着生成式人工智能(GenerativeAI)等技术在数字世界的不断发展,氮化镓(GaN)已成为可持续高效电源管理(尤其是在数据中心)的关键解决方案。本站援引官方公告内容,在本次收购过程中,泰戈尔科技公司工程师团队将加入格芯,进一步开发氮化镓技术。G
