垂直大模型竞争,能突破数据“卡点”吗?
AI大模型火遍全球,中国产业也激发了对人工智能应用的新热情。
随着各大厂商参与竞逐,市场正在分化为通用与垂直两大路径,两者在参数级别、应用场景、商业模式等方面差异已逐步显现。
1.企业涌入垂直大模型赛道
通用AI大模型像ChatGPT,能够处理各种领域和场景的自然语言,但由于需要巨大的计算资源和数据量,已经成为国内外大厂的重点项目。
这类企业通常拥有强大的技术团队和资金支持,同时具备其自身的场景和流量优势。百度、阿里、腾讯、字节、华为等公司在搜索、社交、电商、办公等领域都采用了自己的通用AI大模型。
相较之下,创业公司、细分领域企业很难在这样的竞争中获得先发优势或者差异化优势。
而垂直AI大模型只关注某个特定的领域或者场景,它能够利用行业的数据和知识,提供更精准和高效的解决方案,更好地满足用户在某个领域或者场景下的需求和期待,如:医疗、金融、教育等。
同时,它可以利用一些开源或者闭源的通用AI大模型作为基础,然后在其上进行指令微调(instruction tuning),来适应自己的目标领域或者场景。
因此,它的参数规模比通用大模型低一个量级,如果让数据飞轮和模型训练能够很好结合,在某些特定领域甚至比通用大模型的效果更好、成本更低。
在这样的背景下,越来越多的企业加入了垂直大模型的赛道。
5月18日,深信服发布国内首个自研安全大模型,成为安全领域GPT技术应用首秀;
5月5日,学而思宣布正在进行自研数学大模型的研发,命名为MathGPT,面向全球数学爱好者和科研机构;
3月,达观数据公布正在开发曹植系统,专注于金融、政务、制造等垂直领域的大语言模型。
明确的商业化落地场景和更低的算力成本,为各类企业打开了进军垂直大模型的大门。
2.垂直大模型的考验
垂直大模型的优势在于不够大:算力不够大、算法难度低,但并不代表垂直大模型谁都能做。
众所周知,AI大模型三要素:算力、算法、数据,都是喂养AI的“饲料”。
先说算力。
大模型之所以“大”,就是因为参数众多和数据量庞大。AI大模型所需要的计算量,大致上相当于参数量与数据量的乘积。
过去5年,AI大模型的参数量几乎每年提升一个数量级,例如GPT-4参数量是GPT-3的16倍,达到1.6万亿个。
随着图像、音视频等多模态数据的引入,大模型的数据量也在飞速膨胀。这意味着想要玩转大模型,必须拥有大算力。
而一套垂直大模型的训练和推理成本,做个参考,在数字人垂类技术场景中,可以做到比Open AI同参数规模的模型低一个量级,像启元世界的战略总监王思捷就曾提到:先构建更小的垂类模型(比如百亿参数、十亿参数),让数据飞轮和模型训练能够很好结合,垂类模型在某些领域可能比Open AI的效果更好成本更低。
即便垂直大模型在算力要求上已远远低于通用大模型,但对算力基础设施的投入依然会阻挡部分小公司的入局。
再说算法。
在三要素中,算法的研发难度相对较低,每家公司都有自己实现大模型的路径算法,且有众多开源项目可作为参考,中国公司最容易缩短甚至抹平差距。
最后说数据。
高质量的数据是助力AI训练与调优的关键,足够多、足够丰富的数据,是AI大模型的根基。
OpenAI此前披露,为了AI像人类那样流畅交谈,研发人员给GPT-3.5提供多达45TB的文本语料,相当于472万套中国“四大名著”。这些语料来源广泛,包括维基百科、网络文章、书籍期刊等,甚至将开源代码平台Github也纳入其中。
但是聚焦到细分行业,数据的获取就没那么容易了。
兴业证券公开表示,要训练专业的行业大模型,优质的行业数据、公共数据至关重要。
就国内数据市场而言,据发改委官方批露,我国政府数据资源占全国数据资源的比重超过3/4,但开放规模不足美国的10%,个人和企业可以利用的规模更是不及美国的7%。
而行业数据更是非常核心的私域数据,私域数据量越大,质量越高,就越有价值。
如果一个医疗公司拥有丰富的医疗数据和病例数据,它就有能力开发出类似于医疗行业的大型垂直模型产品。建筑行业的项目数据、金融行业的用户画像数据以及海运行业的船位数据等,都是关键的数据源,为垂直大模型提供支持。
但是这些私域数据都攥在企业自己手中,而且为了数据安全和合规,绝大部分机构是要本地化部署才会尝试大模型训练,很难想象企业会把自己的核心数据拿给别人去训练。
此外,如何合理地给数据打上分级标签、做好标注也非常重要。将原话重写为:对数据进行不同级别的分类可以提高产品效率,而高度精准的标记数据可以进一步提升大型模型的专业表现。
但现阶段垂直行业想要获取高精度标注数据的成本较高,而在公开数据库中,行业专业数据也较少,因此对垂直大模型的建构提出了很高的要求。
总体而言,想要做好垂直大模型,数据的重要性,远超过算力和算法。
数据,已成为企业突破垂直大模型的“卡点”。
3.手握行业数据领先一步
垂类大模型讲求应用与场景先行的逻辑,而在国内更是强调产业侧的价值。
一方面,在当前中国的智能化浪潮下,产业侧数字化革新本就有广阔的市场需求;另一方面,在toB生态下,基于垂直应用的实践也有利于形成数据飞轮与场景飞轮。
而这一切的前提,是推出垂类大模型的公司在该行业已建立技术壁垒与护城河,即“人无我有”的竞争优势。
如此看来,在垂直行业深耕多年的企业或将有更大的赢面。
这些企业在数据处理、大型模型和知识图谱领域拥有深厚的积累,在优化大型模型方面具有更大的优势。同时,它们对于to B客户需求和落地场景有很深的理解,能够更好地保证垂直大模型产品的可信和可靠,满足企业级对于安全可控合规的需求。
目前,已有一些垂类大模型在金融、教育、医药、营销等场景中得到试炼。
例如,彭博社利用自身丰富的金融数据源,基于开源的GPT-3框架再训练,开发出了金融专属大模型BloombergGPT;
网易有道则面向教育场景,推出自研的类ChatGPT模型“子曰”;
在ChatGPT发布后仅几周,谷歌公布了一个专门用于回答医疗保健相关问题的大型医用语言模型Med-PaLM......
随着更多企业的加入,垂直领域大型模型将会广泛涌现于各个行业和细分领域中。而那些能将一个垂直领域做专、做透,用高质量的数据持续优化模型,跑通商业闭环,构建起产业生态的企业,最终将把价值链做到足够长。
以上是垂直大模型竞争,能突破数据“卡点”吗?的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

本站6月27日消息,剪映是由字节跳动旗下脸萌科技开发的一款视频剪辑软件,依托于抖音平台且基本面向该平台用户制作短视频内容,并兼容iOS、安卓、Windows、MacOS等操作系统。剪映官方宣布会员体系升级,推出全新SVIP,包含多种AI黑科技,例如智能翻译、智能划重点、智能包装、数字人合成等。价格方面,剪映SVIP月费79元,年费599元(本站注:折合每月49.9元),连续包月则为59元每月,连续包年为499元每年(折合每月41.6元)。此外,剪映官方还表示,为提升用户体验,向已订阅了原版VIP

通过将检索增强生成和语义记忆纳入AI编码助手,提升开发人员的生产力、效率和准确性。译自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。虽然基本AI编程助手自然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和正确的代码建议。这些编码助手生成的代码适合解决他们负责解决的问题,但通常不符合各个团队的编码标准、惯例和风格。这通常会导致需要修改或完善其建议,以便将代码接受到应

大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合

想了解更多AIGC的内容,请访问:51CTOAI.x社区https://www.51cto.com/aigc/译者|晶颜审校|重楼不同于互联网上随处可见的传统问题库,这些问题需要跳出常规思维。大语言模型(LLM)在数据科学、生成式人工智能(GenAI)和人工智能领域越来越重要。这些复杂的算法提升了人类的技能,并在诸多行业中推动了效率和创新性的提升,成为企业保持竞争力的关键。LLM的应用范围非常广泛,它可以用于自然语言处理、文本生成、语音识别和推荐系统等领域。通过学习大量的数据,LLM能够生成文本

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S

本站8月1日消息,SK海力士今天(8月1日)发布博文,宣布将出席8月6日至8日,在美国加利福尼亚州圣克拉拉举行的全球半导体存储器峰会FMS2024,展示诸多新一代产品。未来存储器和存储峰会(FutureMemoryandStorage)简介前身是主要面向NAND供应商的闪存峰会(FlashMemorySummit),在人工智能技术日益受到关注的背景下,今年重新命名为未来存储器和存储峰会(FutureMemoryandStorage),以邀请DRAM和存储供应商等更多参与者。新产品SK海力士去年在
