“大建设”时期,AI算力何去何从?
算力就是生产力,得算力者得天下。
随着新一代人工智能技术的快速发展和突破,以深度学习计算模式为主的AI算力需求呈指数级增长。
数据显示,在1960到2010年间,AI的计算复杂度每两年翻一番;在2010到2020年间,AI的计算复杂度每年猛增10倍。
面对如此大的模型和复杂的计算,提升AI算力迫在眉睫。
毕竟,在人工智能发展的三要素:数据、算法和算力中,无论是数据还是算法,都离不开算力的支撑。
那么,AI算力从哪来?
AI算力进入“大建设”时期
AI算力对于提升国家、区域经济核心竞争力的重要作用已经成为业界共识。
《2020全球计算力指数评估报告》显示,计算力指数平均每提高1个点,数字经济和GDP将分别增长3.3‰和1.8‰”。对数字经济肉眼可见的拉动作用,成为国家和地方政府加码AI算力的内在逻辑。
放眼国际,在政府投资主导模式下,美国依托能源部下属6大国家实验室、国家科学基金会支持的依托高校的智能计算中心以及NASA下属的研究中心超级计算中心这三大体系,大力推动算力平台“长出”智能计算能力;欧盟则通过“EuroHPC计划”在欧洲建设8处大规模算力平台,并积极促进与人工智能技术的结合。
我国AI算力建设也正进入一个“大建设”时期。
自2017年国务院印发《新一代人工智能发展规划》以来,我国通过政府投资主导、企业投资主导、政企合资等模式,一批AI算力基础设施拔地而起。
近年来,随着“东数西算”工程的启动以及智算中心的建设,从国家层面实现有效的资源结构整合,目前全国已有8地启动建设国家算力枢纽节点,并规划了10个国家数据中心集群,以推进集约化、绿色节能、安全稳定的算力基础设施的建设。
同时,在新基建等政策的鼓励和支持下,各地方政府也在积极开展人工智能计算中心(AIDC)的建设。
据智东西统计,2021年1月到2022年2月之间,全国规划、在建和投入运营的人工智能计算中心超过20个,其中8个城市的人工智能计算中心已建成并投入运营的。
各地的AIDC可提供或规划的算力规模一般为100PFLOPS,相当于5万台高性能电脑的算力。
例如,武汉AIDC一期可提供100PFLOPS的算力,从2021年5月投入运营至12月,吸引了超过100多家企业入驻, 已孵化出超过50多类场景化解决方案,日均算力使用超过90%。
在武汉AIDC的算力使用接近饱和的状态下,其在2021年底完成了二期扩容工程,可提供总算力200PFLOPS,正在规划三期扩容工程。
在AI产业化、产业AI化和政府治理智能化等需求的驱动下,我国AI算力蓬勃发展。
据IDC 与浪潮信息联合发布《2022-2023中国人工智能计算力发展评估报告》显示,中国人工智能计算力继续保持快速增长,2022年智能算力规模达到268百亿亿次/秒(EFLOPS),超过通用算力规模。
预计未来5年中国智能算力规模的年复合增长率将达52.3%,而同期通用算力规模的复合增长率为18.5%。
AI算力建设仍面临挑战
目前,AI算力建设还处于初期摸索阶段,存在建设标准不统一,行业定价混乱等问题。这些问题正在成为这一新生平台发展路上的滞碍。
在《新一代人工智能算力基础设施发展研究》白皮书中,国家工业信息安全发展研究中心梳理了AI算力基础设施建设中的四方面问题:国家顶层制度建设和标准体系仍不统一、国内AI芯片等软硬件技术仍受制于国外、大型智算中心面临重复建设且高能耗问题、重建设轻应用导致无法覆盖不同的应用场景需求。
以行业定价标准混乱为例,国家工业信息安全发展研究中心副总工程师兼信息政策所所长黄鹏指出,功能类似、规模近似的两家智算中心,建设投入相差6倍多。
从AI算力的建设成本看,可分为厂房等基建、服务器和计算芯片等设备和产品、后期运维成本和电费等。
就基建、电费、人员等的成本而言,东西部或许有差异,但并不会差6倍这么多。
这也说明了我国还处于智能算力发展的初级阶段,还没有形成标准化的模式。
黄鹏认为,智算中心的建设可借鉴参考中科院人工智能产学研创新联盟推出的算力价格标准方案——在综合存储、能耗、开发、定制、数据调度等一系列因子并代入明确算法标准后,得出同时具备5P双精度算力(64位)、25P单精度算力(32位)和100P半精度算力(16位)的情况下,智能计算中心的基础设施价格约为1亿~1.5亿元。
黄鹏建议,地方政府要在建设AI算力平台之前做好充分的调研和论证,以免出现“低水平重复建设”和“与当地发展需求不匹配”的情况。
如果说“概念混淆”“价格混乱”“重建设轻应用”等问题可以通过充分的调研和论证来规避,但AI算力建设的一些深层次难题还需要全产业链的努力,比如AI软硬件技术受制于国外、大型AI计算中心的能耗过大成本过高等等。
企业层面要积极探索AI技术研发和模式创新,尤其要加大对AI芯片等核心技术的自主研发力度,联合上下游提升产业链粘合度和生态兼容度,同时加强对算法、框架、模型等软件平台及应用的研发,把技术发展掌握在自己手中。
场景落地推动AI算力发展
不可否认的是,一个国家的算力规模越大,经济发展水平就越高。
全球各国的算力规模与经济发展水平,已经呈现出显著的正相关关系。
万物智联时代的到来,AI智能场景的落地,将产生难以想象的海量数据。这些数据将进一步刺激对AI算力的需求。
《2022-2023 中国人工智能计算力发展评估报告》显示,2022 年中国人工智能行业应用渗透度排名前五的行业依次为互联网、金融、政府、电信和制造。
与2021年相比,行业AI渗透度明显提升。
其中,互联网行业依然是人工智能应用渗透度和投资最高的行业;
金融行业的人工智能渗透度从2021年的55%提升到62%,智能客服、实体机器人、智慧网点、云上网点等成为人工智能在金融行业的应用典型;
电信行业的人工智能渗透度从2021年的45%增长到51%,人工智能技术融入电信网络的构建、优化,并为下一代智慧网络建设提供支撑;
制造行业的人工智能渗透度从40%增长到45%,预计到2023年年底,中国50%的制造业供应链环节将采用人工智能。
随着新的技术和应用场景的使用量和开发量不断提升,也为AI算力的发展带来了源源不断的动力。
一是,云端AI模型正向着大型化的方向发展,算力基础设施建设成为竞争的关键要素。
2019年谷歌推出的BERT大模型拥有3.4亿个参数,使用了64个TPU,训练到目标精度的花费为1.5万美元。
2020,OpenAI推出的GPT-3大模型拥有1750亿参数,训练成本达到了1200万美元。
2021年,微软和英伟达使用了4480个GPU训练出的拥有5300亿参数的MT-NLG大模型,其训练成本更是高达8500万美元。
二是,边缘端对AI算力需求快速增加。
云游戏、自动驾驶等新兴应用场景对于数据传输的速度和量级都提出了更高要求,在终端和云端间布设边缘端,形成“云-边-端”通信架构已经成为未来技术发展的主要方向。
边缘计算的需求增长将有效带动AI算力的发展。
三是,智能网联汽车对AI算力需求提升。
自动驾驶汽车渗透率不断提升,汽车驾驶控制系统正向“感知-识别-交互”等智能功能发展。
因此,智能驾驶AI模型对于汽车从L1/L2辅助驾驶阶段走向L3/L4自动驾驶阶段,并最终实现“智能决策、实时控制”的功能具有重要作用。
随着需要训练的各类行驶数据量的增加,以及开发智能驾驶AI模型需求的增加,未来对于AI算力的需求将大幅提升。
四是,虚拟现实世界的构建需要AI算力支持。
AI技术为虚拟现实世界提供建模自动化、交互方式智能化等智慧化赋能,有望提高VR内容生效率和用户的沉浸式体验。
VR内容提供商对于快速打造虚拟场景、提高用户感官体验的追求,激发了其对于AI算力的需求。
结语
新一轮的算力革命,正在加速启动。
作为新的生产力,算力仍面临许多挑战,需要落实集中算力的普惠功能,真正发挥出“电力”和“石油”的作用。
毕竟,“用得上,用得起,用得好”的算力资源,才是真正的变革生产力的基础设施。
以上是“大建设”时期,AI算力何去何从?的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

本站6月27日消息,剪映是由字节跳动旗下脸萌科技开发的一款视频剪辑软件,依托于抖音平台且基本面向该平台用户制作短视频内容,并兼容iOS、安卓、Windows、MacOS等操作系统。剪映官方宣布会员体系升级,推出全新SVIP,包含多种AI黑科技,例如智能翻译、智能划重点、智能包装、数字人合成等。价格方面,剪映SVIP月费79元,年费599元(本站注:折合每月49.9元),连续包月则为59元每月,连续包年为499元每年(折合每月41.6元)。此外,剪映官方还表示,为提升用户体验,向已订阅了原版VIP

通过将检索增强生成和语义记忆纳入AI编码助手,提升开发人员的生产力、效率和准确性。译自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。虽然基本AI编程助手自然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和正确的代码建议。这些编码助手生成的代码适合解决他们负责解决的问题,但通常不符合各个团队的编码标准、惯例和风格。这通常会导致需要修改或完善其建议,以便将代码接受到应

大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时被“具体化”。在预训练结束时,模型实际上停止学习。对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使用模型适应新的领域被认为是有益的。这种微调是使用人工标注者或其他llm创建的输入进行的,模型会遇到额外的实际知识并将其整合

想了解更多AIGC的内容,请访问:51CTOAI.x社区https://www.51cto.com/aigc/译者|晶颜审校|重楼不同于互联网上随处可见的传统问题库,这些问题需要跳出常规思维。大语言模型(LLM)在数据科学、生成式人工智能(GenAI)和人工智能领域越来越重要。这些复杂的算法提升了人类的技能,并在诸多行业中推动了效率和创新性的提升,成为企业保持竞争力的关键。LLM的应用范围非常广泛,它可以用于自然语言处理、文本生成、语音识别和推荐系统等领域。通过学习大量的数据,LLM能够生成文本

编辑|ScienceAI问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。其一,数据形式较为单一,大多数为多项选择题(multiple-choicequestions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

编辑|萝卜皮自2021年发布强大的AlphaFold2以来,科学家们一直在使用蛋白质结构预测模型来绘制细胞内各种蛋白质结构的图谱、发现药物,并绘制每种已知蛋白质相互作用的「宇宙图」 。就在刚刚,GoogleDeepMind发布了AlphaFold3模型,该模型能够对包括蛋白质、核酸、小分子、离子和修饰残基在内的复合物进行联合结构预测。 AlphaFold3的准确性对比过去许多专用工具(蛋白质-配体相互作用、蛋白质-核酸相互作用、抗体-抗原预测)有显着提高。这表明,在单个统一的深度学习框架内,可以实现

编辑|KX在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。相关研究以「S
