英伟达推出全新AI芯片H200,性能大幅提升90%!中国算力实现自主突破!
当全球还在为英伟达H100芯片痴迷并疯狂购买以满足持续增长的AI算力需求之时,当地时间周一,英伟达悄然推出了最新的AI芯片H200,用于AI大模型的训练,相比于其前一代产品H100,H200的性能提升了约60%到90%。
H200是英伟达H100的升级版,与H100同样基于Hopper架构,主要升级包括141GB的HBM3e显存,显存带宽从H100的3.35TB/s增加到了4.8TB/s。据英伟达官网消息, H200也是公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大语言模型。英伟达称:“借助HBM3e,英伟达H200以每秒4.8TB的速度提供141GB的内存,与A100相比,容量几乎是其两倍,带宽增加了2.4倍。”
根据官方发布的图片,H200在大模型Llama 2、GPT-3.5的输出速度上分别是H100的1.9倍和1.6倍,在高性能计算HPC方面的速度更是达到了双核x86 CPU的110倍。
H200预计将于明年二季度开始交付,英伟达尚未公布其价格。
不过,与H100等AI芯片一样,英伟达并不会向中国厂商供应H200芯片。今年10月17日,美国商务部发布了针对芯片的出口管制新规,尤其是对高算力的AI芯片进行了更严格的管控。其中一个很重要的新规定就是调整了先进计算芯片受限的标准,设置了新的“性能密度阈值”来作为参数。根据新规,英伟达中国“特供版”H800和A800已经被限制对华出口。
缺少最先进的AI芯片短期内对国内AI产业发展将带来一些挑战,但也同时蕴含着机遇:
首先是国产算力芯片的替代机遇,比如近期百度订购1600片华为昇腾910B芯片;其次是供需错配的情况下,算力租赁价格上涨,将利好算力租赁企业。14日,汇纳科技宣布内嵌英伟达A100芯片的高性能算力服务器算力服务收费同步上调100%;最后,以Chiplet为代表的先进封装技术在一定程度上,可以解决先进制程产能不足的问题,有望迎来加速发展。
那么除华为昇腾外,国产算力还有谁能扛起大旗?产业链相关公司有哪些?还有哪些方向有望间接受益?我们国产AI算力自主可控的四大受益方向和代表公司,制作了专题《AI算力自主可控势在必行》,有需要的小伙伴,欢迎扫描下方二维码或添加小助手微信:hzkyxjyy,免费获取或围观朋友圈阅读。添加成功后,过往所有报告以及未来每期专题报告均可免费阅读。
以上是英伟达推出全新AI芯片H200,性能大幅提升90%!中国算力实现自主突破!的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

11月14日消息,英伟达(Nvidia)在当地时间13日上午的“Supercomputing23”会议上正式发布了全新的H200GPU,并更新了GH200产品线其中,H200依然是建立在现有的HopperH100架构之上,但增加了更多高带宽内存(HBM3e),从而更好地处理开发和实施人工智能所需的大型数据集,使得运行大模型的综合性能相比前代H100提升了60%到90%。而更新后的GH200,也将为下一代AI超级计算机提供动力。2024年将会有超过200exaflops的AI计算能力上线。H200

6月19日消息,据中国台湾媒体报道,谷歌(Google)为了研发最新的面向服务器的AI芯片,已经找来联发科合合作,并计划交由台积电5nm制程代工,计划明年初量产。报道称,消息人士透露,这次谷歌与联发科的合作,将由联发科提供串行器及解串器(SerDes)方案,并协助整合谷歌自研的张量处理器(TPU),助力谷歌打造最新的服务器AI晶片,性能将比CPU或GPU架构更强大。业界指出,谷歌目前的多项服务都与AI有关,早在多年前就投入到了深度学习技术当中,发现运用GPU来进行AI运算成本十分昂贵,因此谷歌决

号称世界最强AI芯片英伟达H200亮相后,业内开始期待英伟达更强大的B100芯片,与此同时,今年以来最红的初创AI公司OpenAI已经开始研发更强大、更复杂的GPT-5模型。国泰君安在最新的研报中指出,性能无边的B100与GPT5预计在2024年发布,重磅升级或释放前所未有的生产力。该机构表示,看好AI进入快速发展的成长期,能见度持续至2024年。相较于前几代产品,B100和GPT-5究竟有多强大?英伟达和OpenAI已经给出了预告:B100速度可能是H100的4倍以上,而GPT-5可能会实现超

KL730在能效方面的进步使得解决了人工智能模型落地方面最大的瓶颈——能源成本,相较于行业及以往耐能的芯片,提高了3到4倍KL730芯片支持最先进的轻量级GPT大语言模型,如nanoGPT,并提供每秒0.35-4tera的有效计算能力AI公司耐能今日宣布发布KL730芯片,该芯片集成了车规级NPU和图像信号处理(ISP),将安全而低能耗的AI能力赋能到边缘服务器、智能家居及汽车辅助驾驶系统等各类应用场景中。总部位于圣迭戈的耐能以其开创性的神经处理单元(NPU)而闻名耐能最新款芯片KL730旨在实

当全球还在为英伟达H100芯片痴迷并疯狂购买以满足持续增长的AI算力需求之时,当地时间周一,英伟达悄然推出了最新的AI芯片H200,用于AI大模型的训练,相比于其前一代产品H100,H200的性能提升了约60%到90%。H200是英伟达H100的升级版,与H100同样基于Hopper架构,主要升级包括141GB的HBM3e显存,显存带宽从H100的3.35TB/s增加到了4.8TB/s。据英伟达官网消息,H200也是公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大语言

谷歌CEO将AI革命比作人类对火的使用,但现在为该行业提供燃料的数字火种——AI芯片,很难获得。驱动AI运行的新一代先进芯片几乎都是由英伟达制造的,随着ChatGPT爆火出圈,市场对英伟达图形处理芯片(GPU)的需求远远超过了供应。帮助企业构建聊天机器人等AI模型的初创公司Lamini的联合创始人兼首席执行官SharonZhou表示:“因为存在短缺,所以关键在于你的朋友圈。”“就像疫情期间的厕纸一样。”这种情况限制了亚马逊和微软等云服务提供商向ChatGPT的创建者OpenAI等客户提供的计算能

根据原话,可以将其重写为:(全球TMT2023年8月16日讯)AI公司耐能,总部位于圣迭戈,以其开创性的神经处理单元(NPU)而闻名,宣布发布KL730芯片。该芯片集成了车规级NPU和图像信号处理(ISP),并将安全而低能耗的AI能力赋予边缘服务器、智能家居及汽车辅助驾驶系统等各类应用场景KL730芯片在能效方面取得了巨大的突破,相较于以往的耐能芯片,其能效提升了3至4倍,比主要行业同类产品提高了150%~200%。该芯片具备每秒0.35-4tera的有效计算能力,可以支持最先进的轻量级GPT大

微软正在开发AI优化芯片,以降低训练生成式AI模型(例如为OpenAIChatGPT聊天机器人提供动力的模型)的成本。TheInformation近日援引两位知情人士的话说,至少从2019年开始,微软就一直在研发代号为“Athena”的新芯片组。微软和OpenAI的员工已经可以使用新芯片,并正在使用这些芯片在GPT-4等大型语言模型上测试芯片的性能。训练大型语言模型需要摄取和分析大量数据,以便为AI创建新的输出内容来模仿人类对话,这是生成式AI模型的一大标志,这个过程需要大量(大约数万个)针对A
