本站 10 月 22 日消息,今年第三季度,科大讯飞实现净利润 2579 万元,同比下降 81.86%;前三季度净利润 9936 万元,同比下降 76.36%。
科大讯飞副总裁江涛在Q3 业绩说明会上透露,讯飞已于2023 年初与华为升腾启动专项攻关,与华为联合研发高性能算子库,合力打造我国通用人工智能新底座,让国产大模型架构在自主创新的软硬件基础之上。
他指出,目前华为升腾 910B 能力已经基本做到可对标英伟达 A100。在即将举行的科大讯飞 1024 全球开发者节上,讯飞和华为在人工智能算力底座上将有进一步联合发布。
他还提到,该公司一直致力于实现算法提升和工程技术方面的加速。自2019 年被列入美国实体清单后,公司于2022 年10 月7 日再次被美国对包括科大讯飞在内的28 家中国人工智能、高性能芯片、超级计算机领域的头部企业和机构加码制裁。
本站查询公开资料发现,海思升腾 910 发布于 2019 年,同时还推出了与之配套的新一代 AI 开源计算框架 MindSpore,而 MindSpore 也已经于 2020 年完成开源。
目前,华为升腾社区已公开Atlas 300T 产品有三个型号,分别对应升腾910A、910B、910 Pro B,最大300W 功耗,前两者AI 算力均为256 TFLOPS,而910 Pro B 可达280 TFLOPS(FP16)。
作为对比,NVIDIA A100 发布于2020 年,采用双精度Tensor Core,基于Ampere架构,功耗达到了400W,FP32 浮点性能19.5TFLOPS,FP16 Tensor Core 性能可达312TFLOPS。
按照华为官方给出的规格,升腾 910 Pro B 要比 A100 慢 18% 左右。
说到这里也顺便提一下 A800 芯片。这颗芯片是为了解决去年的美国商务部的半导体出口规定特意推出的一款型号,算力等参数完全不变,只是传输速率为从每秒600GB 降至400GB,所以美国本周发布的半导体出口新规封堵了这一漏洞。
根据知乎上AI 从业者的反馈,哪怕升腾910B 目前还有不少小问题、单卡性能落后于A800、Arm 生态有所欠缺(应该是指CANN 对比CUDA),但随着英伟达先进产品被禁,后续国内厂商只能被迫选择升腾,相信升腾产品会更加完善,并且国产厂商还可以通过堆量、增加算力集群规模的方式完成替换,至少在大模型训练领域整体差距不大。
值得一提的是,PyTorch 基金会本周三正式宣布华为作为 Premier 会员加入基金会,这也是中国首个、全球第十个 PyTorch 基金会最高级别会员。
除此之外,PyTorch 最新的 2.1 版本已同步支持升腾 NPU,并在华为的推动下更新了更加完善的第三方设备接入机制。基于该特性,三方 AI 算力设备无需对原有框架代码进行修改就能对接 PyTorch 框架,升腾也提供了官方认证的 Torch NPU 参考实现,可以指导三方设备便捷接入。
基于新版本,用户可以在升腾 NPU 上直接享受原生 PyTorch 的开发体验,获得高效运行在升腾算力设备上的模型和应用。
相关阅读:
《华为与科大讯飞启动AI 存力底座联合创新项目》
《科大讯飞刘庆峰:华为GPU 可对标英伟达A100,通用大模型明年上半年对标GPT-4》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,本站所有文章均包含本声明。
以上是科大讯飞:华为升腾 910B 能力基本可对标英伟达 A100,正合力打造我国通用人工智能新底座的详细内容。更多信息请关注PHP中文网其他相关文章!