当前的人工智能世界耗电且计算有限。模型开发的轨迹很快,但随着这种进步,需要大幅增加计算能力。现有的基于晶体管的计算正在接近其物理极限,并且已经难以满足这些不断增长的计算需求。
大型企业已经尝试通过开发自己的定制芯片解决方案来解决这个问题。然而,硬件瓶颈可能过于严重,无法用传统的电子处理器来克服。那么,技术如何才能充分满足对计算能力呈指数级增长的需求呢?
在大型语言模型中,超过90%的计算任务都使用矩阵乘法。通过以结构化的方式执行乘法和加法的基本运算,矩阵乘法能够支持人工智能的各种功能模块。这不仅仅适用于语言模型,而且还是几乎所有神经网络的基础:它可以实现大规模神经元之间的连接,进行图像分类和物体检测的卷积运算,处理顺序数据等。虽然这是一个简单的概念,但对于有效地操作和转换支持人工智能和其他无数应用的数据来说至关重要,因此矩阵乘法的重要性无法高估
随着人工智能模型变得越来越庞大,我们必须进行更多的矩阵运算,这就意味着我们需要更强大的计算能力。为了满足这种需求,即便是目前,电子产品也已经达到了极限。还有其他解决方案吗?
光学已经以多种方式用于改变我们的生活,最引人注目的是光纤网络中的光通信。光学计算自然是下一步。数字电子学需要大量晶体管来执行最简单的算术运算,而光学计算则利用物理定律进行计算。输入信息被编码为光束,并利用光学的自然特性(例如干涉和衍射)执行矩阵乘法。信息可以以多种波长、偏振和空间模式进行编码,从而允许无限量的并行处理,并且计算实际上以光速进行。
随着登纳德缩放定律和摩尔定律的结束,是时候重新审视计算的基础知识了。数字电子产品本质上局限于“2D”布局——晶体管栅极和电路制造在晶圆上,计算是通过2D平面上不同单元之间的信息流动进行的。这种2D计算架构需要不断增加的晶体管密度,导致严重的互连问题,并遭受臭名昭著的内存瓶颈。随着3D堆叠存储器的发展,2D设计的变革现已开始,但整个行业的适应还有很长的路要走。
现在,光学可以通过在3D空间中自然地执行计算来彻底改变游戏规则。添加新维度可以放松传统计算中的许多限制。互连组件更容易,能源效率更高,并且它允许不断增加的吞吐量(在给定时间内可以执行多少计算),而不影响延迟(每次计算执行的速度)。这对于3D光学来说是完全独特的:无论是将10个数字相乘还是10,000个数字相乘,这一切都会以光速同时发生。这对光学处理器的可扩展性产生了巨大的影响,使其能够达到当前数字处理器速度的1000倍。
除了3D光学固有的可扩展性之外,光学器件的时钟速度可以提供比传统电子器件快100倍的速度,并且波长复用的能力为进一步提高100倍打开了大门。将这一切结合在一起,能够以指数方式扩展计算速度,并具有更高的吞吐量、更低的延迟和更高的可靠性,而这些只有3D光学矩阵乘法才能提供
无论应用如何,矩阵乘法构成了所有人工智能计算的支柱。值得注意的是,3D光学带来的高吞吐量和低延迟对于数据中心的人工智能推理任务特别有价值,这是一种由实时响应能力和效率推动的应用程序。
3D光学计算相较于传统的电子或集成光子学,在带宽、延迟、速度和可扩展性方面有了显著的提升。此外,它还与现有机器学习算法兼容,因此有望彻底改变所有人工智能应用
以上是人工智能的未来:光学矩阵乘法的革命性影响的详细内容。更多信息请关注PHP中文网其他相关文章!