「大模型的 API 是个亏本买卖吗?」
随着大语言模型技术的实用化,许多科技公司推出了大模型 API,供开发者使用。然而,我们不禁开始怀疑基于大模型的业务能否持续下去,尤其是考虑到OpenAI每天烧掉70万美元的情况。
本周四,AI 创业公司 Martian 为我们仔细盘算了一下。
排行榜链接:https://leaderboard.withmartian.com/
The LLM Inference Provider Leaderboard is an open-source ranking of API inference products for large models. It benchmarks the cost, rate limits, throughput, and P50 and P90 TTFT for the Mixtral-8x7B and Llama-2-70B-Chat public endpoints of each vendor.
虽然互为竞争关系,但 Martian 发现各家公司的大模型服务在成本、吞吐量和速率限制方面存在显著的差异。这些差异超过了5倍的成本差异、6倍的吞吐量差异,甚至还有更大的速率限制差异。选择不同的API对于获得最佳性能至关重要,尽管只是业务开展的一部分。
根据当前排名,Anyscale 提供的服务在Llama-2-70B的中等服务负载下具有最佳的吞吐量。对于大型服务负载,Together AI在Llama-2-70B和Mixtral-8x7B上的P50和P90吞吐量表现最佳。
此外,贾扬清的 LeptonAI 在处理短输入和长输出提示的小任务负载时,表现出最佳的吞吐量。其达到的130 tks/s的P50吞吐量,是目前市面上所有厂商提供的模型产品中最快的。
知名 AI 学者、Lepton AI 创始人贾扬清在排行榜放出后第一时间进行了点评,让我们看看他是如何说的。
贾扬清首先阐述了人工智能领域行业现状,然后肯定了基准测试的意义,最后指出 LeptonAI 将帮用户找到最好的 AI 基础策略。
1. 大模型 API 正在「烧钱」
如果模型在高工作负载基准测试中处于领先地位,那么恭喜,它正在「烧钱」。
LLM 推理公共 API 的容量就像是经营一家餐馆:有厨师,需要估算客流量。聘请厨师是要花钱的。延迟和吞吐量可以理解为「你为顾客做饭的速度有多快」。对于一个合理的生意,你需要有「合理」数量的厨师。换句话说,你希望拥有能够承载正常流量的容量,而不是在几秒钟内突然爆发的流量。流量激增意味着需要等待;反之,「厨师」则会无所事事。
在人工智能世界中,GPU 扮演着「厨师」的角色。基准负载是突发的。在低工作负载下,基准负载会混合到正常的流量中,并且测量结果可以准确表示服务在当前工作负载下的情况。
高服务负载场景则很有趣,因为会带来中断。基准测试每天 / 每周仅运行几次,因此不是人们应该期望的常规流量。想象一下,让 100 个人涌入当地的餐馆来检查厨师做菜的速度,结果会很不错。借用量子物理学的术语,这被称为「观察者效应」。干扰越强(即突发负载越大),其精度就越低。换句话说:如果您给某个服务突然提供高负载,并发现该服务响应速度非常快,那么您就知道该服务有相当多的闲置容量。作为投资者,看到这种情况,你应该质问:这种烧钱的方式负责任吗?
2. 模型最终会达到相似的表现
人工智慧領域很喜歡競爭比賽,這的確很有趣。每個人都會很快收斂到相同的解決方案,並且,由於 GPU 的原因,英偉達總是最終的贏家。這要歸功於偉大的開源項目,vLLM 就是一個很好的例子。這意味著,作為提供者,如果您的模型性能比其他模型差很多,您可以透過查看開源解決方案並應用良好的工程來輕鬆趕上。
3.「作為客戶,我不關心提供者的成本」
對於人工智慧應用程式構建者來說,我們很幸運:總是有API 提供者願意「燒錢」。 AI 產業正在燒錢來獲得流量,下一步才是擔心利潤。
基準測試是一項乏味且容易出錯的工作。無論好壞,通常都會發生成功者讚揚你而失敗者指責你的情況。上一輪卷積神經網路基準測試就是如此。這不是一件容易的事,但基準測試將幫助我們在人工智慧基礎設施方面獲得下一個 10 倍的收益。
基於人工智慧框架和雲端基礎設施,LeptonAI 將幫助用戶找到最好的 AI 基礎策略。
以上是賈揚清公司高效率帶頭的大型推理成本排行榜出爐的詳細內容。更多資訊請關注PHP中文網其他相關文章!