GPT-3计划开源!Sam Altman自曝急缺GPU,GPT-4多模态能力明年开放
听证会之后,Sam Altman带着团队在欧洲开启了「旅行」。
而在最近的一次访谈中,Altman也没有藏着掖着,自曝自家AI的一切进展,全得等GPU跟上了再说。
他讨论了OpenAI的API,以及产品计划,引起了许多人的关注。
许多网友纷纷表示,我喜欢Altman的坦诚。
值得一提的是,GPT-4的多模态能力,2024年应该大部分Plus用户就能上手了,前提还是有足够GPU才行。
微软老大哥斥资12亿美元给OpenAI建的超算,还远远无法满足GPT-4运行时所需的算力。毕竟,GPT-4参数据称有100万亿。
另外,Altman还透露,GPT-3也在OpenAI的开源计划之中。
不知道是不是这次采访内容透露了太多OpenAI的「机密」,源文稿目前已被删除,快点码了。
划重点
最新访谈,是来自AI开发平台Humanloop的首席执行官Raza Habib主持,采访了Altman以及其他20位开发人员。
这次讨论涉及到实际的开发者问题,以及与OpenAI的使命和AI的社会影响相关的更大的问题。
以下是关键要点:
1. OpenAI急缺GPU
2. OpenAI的近期路线图:GPT-4多模态2024年开放
3. 通过API访问ChatGPT插件近期不会发布
4. OpenAI只做ChatGPT这一「杀手级应用」,目标是让ChatGPT成为一个超级智能的工作助手
5. GPT-3在开源计划中
6. 模型性能的缩放法则继续有效
接下来,将从6大点介绍Sam Altman究竟说了啥。
OpenAI目前严重依赖GPU
采访的一切话题都是围绕,「OpenAI太缺GPU了」。
这已经拖延了他们许多的短期计划。
目前,OpenAI的许多客户都在抱怨API的可靠性和速度。Sam Altman解释道,主要还是GPU太缺了。
OpenAI是英伟达DGX-1超算首位客户
至于,支持32k tokens的上下文长度还不能推出给更多的人。
由于OpenAI还没有克服技术上的障碍,看起来他们似乎今年就会有支持100k-1M tokens的上下文,但需要在研究上取得突破。
微调(Fine-Tuning)API也目前受到GPU可用性的限制。
OpenAI还没有使用像Adapters或LoRa这样的高效微调方法,因此微调对于运行和管理来说是非常计算密集型的。
不过,未来他们将对微调提供更好的支持。甚至,OpenAI可能会托管一个社区贡献的模型市场。
最后,专用容量提供也受到GPU可用性的限制。
今年年初,网友爆出OpenAI正在悄悄推出一个新的开发者平台Foundry,让客户在专用容量上运行该公司的新机器学习模型。
这一产品就是「为运行较大工作负载的尖端客户设计」。要使用这项服务,客户必须愿意预付$100k的费用。
然而,从透露的图片信息可以看出,实例并不便宜。
运行GPT-3.5的轻量级版本,3个月的委托将花费78,000美元,一年将花费264,000美元。
从另一侧面也可以看出,GPU消耗价格不菲。
OpenAI近期路线图
Altman分享了OpenAI API的暂定近期路线图:
2023:
· 又快又便宜的 GPT-4ーー这是OpenAI的首要任务。
总的来说,OpenAI的目标是,尽可能地降低「智能成本」。因此他们将努力继续降低 API 的成本。
· 更长的上下文窗口ーー在不久的将来,上下文窗口可能支持高达100万个tokens。
· 微调 API——微调API将扩展到最新的模型,但具体的形式将取决于开发人员真正想要的是什么。
· 有记忆的API ーー目前大部分token被浪费在上文的传输中,将来会有一个能够记住对话历史的API版本。
2024:
· 多模态能力ーーGPT-4发布时曾演示了强大的多模态能力,但是在GPU得到满足之前,这一功能还无法拓展到所有人。
插件「没有 PMF」,短期内不会出现在API中
许多开发者对通过API访问ChatGPT插件非常感兴趣,但Sam表示这些插件不会很快发布。
「除了Browsing外,插件系统还没有找到PMF。」
他还指出,很多人想把他们的产品放到ChatGPT里,但实际上他们真正需要的是把ChatGPT放到他们的产品里。
除了ChatGPT,OpenAI不会发布更多产品
OpenAI的每一次动作,都让开发者们抖三抖。
不少开发人员表示,OpenAI可能发布与他们竞争的产品的时候,对使用OpenAI API构建应用感到紧张。
而Altman表示,OpenAI不会在ChatGPT之外发布更多的产品。
在他看来,伟大的公司有一个「杀手级应用」,ChatGPT就是要做这个创纪录的应用。
ChatGPT的愿景是成为一个超级智能的工作助理。OpenAI不会触及到更多其他GPT的用例。
监管是必要的,但开源也是必要的
虽然Altman呼吁对未来模型进行监管,但他并不认为现有的模型是危险的。
他认为,监管或禁止现有模型将是一个巨大的错误。
采访中,他重申了自己对开源重要性的信念,并表示OpenAI正在考虑将GPT-3开源。
而现在,OpenAI还没有开源的部分原因是,他对有多少个人和公司有能力托管,和提供大模型表示怀疑。
模型性能「缩放法则」仍有效
近来,许多文章声称,巨型人工智能模型的时代已经结束。然而,并没有准确反应Altman原意。
OpenAI的内部数据表明,模型性能的缩放法则(scaling laws)仍然有效,让模型变大将继续产生性能。
然而,OpenAI已经在短短几年内将模型扩大数百万倍,因此无法持续维持这样的扩展速度。
这并不意味着OpenAI不会继续尝试使模型更大,只是意味着它们可能每年只会增加1倍/2倍,而不是增加多个数量级。缩放法则继续有效的事实对AGI开发的时间线有重要的影响。
缩放假设是我们可能已经有了构建AGI所需的大部分部件,剩下的大部分工作将是将现有的方法扩展到更大的模型和更大的数据集。
如果缩放的时代结束了,那么我们可能应该预期AGI会更远。缩放法则继续有效强烈暗示了实现AGI时间线会变短。
网友热评
有网友调侃道,
OpenAI:必须通过法规来保护我们的护城河。OpenAI又提到了Meta在我们的护城河里尿尿,我们也应该寓意着我们的模型需要开源。
还有人称,如果GPT-3真的开源了,像LLMa一样,需要大约5天的时间在M1芯片上就能运行了。
社区开发人员能够帮OpenAI解决GPU瓶颈,前提是他们开源模型。没几天,开发者们就能让其运行在CPU和边缘设备。
GPU短缺一事,有人认为是OpenAI资金链出了问题,买不起。
然而还有人称,明显是缺乏供应。除非芯片制造业发生革命,否则相对于消费GPU来说,可能总是会出现供应不足的情况。
还有网友怀疑,英伟达的价值还是被低估?计算需求的阶梯式变化可能持续数年...
英伟达刚刚加入万亿美元俱乐部,这样说来,无限的算力需求或许会成就一个世界超越2万亿美元的芯片厂。
参考资料:
https://www.php.cn/link/c55d22f5c88cc6f04c0bb2e0025dd70b
https://www.php.cn/link/d5776aeecb3c45ab15adce6f5cb355f3
以上是GPT-3计划开源!Sam Altman自曝急缺GPU,GPT-4多模态能力明年开放的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

文本标注工作是将标签或标记与文本中特定内容相对应的工作。其主要目的是为文本提供额外的信息,以便进行更深入的分析和处理,尤其是在人工智能领域。文本标注对于人工智能应用中的监督机器学习任务至关重要。用于训练AI模型,有助更准确地理解自然语言文本信息,提高文本分类、情感分析和语言翻译等任务的性能。通过文本标注,我们可以教AI模型识别文本中的实体、理解上下文,并在出现新的类似数据时做出准确的预测。本文主要推荐一些较好的开源文本标注工具。1.LabelStudiohttps://github.com/Hu

图像标注是将标签或描述性信息与图像相关联的过程,以赋予图像内容更深层次的含义和解释。这一过程对于机器学习至关重要,它有助于训练视觉模型以更准确地识别图像中的各个元素。通过为图像添加标注,使得计算机能够理解图像背后的语义和上下文,从而提高对图像内容的理解和分析能力。图像标注的应用范围广泛,涵盖了许多领域,如计算机视觉、自然语言处理和图视觉模型具有广泛的应用领域,例如,辅助车辆识别道路上的障碍物,帮助疾病的检测和诊断通过医学图像识别。本文主要推荐一些较好的开源免费的图像标注工具。1.Makesens

对电脑有了解的小伙伴肯定都知道gpu有着共享内存,而许多小伙伴都担心共享内存会导致内存数变小影响电脑而想着关闭它,下面就给大家带来了关闭它的方法,一起看看吧。win10gpu共享内存关闭:注:GPU的共享内存是无法关闭的,但是可以将它的数值设置为最小值。1、开机时按DEL进入BIOS,部分主板需要按F2/F9/F12进入,在BIOS界面的最上方有很多Tab,包含“Main、Advanced”等等设定,找到“Chipset”选项。在下面的界面中找到SouthBridge设定选项,点击Enter进入

硬件加速GPU有必要开吗?随着科技的不断发展与进步,GPU(GraphicsProcessingUnit)作为计算机图形处理的核心组件,扮演着至关重要的角色。然而,一些用户或许对于是否需要开启硬件加速功能持有疑问。本文将探讨硬件加速GPU的必要性,以及开启硬件加速对计算机性能和使用体验的影响。首先,我们需要了解硬件加速GPU的工作原理。GPU是一种专门用

本站1月2日消息,据TechPowerUp消息,AMD即将推出基于Navi32GPU的笔记本显卡,具体的型号可能是RX7700M和RX7800M。目前,AMD已经推出了多款RX7000系列的笔记本GPU,包括高端的RX7900M(72CU)以及主流的RX7600M/7600MXT(28/32CU)系列和RX7600S/7700S(28/32CU)系列。Navi32GPU拥有60CU,AMD可能会将其做成RX7700M和RX7800M两款,也有可能会做一款低功耗的RX7900S型号。预计AMD将在

最近推出的 Beelink GTi 14 的突出特点之一是迷你 PC 下方有一个隐藏的 PCIe x8 插槽。该公司在发布时表示,这将使外部显卡更容易连接到系统。 Beelink有n

人脸检测识别技术已经是一个比较成熟且应用广泛的技术。而目前最为广泛的互联网应用语言非JS莫属,在Web前端实现人脸检测识别相比后端的人脸识别有优势也有弱势。优势包括减少网络交互、实时识别,大大缩短了用户等待时间,提高了用户体验;弱势是:受到模型大小限制,其中准确率也有限。如何在web端使用js实现人脸检测呢?为了实现Web端人脸识别,需要熟悉相关的编程语言和技术,如JavaScript、HTML、CSS、WebRTC等。同时还需要掌握相关的计算机视觉和人工智能技术。值得注意的是,由于Web端的计

AMD 兑现了 24 年 3 月的最初承诺,将于今年第二季度推出 FSR 3.1。 3.1 版本的真正与众不同之处在于帧生成方面与升级方面的解耦。这使得 Nvidia 和 Intel GPU 所有者可以应用 FSR 3。
