一次读完半本「三体」!GPT-4最强竞品突然升级10万token,啃论文代码演示全搞定
在GPT-4 32K还在内测阶段,OpenAI的劲敌直接把上下文长度打了上去。
就在今天,初创公司Anthropic宣布,Claude已经能够支持100K的上下文token长度,也就是大约75,000个单词。
这是什么概念?
一般人用时大约5个小时读完等量内容后,还得用更多的时间去消化、记忆、分析。
对于Claude,不到1分钟就搞定。
把「了不起的盖茨比」整本书扔给它,大约有72k token,并将其中的一句话进行改动:
Mr. Carraway是一个在Anthropic从事机器学习工具的软件工程师。
你敢相信?Claude仅花了22秒,就把改动的这句话找出来了。
众路网友纷纷表示,有了Claude 100K,手里的GPT-4 32K已经不香了。
Claude 100k,倍儿香!
前段时间,在OpenAI的开发者社区中,许多人讨论GPT-4 32K正在推出。
而且,不少GPT-4的用户已经可以在自己的PlayGround上看到GPT-4 32k的选项。
已经解锁这一版本的网友,让其访问了数百个来自卸载HyperWrite用户的数据点,GPT-4便准确地告诉他接下来该做怎样的改进。
他称赞道,GPT-4 32k是世界上最好的产品经理。
32k都这么厉害了,那么,有了100K岂不更强了。
显然,OpenAI的强大对手Anthropic最先占据了优势。
100K token的上下文长度,意味着,你可以在Claude上传数百页的文本分析。并且对话的持续时间也被大大拉长,延长到数小时,甚至数天。
当然,除了长文本阅读之外,Claude还可以从文档中快速检索出你所需的信息。
你可以把多个文档,甚至一本书的内容当作prompt,然后提问。
以后遇到论文,甚至巨长篇幅的直接让Claude总结吧,这简直就是啃论文后辈们的福音。
这种综合性的问题通常需要对文本中很多部分的内容有一个全面的认识,而在处理这种问题上,Claude可以说要比基于向量搜索的办法要强。
Claude还可以是你的「代码伴侣」,分分钟就能做个演示。
比如,上传一个240页的Langchain API文档,让它基于这个文档,用Anthropic的语言模型做一个Langchain的简单演示。
还可以把85页的公司年度报表(10k)喂给Claude。
然后,要求突出对潜在投资者最重要的项目,并解释其重要性。
此外,Claude 100k还能处理大约6小时的音频量。
比如说,AssemblyAI把一个卡马克的播客的内容转录成了58k个token量的文本,然后用Claude进行了总结和问答。
最后,Claude总结了一下自己能干的事,覆盖可以说是非常全面了。
- 理解、总结和解释密集的文件,如财务报表、研究论文等
- 根据年报分析公司的战略风险和机遇
- 评估一项立法的利弊
- 识别法律文件中的风险、主题和不同形式的争论
- 阅读数百页的开发文档,回答技术问题
- 通过将整个代码库放入上下文中,并智能地构建或修改它来快速制作原型
当然,现在,Anthropic表示100K上下文还是一个测试版功能,在此期间将按照标准API定价来收费。
官网也给出了具体价格:
Claude Instant
Prompt:$0.00163 / 1K tokens
Completion:$0.00551 / 1K tokens
Claude-v1
Prompt:$0.01102 / 1K tokens
Completion:$0.03268 / 1K tokens
比起OpenAI,这价格已经非常亲民了。
据OpenAI官网,GPT-4 32k的Prompt需要$0.06,Completion需要$0.12。
相当于,你得花5-6倍的价格给模型prompt。
网友称,Claude 100k比GPT-4 32k更快速、更便宜。
网友实测
这么重磅级的更新,一定少不了网友的体验。
有网友称100k简直难以置信,能够处理多篇完整的论文,部分完整的代码库,甚至一本250页的小说。
顺便提一句,许多网友最先用Claude测试了一番,发现效果还不错。
最初,100K仅限在API中,Claude应用的默认模型仍然是9K。但很快,Claude应用界面也支持100K了。
一位网友用100页的「GPT-4技术报告」测试,结果只能用amazing来形容。
还有人直接把太宰治的「人间失格」喂给了Claude,并用英文问故事中情节,完全给出了准确的回答。
同时,这位网友把自己开发的Toolformer Zero完整源代码丢给它,Claude精准描述出这是用来做什么。
并且,Claude还称赞了代码的模块化,提供增加一些单元测试的建议。
把「贝奥武夫」诗扔进去,分析下贝奥武夫这个人物性格,也是非常准确。
英伟达科学家Jim Fan表示,这是Anthropic抛出的杀手锏。未来在上下文长度的军备赛正快速升温。
对于支持100k的意义,网友称,泰裤辣!这很好地展示了为什么长文本对LLM很重要。
还有好多网友纷纷暗示GPT-4。
Claude-100K的诞生,让AnthropicAI正式成为OpenAI的真正竞争者。
「许多人还在排队等候32k的GPT-4。这次,Claude将上下文窗口扩展到10万token,直接大幅跃升。
这也意味着包括OpenAI、谷歌在内的公司都要在这一领域竞争,这对用户来说是一个巨大的胜利。」
还有网友感慨时代进步太快了。
谷歌宣布PaLM 2擅长高级推理任务不到一天,而Anthropic的Claude现在可以在不到一分钟的时间内消化10万个token。人工智能的进步确实令人瞩目。
不过,如果你输入的token少于9K,Antropic调用的似乎就是之前的模型了。
百万token,不是梦
过去几年,斯坦福大学Hazy Research实验室一直在从事一项重要的工作,就是增加模型的序列长度。
在他们看来,这将开启机器学习基础模型的新时代。
研究人员在22年提出的FlashAttention算法证明了32k可行性。
就连Sam Altman称我们要的是32k token。
其实,不仅是32k,现在100k都实现了,百万token也不远了。
「绝对太野了!几年后,支持100万的token上下文长度会不会成为可能?」
前段时间,来自DeepPavlov、AIRI、伦敦数学科学研究所的研究人员发布了一篇技术报告,使用循环记忆Transformer(RMT)将BERT的有效上下文长度提升到「前所未有的200万tokens」,同时保持了很高的记忆检索准确性。
论文地址:https://arxiv.org/abs/2304.11062
该方法可以存储和处理局部和全局信息,并通过使用循环让信息在输入序列的各segment之间流动。
不过,虽然RMT可以不增加内存消耗,可以扩展到近乎无限的序列长度,但仍然存在RNN中的记忆衰减问题,并且需要更长的推理时间。
实际上,RMT背后是一个全新的记忆机制。
具体操作方法是,在不改变原始Transformer模型的前提下,通过在输入或输出序列中添加一个特殊的memory token,然后对模型进行训练以控制记忆操作和序列表征处理。
与Transformer-XL相比,RMT需要的内存更少,并可以处理更长序列的任务。
当然,在最终实现百万token之前,Claude 100k已经是相当大的起步了。
以上是一次读完半本「三体」!GPT-4最强竞品突然升级10万token,啃论文代码演示全搞定的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

CentOS 关机命令为 shutdown,语法为 shutdown [选项] 时间 [信息]。选项包括:-h 立即停止系统;-P 关机后关电源;-r 重新启动;-t 等待时间。时间可指定为立即 (now)、分钟数 ( minutes) 或特定时间 (hh:mm)。可添加信息在系统消息中显示。

CentOS系统下GitLab的备份与恢复策略为了保障数据安全和可恢复性,CentOS上的GitLab提供了多种备份方法。本文将详细介绍几种常见的备份方法、配置参数以及恢复流程,帮助您建立完善的GitLab备份与恢复策略。一、手动备份利用gitlab-rakegitlab:backup:create命令即可执行手动备份。此命令会备份GitLab仓库、数据库、用户、用户组、密钥和权限等关键信息。默认备份文件存储于/var/opt/gitlab/backups目录,您可通过修改/etc/gitlab

检查CentOS系统中HDFS配置的完整指南本文将指导您如何有效地检查CentOS系统上HDFS的配置和运行状态。以下步骤将帮助您全面了解HDFS的设置和运行情况。验证Hadoop环境变量:首先,确认Hadoop环境变量已正确设置。在终端执行以下命令,验证Hadoop是否已正确安装并配置:hadoopversion检查HDFS配置文件:HDFS的核心配置文件位于/etc/hadoop/conf/目录下,其中core-site.xml和hdfs-site.xml至关重要。使用

在CentOS上对Zookeeper进行性能调优,可以从多个方面入手,包括硬件配置、操作系统优化、配置参数调整以及监控与维护等。以下是一些具体的调优方法:硬件配置建议使用SSD硬盘:由于Zookeeper的数据写入磁盘,强烈建议使用SSD以提高I/O性能。足够的内存:为Zookeeper分配足够的内存资源,避免频繁的磁盘读写。多核CPU:使用多核CPU,确保Zookeeper可以并行处理请

在CentOS系统上高效训练PyTorch模型,需要分步骤进行,本文将提供详细指南。一、环境准备:Python及依赖项安装:CentOS系统通常预装Python,但版本可能较旧。建议使用yum或dnf安装Python3并升级pip:sudoyumupdatepython3(或sudodnfupdatepython3),pip3install--upgradepip。CUDA与cuDNN(GPU加速):如果使用NVIDIAGPU,需安装CUDATool

在CentOS系统上启用PyTorchGPU加速,需要安装CUDA、cuDNN以及PyTorch的GPU版本。以下步骤将引导您完成这一过程:CUDA和cuDNN安装确定CUDA版本兼容性:使用nvidia-smi命令查看您的NVIDIA显卡支持的CUDA版本。例如,您的MX450显卡可能支持CUDA11.1或更高版本。下载并安装CUDAToolkit:访问NVIDIACUDAToolkit官网,根据您显卡支持的最高CUDA版本下载并安装相应的版本。安装cuDNN库:前

Docker利用Linux内核特性,提供高效、隔离的应用运行环境。其工作原理如下:1. 镜像作为只读模板,包含运行应用所需的一切;2. 联合文件系统(UnionFS)层叠多个文件系统,只存储差异部分,节省空间并加快速度;3. 守护进程管理镜像和容器,客户端用于交互;4. Namespaces和cgroups实现容器隔离和资源限制;5. 多种网络模式支持容器互联。理解这些核心概念,才能更好地利用Docker。

在 CentOS 上安装 MySQL 涉及以下步骤:添加合适的 MySQL yum 源。执行 yum install mysql-server 命令以安装 MySQL 服务器。使用 mysql_secure_installation 命令进行安全设置,例如设置 root 用户密码。根据需要自定义 MySQL 配置文件。调整 MySQL 参数和优化数据库以提升性能。
