一次读完半本「三体」!GPT-4最强竞品突然升级10万token,啃论文代码演示全搞定...

64db57cc9b67b0f1f8b48d8267d28eb6.jpeg


  视学算法报道  

编辑:编辑部

【导读】GPT-4 32K还没用上,ChatGPT最强竞品已经秒读「了不起的盖茨比」了。

在GPT-4 32K还在内测阶段,OpenAI的劲敌直接把上下文长度打了上去。

就在今天,初创公司Anthropic宣布,Claude已经能够支持100K的上下文token长度,也就是大约75,000个单词。

cb7731e4396654c8d4678639f179187b.png

这是什么概念?

一般人用时大约5个小时读完等量内容后,还得用更多的时间去消化、记忆、分析。

对于Claude,不到1分钟就搞定。

把「了不起的盖茨比」整本书扔给它,大约有72k token,并将其中的一句话进行改动:

Mr. Carraway是一个在Anthropic从事机器学习工具的软件工程师。

你敢相信?Claude仅花了22秒,就把改动的这句话找出来了。

众路网友纷纷表示,有了Claude 100K,手里的GPT-4 32K已经不香了。

37439584201436b979d2c14883150090.png

Claude 100k,倍儿香!

前段时间,在OpenAI的开发者社区中,许多人讨论GPT-4 32K正在推出。

b52c792f40bcf684511a3fbe24d4c41e.png

而且,不少GPT-4的用户已经可以在自己的PlayGround上看到GPT-4 32k的选项。

221a357b6e9e65d173db42615086deb1.png

已经解锁这一版本的网友,让其访问了数百个来自卸载HyperWrite用户的数据点,GPT-4便准确地告诉他接下来该做怎样的改进。

他称赞道,GPT-4 32k是世界上最好的产品经理。

f25ba758f55c40756789927f8775ee87.png

b0bd2399794172332e7b96a632a84bcf.gif

32k都这么厉害了,那么,有了100K岂不更强了。

显然,OpenAI的强大对手Anthropic最先占据了优势。

100K token的上下文长度,意味着,你可以在Claude上传数百页的文本分析。并且对话的持续时间也被大大拉长,延长到数小时,甚至数天。

当然,除了长文本阅读之外,Claude还可以从文档中快速检索出你所需的信息。

你可以把多个文档,甚至一本书的内容当作prompt,然后提问。

以后遇到论文,甚至巨长篇幅的直接让Claude总结吧,这简直就是啃论文后辈们的福音。

f2abd3ad32b5db393c60ae7277ba94a4.gif

这种综合性的问题通常需要对文本中很多部分的内容有一个全面的认识,而在处理这种问题上,Claude可以说要比基于向量搜索的办法要强。

af18f54103ec66600843645df6350fc2.png

Claude还可以是你的「代码伴侣」,分分钟就能做个演示。

比如,上传一个240页的Langchain API文档,让它基于这个文档,用Anthropic的语言模型做一个Langchain的简单演示。

ee20bb42289cd87b644488a203c8970f.gif

还可以把85页的公司年度报表(10k)喂给Claude。

然后,要求突出对潜在投资者最重要的项目,并解释其重要性。

3c55dda663676cffbc4aa20e25164ffd.gif

此外,Claude 100k还能处理大约6小时的音频量。

比如说,AssemblyAI把一个卡马克的播客的内容转录成了58k个token量的文本,然后用Claude进行了总结和问答。

8b2892c36887848cd60120ae34587bfa.png

6a01f8150c7b48af9ba777064456ec8f.gif

最后,Claude总结了一下自己能干的事,覆盖可以说是非常全面了。

- 理解、总结和解释密集的文件,如财务报表、研究论文等

- 根据年报分析公司的战略风险和机遇

- 评估一项立法的利弊

- 识别法律文件中的风险、主题和不同形式的争论

- 阅读数百页的开发文档,回答技术问题

- 通过将整个代码库放入上下文中,并智能地构建或修改它来快速制作原型

当然,现在,Anthropic表示100K上下文还是一个测试版功能,在此期间将按照标准API定价来收费。

a95fc0efdcd345332d3eed0d054335c2.png

官网也给出了具体价格:

Claude Instant

Prompt:$0.00163 / 1K tokens

Completion:$0.00551 / 1K tokens

Claude-v1

Prompt:$0.01102 / 1K tokens

Completion:$0.03268 / 1K tokens

fca0dbeddf50971c1e8dcf3d4380da05.png

比起OpenAI,这价格已经非常亲民了。

据OpenAI官网,GPT-4 32k的Prompt需要$0.06,Completion需要$0.12。

相当于,你得花5-6倍的价格给模型prompt。

8a9a2fd02fb022abbd8296c3e19d9fee.png

14460be653cd83177593014a1bb3349d.png

网友称,Claude 100k比GPT-4 32k更快速、更便宜。

965b5aa329f9ac87f86a650d95aabf4f.png

网友实测


这么重磅级的更新,一定少不了网友的体验。

有网友称100k简直难以置信,能够处理多篇完整的论文,部分完整的代码库,甚至一本250页的小说。

a4e688afee1433af13d1c240f5c3556d.png

顺便提一句,许多网友最先用Claude测试了一番,发现效果还不错。

最初,100K仅限在API中,Claude应用的默认模型仍然是9K。但很快,Claude应用界面也支持100K了。

95cb5df90aaa56fc53ef05909203e8c3.png

一位网友用100页的「GPT-4技术报告」测试,结果只能用amazing来形容。

f74876d0ae23491f82f3a3dc90ce0fc5.png

a016250edad658321191d32e221a257b.gif

还有人直接把太宰治的「人间失格」喂给了Claude,并用英文问故事中情节,完全给出了准确的回答。

4f0ec73384a836e56db6cb03817c67c3.png

0621f270a134c1ea199f5a2aa24070b0.png

同时,这位网友把自己开发的Toolformer Zero完整源代码丢给它,Claude精准描述出这是用来做什么。

并且,Claude还称赞了代码的模块化,提供增加一些单元测试的建议。

565a0fd0a2ab3156018035b55d6dfe6d.png

f704fe3a16a6cf3edadb05764a902653.png

把「贝奥武夫」诗扔进去,分析下贝奥武夫这个人物性格,也是非常准确。

822bb4ff720c2166b9f2ff83d4c9fc33.png

英伟达科学家Jim Fan表示,这是Anthropic抛出的杀手锏。未来在上下文长度的军备赛正快速升温。

035fe45bd1ec174182981fe9f71a014e.png

对于支持100k的意义,网友称,泰裤辣!这很好地展示了为什么长文本对LLM很重要。

66b6b2f4763edb70e5a868a1de28efe3.png

还有好多网友纷纷暗示GPT-4。

Claude-100K的诞生,让AnthropicAI正式成为OpenAI的真正竞争者。

「许多人还在排队等候32k的GPT-4。这次,Claude将上下文窗口扩展到10万token,直接大幅跃升。

这也意味着包括OpenAI、谷歌在内的公司都要在这一领域竞争,这对用户来说是一个巨大的胜利。」

cf7899f80cff2e8dc0e1eedfddfbb62b.png

还有网友感慨时代进步太快了。

谷歌宣布PaLM 2擅长高级推理任务不到一天,而Anthropic的Claude现在可以在不到一分钟的时间内消化10万个token。人工智能的进步确实令人瞩目。

e5c4807c1d923e46e6bd411eaf32b750.png

446a2b81c02af2052dec43d68cfe94ce.png

不过,如果你输入的token少于9K,Antropic调用的似乎就是之前的模型了。

ef70448dab4a18628c268cbe636d3dd2.png

5c0ad2514fc60f9a933c84db03e14fc3.png

百万token,不是梦

过去几年,斯坦福大学Hazy Research实验室一直在从事一项重要的工作,就是增加模型的序列长度。

在他们看来,这将开启机器学习基础模型的新时代。

研究人员在22年提出的FlashAttention算法证明了32k可行性。

8d025707793a60b8491850e76a1df5b0.png

就连Sam Altman称我们要的是32k token。

e94eef5140994b6969f1f33342ff2dff.png

其实,不仅是32k,现在100k都实现了,百万token也不远了。

「绝对太野了!几年后,支持100万的token上下文长度会不会成为可能?」

7d745323963155f31466c297846c70b9.png

前段时间,来自DeepPavlov、AIRI、伦敦数学科学研究所的研究人员发布了一篇技术报告,使用循环记忆Transformer(RMT)将BERT的有效上下文长度提升到「前所未有的200万tokens」,同时保持了很高的记忆检索准确性。

45a96de75a9b8009680babda240b91d4.png

论文地址:https://arxiv.org/abs/2304.11062

该方法可以存储和处理局部和全局信息,并通过使用循环让信息在输入序列的各segment之间流动。

不过,虽然RMT可以不增加内存消耗,可以扩展到近乎无限的序列长度,但仍然存在RNN中的记忆衰减问题,并且需要更长的推理时间。

实际上,RMT背后是一个全新的记忆机制。

具体操作方法是,在不改变原始Transformer模型的前提下,通过在输入或输出序列中添加一个特殊的memory token,然后对模型进行训练以控制记忆操作和序列表征处理。

与Transformer-XL相比,RMT需要的内存更少,并可以处理更长序列的任务。

当然,在最终实现百万token之前,Claude 100k已经是相当大的起步了。

参考资料:

https://www.anthropic.com/index/100k-context-windows

1c33c16969d049e53964a142c2709246.png

outside_default.png

点个在看 paper不断!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/22610.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

自从Notion有了AI……

“Notion AI是一款极其强大且易于使用的工具,可以帮助您整理知识,撰写文档和记录笔记。它为您提供了一个可以实现简单快捷导航的用户界面,使您可以轻松访问和管理所有的文件和资源。它还提供了一系列强大的功能,包括个性化定制&am…

100 美元“骗走” 15% 股份?估值 10 亿美元的创业独角兽 Stability AI 联合创始人起诉 CEO...

整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 2022 年 8 月,一款名为 Stable Diffusion 的开源文本生成图像模型横空出世,惊艳四座。 一定程度,它的出现加速了 OpenAI 想更早推出 ChatGPT 的决心。 而就是这样一款…

HTML情人节表白代码,给女朋友的电子情书代码,女朋友表白代码

HTML情人节表白代码,给女朋友的电子情书代码,女朋友表白代码,可更换照片及表白内容。 使用方法 1、表白对话在assets/dialog.json 2、女朋友照片放在img中,直接替换即可 3、代码包需要放在WEB服务器里运行,本地用浏览器直接打开…

一封来自Java程序员的情书

点击上方“程序员小灰”,选择“置顶公众号” 有趣有内涵的文章第一时间送达! 本文转载自公众号 Hollis 一直以来程序员都给大家以高智商低情商,不懂得浪漫不会哄女生开心的形象。但是,我觉得程序员都是浪漫的。对于这种错误观念&…

Python表白妙招,把情书写进她的照片里

前言 我的好兄弟们,2022年可算是过去了,这不马上要过年了吗 就是说,各位兄弟有对象了吗,没有的回家还要面对亲戚的各种提问 退一步来说,有心仪的人吗,如果有的话,就来看看这篇 程序员的表白小…

为生信写的Python简明教程 | 视频3

开源生信 Python教程 生信专用简明 Python 文字和视频教程 源码在:https://github.com/Tong-Chen/Bioinfo_course_python 目录 背景介绍 编程开篇为什么学习Python如何安装Python如何运行Python命令和脚本使用什么编辑器写Python脚本Python程序事例Python基本语法 数…

生信入门一对一,数据操作带你飞

前段时间有个朋友问了我一个问题,“如何从一个大的 FASTA 文件中提取给定的一系列基因的 ID”,她用 ChatGPT搜索了问题,拿到了代码,发给我看了下,ChatGPT写的确实好,刚开始学的人估计都写不了这么好&#x…

在生信中利用Chat GPT/GPT4

论文链接Ten Quick Tips for Harnessing the Power of ChatGPT/GPT-4 in Computational Biology | Papers With Code 之前在paper with code上比较火的一篇文章,最近要给生科的学长学姐们个分享所以把这个翻了翻,原文自认为废话比较多,于是选…

一只产品汪的低代码学习之路(一):ChatGPT眼中的低代码有多牛?

写在前面 作为一只本科财务,研究生信管半路出家的产品汪 “啥也不懂”和“就会写写SQL”已经成为了我工作属性的代名词 “可以但没必要”“you can you up,no can no bibi”“你到底懂不懂”是开发拒绝我的三板斧。 秉承着不蒸馍馍争口气的优良传统&…

【差异表达分析】差异表达分析标准不标准化这是一个问题(含其其它报错问题)

前言 在一开始学习基因差异表达分析时,老师就强调用raw count做差异分析,相关文献和资料我也保存了不少,我之前弄清楚log2/cpm与count fpkm等不是在一个水平上讨论的问题,但是具体用的时候还是要栽个跟头才能印象深刻。 我在复现…

PointNet++阅读笔记

(PointNet是PointNet结构的改良,它增强了对点云模型细节的捕捉能力) 摘要:PointNet并没有捕捉到点云的局部结构,而本文介绍了一种分层神经网络,用于捕捉点云的局部特征。 Introduction 背景:…

云平台网络——应用部署(一)

(可有可无的)引言 昨天完成了对学校集群的相关鉴权以后,大致理解了如何使用SSH登入教学集群,今天则是在此基础上进一步完成相关应用的部署,包括但不限于conda以及torch等和机器学习建模相关的软件安装,由于是第一次成功在云计算平…

用小学数学带你感受人工智能的魅力

AI因你而升温,记得加个星标哦! 大家好,我是泰哥。在ChatGPT火爆出圈后,越来越多的人对人工智能、深度学习、神经网络等名词更加好奇,身边的朋友最近也频繁的问我,AI究竟为什么如此强大? 偷个懒&…

精选| 2023年1月R新包推荐(第72期)

译:黄小伟,目前就职于杭州有赞 知乎专栏:中国R语言社区 |30,000关注、300万阅读 2023年1月,165个R包收录于CRAN,环比增长42.4%,本月Top 40 R包分为14个类别,详细介绍如下&#xff1a…

我用Echarts图表分析巴西队历年战绩,预测卡塔尔世界杯能否夺冠

🐱 个人主页:不叫猫先生 🙋‍♂️ 作者简介:前端领域新星创作者、阿里云专家博主,专注于前端各领域技术,共同学习共同进步,一起加油呀! 💫系列专栏:vue3从入门…

陶哲轩甩出调教GPT-4聊天记录,点击领取大佬的研究助理!

Datawhale干货 方向:GPT-4高级调教,来源:量子位 鹅妹子嘤,天才数学家陶哲轩搞数学研究,已经离不开普通人手里的“数学菜鸡”GPT了! 就在他最新解决的一个数学难题下面,陶哲轩明确指出自己“使用…

ESP8266还可以这样玩

作者:晓宇,排版:晓宇 微信公众号:芯片之家(ID:chiphome-dy) 01 巨型ESP8266 ESP8266几乎无人不知,无人不晓了吧,相当一部分朋友接触物联网都是从ESP8266开始的&#xff…

笑死!推特限流,微博赢麻了;使用ChatGPT撰写简历;SD电脑配置推荐;斯坦福67门AI课程学习路径 | ShowMeAI日报

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 🤖 因 Twitter 限流,大量海外画师涌入微博哈哈哈哈 7月3日,马斯克突然发推宣布用户浏览数量限制,新账…

想要成为 NLP 领域的大牛?从 ChatGPT 的 5 大自然语言模型开始了解吧(LM、Transformer、GPT、RLHF、LLM)——小白也能看得懂

目录 前言ChatGPT基础科普——知其一点所以然1. LM2. Transformer3. GPT4. RLHF5. LLM 参考资料其它资料下载 前言 如果想在自然语言处理(Natural Language Processing,NLP)领域内脱颖而出,那么你一定不能错过 ChatGPT 的 5 大自然…

浏览器工作原理和实践

1.介绍 见正文3 2.应用背景 参透了浏览器的工作原理,可解决80%的前端难题. 帮助高效快速安全开发web前端项目. 3.学习 课程目录 开篇词 (1讲) 开篇词 | 参透了浏览器的工作原理,你就能解决80%的前端难题 宏观视角下的浏览器 (6讲) 01 | Chrome架构…