GPT4限制被破解!ChatGPT实现超长文本处理的新方法

目录

前言

使用chat-gpt过程中有哪些痛点

1.无法理解人类情感和主观性 

2.上下文丢失

3.约定被打断

那如何去解决这个痛点

Transformer(RMT)怎么去实现的

1.Transformer 模型

2.RMT模型

 3.计算推理速率

4.渐进学习能力

总结

写到最后


大家好,我是AI大侠,AI领域的专业博主

前言

ChatGPT已经成为了一款备受欢迎的工具,它可以帮助用户解答问题、写代码、翻译,甚至可以通过它学习更多行业的知识。然而,博主在使用ChatGPT时会发现它还不够智能,有时候不能够完全理解用户的意思,答非所问,下面是博主在使用中遇到的痛点

使用chat-gpt过程中有哪些痛点

1.无法理解人类情感和主观性 

尽管ChatGPT可以根据上下文理解用户的输入,但它仍然无法真正了解用户的意图,ChatGPT只能根据输入数据和算法进行分析和回答,无法真正理解人类的情感和主观性。这种局限性可能导致一些误解和问题。

2.上下文丢失

与ChatGPT进行对话时,它能够记住上下文,并在后续回答中考虑之前的内容。但是,博主在使用过程中经常会出现ChatGPT忘记之前的对话,这可能是由于单次请求中Token数量的限制或是ChatGPT会话长度的限制所导致的。

3.约定被打断

如果在会话中如果有很多其他的问答,ChatGPT可能会在继续下一步时忘记之前的约定,需要再次约定才会保持下去

那如何去解决这个痛点

这几个痛点我想使用过gpt的小伙伴都深有体会,那如何去解决这些问题呢。其实openAI已经给出了答案。

在发布gpt4的时候,最大的变化除了新数据模型的发布,还有一个重要的技术点更新:上下文token默认为8K 最长32k(约50页文本) 这代表可以可以处理更长的对话 以及 更深层次的语义分析。这也是gpt4更智能好用的原因。

但如果把这个token提升到200万个,那又会发生什么,

AI 模型使用的是非结构化文本,常用 Token 表示,以 GPT 模型为例,1000 个 Token 约等于 750 个英文单词

一篇在AI界热论的论文给出了答案,《Scaling Transformer to 1M tokens and beyond with RMT》它可以把Transformer 的 Token 上限扩展至 100 万,甚至更多

Transformer(RMT)怎么去实现的

1.Transformer 模型

Transformer 是一种神经网络模型,是迄今为止最新和最强大的模型之一,常用于处理上下文学习语义含义

我们来看看gpt4的上下文处理模型为什么只能达到8-32k,因为transformer 的可输入长度取决于内存大小,这意味着实现太长的token不现实,Transformer 存在一个关键问题,即其注意力操作的二次复杂度,这导致将大模型应用于处理较长序列变得越来越困难。然而,通过利用特殊的记忆 token 实现记忆机制的 Recurrent Memory Transformer(RMT)模型,有效上下文长度能够增长到百万级,这带来了新的发展前景。

2.RMT模型

RMT 全称Recurrent Memory Transformer(递归记忆Transformer)

RMT结构图

递归记忆Transformer(RMT)是一种基于记忆机制的序列建模架构,用于存储和处理序列数据中的局部和全局信息,并通过递归传递信息来处理长序列中的段之间的依赖关系。

相较于标准Transformer模型的实施,RMT仅通过对输入和输出序列进行修改而无需修改底层模型架构。模型通过训练过程中的记忆操作和序列表示处理来掌控记忆机制的行为。

具体而言,RMT采用记忆token的方式将记忆信息添加到输入序列中,从而为模型提供额外的容量,以处理与输入序列中任意元素无直接关联的信息。为了应对长序列的挑战,RMT将序列分割为不同的段,并通过记忆传递机制将上一段的记忆状态传递到当前段。在训练过程中,梯度通过记忆传递的路径从当前段向前一段流动,从而实现信息的回传和更新记忆状态的目的。

这意味着扩展了token的数量,如果达到理想的200万,我们可以将整部小说甚至更多内容输入到GPT中,而无需依赖上下文来理解用户的信息。这种改进使得GPT能够更准确地处理输入,并提供更精准的回复。现在,试想一下,如果我将整篇《红楼梦》输入到GPT中,是否可以让它帮我续写这个经典作品呢?

 3.计算推理速率

从论文的计算结果中可以很直观地观察到,推理时间与输入序列长度呈线性关系

在处理包含多个片段的大型序列时,递归记忆Transformer(RMT)模型可能比非循环模型更有效率。

这意味着在GPT模型中输入更多内容,可以让模型更深入地理解用户的意图,从而提供更准确的答复。

如果将自己的聊天信息和朋友圈动态等数据导入GPT模型,并让它进行理解和吸收,是否能够快速生成一个完整的虚拟人格呢?如果token达到这个量级 完全是可实现的,这就有些恐怖了

4.渐进学习能力

论文中还指出,随着输入数量的增加,机器学习模型学习到的结果也变得更加准确。

这意味着输入更多的数据可以显著提升模型的性能和预测准确度。

总结

这项技术将使得ChatGPT的能力上限被突破。这也让ChatGPT的痛点得以解决,使得它更完美。

我们甚至可以将整个项目的代码交给GPT,并明确告诉它我们的需求,它将能够直接开始处理后续需求、修改代码并进行优化以及后面的需求迭代。

写到最后

每天在AI领域都有令人震撼的进展,各种新技术层出不穷。有幸生活在这个充满创新的时代,你准备好了吗

AI是一个充满机遇和挑战的领域,

AI时代已经到来,AI真的会取代我们吗?

你还不主动了解AI?

你还在为跟同事聊AI插不上话吗?

那请关注大侠,带你了解AI行业第一动态。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/3324.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微信小程序-textarea字数统计与限制

第一步:参考官方文档《textarea小程序》 textarea多行输入框。该组件是原生组件,使用时请注意相关限制。 用到的属性: 属性说明maxlength最大输入长度,设置为 -1 的时候不限制最大长度minlength最小输入长度bindinput当键盘输入…

写代码调 Bug,OpenAI 发布最强 AI 对话系统 ChatGPT!

整理 | 苏宓 出品 | CSDN(ID:CSDNnews) GPT-3 发布的两年后,我们没等来它的亲弟弟 GPT-4,而是在今天亲眼见证了 OpenAI 带来了一种全新的 AI 聊天机器人——ChatGPT,也可以称之为是 GPT-3 家族里面的亲戚&a…

AI无法打败AI!ChatGPT检测器频繁冤枉无辜学生,竟有210万教师在用

【导读】被AI冤枉的你,还好吗? 当你被AI无辜扣上「作弊」的帽子,作何感想? 这件事恰恰发生在了一位高三学生Lucy Goetz身上。原本她写的一篇社会主义原创论文得了最高分。 但是,Turnitin公司的AI写作检测器竟说&…

如何在本地电脑上搭建AI人工智能绘画工具Stable Diffusion

目录 概述 操作环境 操作步骤 步骤一:安装Python。 步骤二:安装Git。 步骤三:使用git安装stable-diffusion-webui。 步骤四:下载面部重建插件GFPGAN。 步骤五:配置并运行webui-user.bat文件来自动安装所需文件。 步骤五…

AI能否识别出AI生成的内容?AI(ChatGPT)自己怎么说

关注了几天ChatGPT、New Bing等,我意识到将来我们所看的内容,必然有越来越高的比例都是AI生成的,而我们几乎无力分辨,但我有时候还是想分辨的,于是,我对如题的问题就特别好奇。 PS:已经有专注于…

让AI生成AI绘画提示词,OpenAI最新成果ChatGPT被网友玩坏了!还会写代码修bug作诗...

羿阁 发自 凹非寺量子位 | 公众号 QbitAI 一款新的聊天AI被网友们玩疯了。 能直接生成代码、会自动修复bug、在线问诊、模仿莎士比亚风格写作……各种话题都能hold住,它就是OpenAI刚刚推出的——ChatGPT。 有脑洞大开的网友甚至用它来设计游戏:先用ChatG…

关于AI和ChatGPT的使用,AI编程(AIGC),AI绘画(2)

AI绘画技术是指利用人工智能技术来创作、生成或修改图像、照片、插图、漫画等艺术品以及各种视觉效果。常见的AI绘画技术包括机器学习、深度学习和计算机视觉等领域的技术,通过训练神经网络模型来实现自动化地生成图像,其应用范围相当广泛,包…

ChatGPT到底有多厉害?看完你就知道了

hatGPT发布五天,有超过100万玩家,这是 Facebook花10个月才达到的里程碑,三个月1亿用户,这是Twitter花9个月创下的记录。 ChatGPT可以跟人做多轮聊天,能理解人,很可能通过图灵测试,他跟能创造新内…

OpenAI 最强对话模型 ChatGPT: 用户已破百万,落地将有几何

上周三,OpenAI 发布了对话语言模型 ChatGPT,并开放了免费试用。据 OpenAI 的 CEO Sam Altman 称,在短短 5 天的时间里,ChatGPT 就有了 100 万用户,而之前的 GPT-3 花了将近 24 个月才达到这个用户量。 在 OpenAI 给出的…

了解ChatGPT

输出结果与标注正确结果差距反哺调整参数: 无监督预训练和有监督微调 打磨模型的论文:https://arxiv.org/pdf/2203.02155.pdf 核心训练过程:

CHATGPT爆火,通用人工智能的奇点来临

自ChatGPT推出以来,不断地引爆热点,人们对自然语言处理(Natural Language Processing, NLP)大模型的魔力感到赞叹,还有人探讨通用人工智能(Artificial general intelligence,AGI)的奇…

当ChatGPT遇见Python

在如火如荼的 ChatGPT 大潮当中,已经衍生出了各种各样的周边产品。 Python 作为著名的万金油工具,怎么能没有它的身影呢。今天我们就介绍两种通过 Python 调用 ChatGPT 的方法,一起来看看吧~ chatgpt-wrapper 这是一个开源在 GitHub 上的项目…

ChatGPT科研绘图(基于python)【chatgpt使用指南-python绘图】

🥑 Welcome to Aedream同学 s blog! 🥑 文章目录 背景chatgpt操作结果 chatgpt可以通过编写Python、matlab等代码实现绘图功能。经过试验,其中以Python最为高效准确,基本不会出现报错。本文以Python绘图为例进行辅助绘图&#xff…

【ChatGPT】全网首发第一本全面介绍 ChatGPT 的书:《 ChatGPT 和人工智能革命 》/ 作者:禅与计算机程序设计艺术 ChatGPT

This Image was drawn By Stable Diffusion 【ChatGPT】《 ChatGPT 和人工智能革命 》/ 作者:禅与计算机程序设计艺术&ChatGPT 目录

【关于ChatGPT的30个问题】11、ChatGPT是否会替代人类客服?/ By 禅与计算机程序设计艺术

11、ChatGPT是否会替代人类客服? 目录 11、ChatGPT是否会替代人类客服? ChatGPT是否会替代人类客服?

【关于ChatGPT的30个问题】12、ChatGPT的训练数据集是什么?/ By 禅与计算机程序设计艺术

12、ChatGPT的训练数据集是什么? 目录 12、ChatGPT的训练数据集是什么? ChatGPT的训练数据集是什么?

非常全面:72页ChatGPT研究框架(2023)ppt(附下载)

本文来源:国泰君安证券、图灵人工智能 国泰君安证券对于ChatGPT进行深入研究,从其市场概况、技术路径、行业进程、商业化四个方面逐一展开说明。 (本文共72页) 文末提供下载。 全文获取方法: 关注下面的公众号&#xf…

【关于ChatGPT的30个问题】13、ChatGPT是否收到了任何官方的打击?/ By 禅与计算机程序设计艺术

13、ChatGPT是否收到了任何官方的打击? 目录 13、ChatGPT是否收到了任何官方的打击?

ChatGPT、乔姆斯基、图灵、平克与语言的未来

来源:geekculture 翻译:DeepL 作者:Erman Akdogan,技术教授,居住于芝加哥。 发表于极客文化 诺姆-乔姆斯基会如何看待 ChatGPT? 我一直对乔姆斯基关于语言性质的观点以及它在过去引发的辩论很着迷。基于他对…

在一篇由 GPT-3 生成的论文中,ChatGPT 重现了图灵测试的原始论文

来源:AI科技评论 本文约8100字,建议阅读15分钟 ChatGPT 的论文写作能力高过图灵,还骗过了 AI 写作评分工具。 以 ChatGPT 为代表的文本生成的兴起,正促使许多研究人员寻求一个比原始版本更具挑战性的图灵测试。 图灵测试解决两个问…