随着ChatGPT的持续爆火,人们在使用ChatGPT的时也发现了它的局限性,就是需要使用者自己来给GPT提示(prompt)。
如果你想感受ChatGPT强大,又没有OpenAI账号,可以关注《可立AI科技》这个微信公众号,不用注册OpenAI的账号,不用梯子,可以直接在公众号里面提问题,生成图像。
那如何突破ChatGPT的这个局限性,让AI自我提示,AI完全不需要人类使用者就能“自主”实现使用者设定的任何目标,它自己创建出实现目标的流程与解决方案、自己上网查资料、自己应用相关工具来实现最终的目标,而做为人类使用者要做的,就是在屏幕前静静看着这一切的发生,等侍AI给你的最终结果,这就是Auto-GPT。Auto-GPT的横空出世,将AI发展进程推向了自主人工智能新阶段。
现在Auto-GPT已经在git上开源,(项目地址:https://github.com/Torantulino/Auto-GPT?ref=jina-ai-gmbh.ghost.io),在开源不到一周的情况下,迅速斩获7万多星,足见这个项目的火爆程度。
从开源的项目代码和官方给的介绍来看,Auto-GPT 本质上是一个基于 GPT-4 语言模型所构建的实验性开源应用程序,由 GPT-4 驱动,将大型语言模型 (LLM) 思想串在一起来自主实现任务。
有一位使用者测试用Auto-GPT开发一个网站,在不到几分钟时间里,Auto-GPT就用React和Tailwind CSS把网站给写了出来了。
还有人测试使用Auto-GPT来写公关方案。
Auto-GPT像赋予了GPT-4记忆和实体一样,它自己浏览互联网或使用新数据,之后调整其策略,直到任务完成。跟一个能处理各种任务的私人助手一样,它能够独立应对任务,甚至从经验中学习,不断提高自己的性能。
那么如此强大Auto-GPT是什么运行起来的呢?大致可以分为四个步骤:
- 架构:Auto-GPT是使用了GPT-4和GPT-3.5语言模型构建它的大脑,帮助它进行思考和推理。
- 自主迭代:给机器人赋予像人类一样从错误中学习的能力。Auto-GPT 可以回顾它的工作,在以前的结果上优化现在的流程,并利用它经验来产生更准确的结果。
- 内存管理:与矢量数据库(一种内存存储解决方案)集成,使Auto-GPT能够保留上下文并做出更好的决策。这就像给机器人配备了长时记忆,可以记住过去的经历。
- 多功能性:Auto-GPT的文件操作、网页浏览和数据检索等功能使其用途广泛。这就像赋予机器人多种技能来处理更广泛的任务。
总结下来,Auto-GPT有一些相对好于ChatGPT的特点:
- 自主驱动智能体:与ChatGPT不同,AutoGPT可以独立监督任务,无需人类生成的提示或输入。
- 高困惑度和突发性:AutoGPT的输出被设计为更接近人类,不易被识别为AI生成的内容。
- 多功能任务管理:该人工智能可以管理和执行各种任务,从内容创建到处理电子邮件和约会。
- 强大的安全性:AutoGPT的开发人员已经采用了先进的安全措施,以保障用户隐私和数据完整性。
但在现阶段,Auto-GPT 仍有很多缺陷。
高昂的成本:
虽然 Auto-GPT 具有卓越的功能,但任务需要通过一系列的思维迭代来完成,为了供更好的推理和提示,模型每个step通常都会用尽所有token。就是每一步都需要调用昂贵的 GPT-4 模型,GPT-4的token并不便宜,也就带来了过高的成本。
根据OpenAI的计算方式,具有8K上下文窗口的GPT-4模型,对于提示部分,每1000个token收费0.03美元;而对于结果部分,每1000个token收费0.06美元。而1000个token大概可以换算成750个英文单词。
假设每个动作都用尽了8000个token的上下文窗口,其中80%是提示(6,400个token),20%是结果(1,600个token)。那么提示成本为0.192美元,结果成本为0.096美元。每一step的成本大概为0.288美元。
而Auto-GPT 平均需要 50 个步骤来完成一个小任务,成本为 50* 0.288=14.4 美元(大概要人民币 98.5 元)。这只是一个小任务!
开发环境与生产环境
但有人会觉得花14.4美元来完成一项复杂的任务,好像并无不妥。但现在问题来,这 14.4 美元是一次性付出的,哪怕你只想修改一个很小的任务条件,以上的步骤又要从新来一遍,也需要再次支付 14.4 美元。它无法将这一系列操作「序列化」为一个可重用的函数,从而投入生产。
容易陷入死循环
许多用户在试玩后的报告说:Auto-GPT 经常陷入循环,导致其无法解决实际问题。
“我昨天多次使用它,我发现…它从未完成过一项任务。它总是去深入挖掘、做更多的研究,但从来没有真正完成一个目标。我就放着让它持续循环了几个小时。”