ChatGPT研究分享:插件模式的利与弊

目录

1、插件的实现方式

1.1 Toolformer

1.2 OpenAI插件文档

1.3 个人感想

2、一些有意思的点

2.1 知识和价值观

2.2 算法的研究方向


OpenAI近期公开了GPT-4,除了各方面性能的大幅度提升,最大的惊喜应该来自于插件模式的引入,GPT-4可以执行代码、搜索引擎、以及集成其他App的功能了。

这无疑是对于AI后续应用模式的一次突破性的尝试,同时,也引发了业界对于AI的探讨。因此,本篇基于插件模式展开讨论。

总体来说,插件模式的模型本身并没有革新,仍然保持着原有的局限性。而AI的安全性问题也仍然在探讨中,目前需要相信人大于AI。

1、插件的实现方式

OpenAI并没有公开插件的具体实现原理。因此,对于原理的探究,可以从两个方面来展开:1)meta的公开论文Toolformer;2)OpenAI的插件开发文档。

下面分别来展开:

1.1 Toolformer

我曾经说过,目前GPT的两个最大缺陷在于:没有记忆无法直接学习知识

  • 没有记忆,导致GPT无法持续学习,只能依靠历史训练集和对话的上下文信息,做有限的推理。

  • 无法直接学习知识,意味着人类总结出来的各种公式、理论等,都无法直接被编码进GPT中。这也是GPT往往犯低级错误的原因,他完全依靠逻辑推导,没有理论做基础支撑。

将LLM和一些其他工具相结合,显然是一种解决当前局限性的思路。就像人类学习中,我们往往并不需要知道所有问题的答案,但是需要知道如何利用工具(书本、计算机、搜索引擎等)去找到答案。

这个观点也并不绝对。将答案嵌入到脑海中,对于提升效率和思考复杂度是至关重要的。就好比在做题过程中,如果所有公式都是临时查询的,那可能无法灵活应用,组合成精妙的答案。

因此,meta在2023年2月,发表了相关论文Toolformer。具体原理其实相当符合直觉,因此推测其他LLM等也是使用的类似原理。

回顾一下Transformer的实现原理:

这篇文章需要关注的部分是,输入输出的token化表示。GPT将一段文字,拆解成了若干个token。所谓token,大致对应英文语法中的词根,在汉字中,应当是对应单个文字。而GPT的学习过程,就是依靠大量的训练集,去学习token和token之间的复杂关系。

因此Transformer本身可以应用在大部分领域,只要寻求一种token化表达方式即可。比如在图像领域,可以把一个3x3的像素认为是一个token。

显然,token可以是文字之外的东西。GPT本身就定义了许多类似[START]、[END]等特征信息,用于方便算法去识别关键的位置。同样的,插件也可以被定义为一种token。

Toolformer中的表达方式类似于:今天是<API>Calendar(当前日期)</API>

算法会根据训练集,学习什么时候应该调用API,并生成对应的调用语句,用<API>包裹起来。在实际执行的时候,程序会识别到这段<API>,并发起调用,返回执行结果。算法在接收到执行结果后,在执行一遍Encoder、Decoder流程,就可以继续输出了。大致效果如下:

个人认为,之所以插件功能可以实现,是因为Transformer架构极大的扩增了可输入的token长度,从而可以增加很多上下文信息来进行更准确的应答。这些上下文信息包括:精心构造的Prompt信息,对话过程中的持续输入,以及插件执行返回的信息等。

1.2 OpenAI插件文档

有了插件的执行方案,接下来就是去让算法学习去使用插件。

Toolformer中,采用的是简单粗暴的训练逻辑,直接给予大量输入和带API执行的输出,让算法去学习什么时候该调用API。这显然需要较大的训练量,在论文中,Toolformer提到了,他们为每个API都设计了2.5万个训练数据。同样的,这种训练模式也存在几个缺陷:

  • 不会链式调用API,无法用一个API的输出当作另一个输入。因为API的训练过程是依靠训练集独立训练的,算法无法学习API之间的相关性。

  • 无法支持交互式的API调用,类似搜索引擎返回后,再浏览返回的内容数据。

  • 算法对于是否调用API,非常依赖关键词的判断。这应该是训练集的构造本身导致的,没能给算法看到更多的调用场景。

而OpenAI在GPT-4的效果表现中,似乎解决掉了上述的问题。因此,可以简单探究一下其实现原理。API文档:https://platform.openai.com/docs/plugins/examples

一个插件的定义,大致会包含两个内容:

  • ai-plugin.json:定义插件是干什么的。其中最核心的是description_for_model这个部分,就是告诉GPT调用插件的Prompt。有意思的是,OpenAI在规范中明确了,不允许在description_for_model中,定义明确的规则话术,比如“看到task关键词,就调用TODO插件”。

{"schema_version": "v1","name_for_human": "TODO Plugin (no auth)","name_for_model": "todo","description_for_human": "Plugin for managing a TODO list, you can add, remove and view your TODOs.","description_for_model": "Plugin for managing a TODO list, you can add, remove and view your TODOs.","auth": {"type": "none"},"api": {"type": "openapi","url": "PLUGIN_HOSTNAME/openapi.yaml","is_user_authenticated": false},"logo_url": "PLUGIN_HOSTNAME/logo.png","contact_email": "support@example.com","legal_info_url": "https://example.com/legal"
}
  • openapi.yaml:定义接口如何调用。同样的,会有各种summary、description字段,来描述接口的作用是什么。参数的格式、返回的内容等,也都按照标准OpenAPI格式进行的定义。

openapi: 3.0.1
info:title: TODO Plugindescription: A plugin that allows the user to create and manage a TODO list using ChatGPT. If you do not know the user's username, ask them first before making queries to the plugin. Otherwise, use the username "global".version: 'v1'
servers:- url: PLUGIN_HOSTNAME
paths:/todos/{username}:get:operationId: getTodossummary: Get the list of todosparameters:- in: pathname: usernameschema:type: stringrequired: truedescription: The name of the user.responses:"200":description: OKcontent:application/json:schema:$ref: '#/components/schemas/getTodosResponse'post:operationId: addTodosummary: Add a todo to the listparameters:- in: pathname: usernameschema:type: stringrequired: truedescription: The name of the user.requestBody:required: truecontent:application/json:schema:$ref: '#/components/schemas/addTodoRequest'responses:"200":description: OKdelete:operationId: deleteTodosummary: Delete a todo from the listparameters:- in: pathname: usernameschema:type: stringrequired: truedescription: The name of the user.requestBody:required: truecontent:application/json:schema:$ref: '#/components/schemas/deleteTodoRequest'responses:"200":description: OKcomponents:schemas:getTodosResponse:type: objectproperties:todos:type: arrayitems:type: stringdescription: The list of todos.addTodoRequest:type: objectrequired:- todoproperties:todo:type: stringdescription: The todo to add to the list.required: truedeleteTodoRequest:type: objectrequired:- todo_idxproperties:todo_idx:type: integerdescription: The index of the todo to delete.required: true

因此,可以推断OpenAI在GPT-4的插件功能中,应当是按照“通用API接口”的思路去进行的设计。GPT在训练过程中,学习的是如何阅读接口文档,并自行判断何时去调用。推测大体的执行过程类似于:

 

值得注意的是,OpenAI文档中并没有提到插件开发者需要提供训练集去做fine-tuning,而是更加强调开发者需要设计合适的Prompt。

1.3 个人感想

插件模式并不代表AI智能的提升,但会是短期内主流的应用方

从OpenAI的插件模式可以看出,GPT-4学会的是如何调用接口。但对于GPT-4是否“理解”调用接口背后的含义,我个人持否认观点。

从另一个角度来看,GPT的两个缺陷,没有记忆无法直接学习知识,并没有被解决,而是通过外力弥补了。这就像在RNN之上也会引入Attention来提升性能一样,并没有带来本质原理的革新,尚不能称之为革命性变化。

下一个阶段,我更期待看到GPT在研究领域内的积极作用(效果类似于钢铁侠在“贾维斯”的帮助下发现了新的元素)。GPT所储备的海量知识,结合专业研究人员的问答互动,形成良性的观点碰撞。AI提效的作用从改善生活演变到促进思考,应当是一个非常值得期待的领域,甚至有可能让AI来帮助AI自身迭代算法,探索出下一阶段的算法模型。

功能的扩增必然带来安全性的风险,Human in the Loop仍然是需要遵守的原则。

在初中教材中,有一篇《寡人之于国也》,里面有一句话:刺人而杀之曰:‘非我也,兵也’。本意是说,兵器是一种工具,没有思想,所以问题是出在使用兵器的人身上。

狗彘食人食而不知检,涂有饿莩而不知发,人死,则曰:‘非我也,岁也。’是何异于刺人而杀之曰:‘非我也,兵也’?王无罪岁,斯天下之民至焉

但随着AI的功能性逐渐拓展,工具开始具备一定的自控能力了。这个时候,应该去怪谁呢?这显然是一个暂时无解的问题。

关于AI的安全性问题探讨,本篇不做展开。在此,仅仅表达一个观点,无论当前的AI多么炫酷,Human in the Loop仍然是必须要遵守的准则。尤其是在医学、法律、安全等敏感领域上,把决策权交由AI是一个不负责任的做法(哪怕人的出错概率比AI高,但人能够负责,就会比AI可靠)。

2、一些有意思的点

随着近期的AI热点大爆发,关于AI本身的各种讨论也涌现出来。对个人觉得有意思的一些点,展开讨论。

2.1 知识和价值观

我们知道,GPT的整体训练模式是base model和fine tuning。前者主要用来学习知识,后者用来学习如何正确的作答(类比于“价值观”)。

而在GPT-4的技术文档中,OpenAI提到了一些比价有意思的研究:他们发现,如果不经过fine-tunine,GPT回答的准确性是更高的。但是经过了fine-tunine之后,尽管答案更合理了,但准确性却下降了,导致经常给出hallucination的答案(即GPT认为正确,但实际错误的认知)。

下面是对这个现象的具体描述

  • 在预训练阶段,base model就已经能够很好完成考试了(注意,不是对话。考试更接近于传统的分类场景)。经过RLHF强化学习之后,考试成绩下降了。在经过post-training后,base model甚至不知道要回答问题,必须构造相应的promt,才能完成作答。

  • GPT在回答的时候,会confidently wrong(哪怕错了,它也对自己的答案很自信)。而事实上,这个自信来源于,在预训练的阶段,它对答案的准确率判断确实达到了非常高的水平(如下左图所示,当一个答案只有50%概率是对的时候,base model的预测结果也表示这个答案只有50%是对的)。但经过post-traning后,这个匹配度下降了,这也导致GPT会对一些错误答案,给出过高的准确率判断。

 

就像人类理性和感性的思考结果。GPT的预训练阶段,能够学会大量的知识,进行绝对理性的回答。但人们希望它能够更加感性,判断正误,具备价值观,因此进行了强化学习,但反而牺牲了理性的判断结果。

从这一点上来看,GPT和人类思维的相似性,再一次得到了印证。

2.2 算法的研究方向

这个话题源自于Twitter上,知名教授BernhardSchölkopf反应说,LLM方向的学生突然想转方向了。原因是觉得LLM已经到头了,剩下的都是小修小补的工作,很难产出突破性成果取得PhD博士学位了。

个人推测,部分原因也可能是大语言模型的训练成本越来越高,小玩家很难入场。只能学习学习理论,然后在这些AI大厂训练出来的结果上做微调。

同样的,教授也表达了自己的看法,鼓励学生们继续努力。

 最后,引用一下原文:The future depends on some graduate student who is deeply suspicious of everything I have said.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/5806.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Ursina随笔(一)—— Chatgpt帮忙解决Ursina中文显示为方块的问题

去年使用Ursina来替代Unity 3D做了一个项目&#xff0c;用Python比c#爽&#xff0c;但程序的中文的显示问题一直没解决&#xff0c;临时的解决方法是翻译成英文或者用图片。Ursina的国内用户很少&#xff0c;网上也没搜索到解决方案&#xff0c;对这个问题一直念念不忘。 # -*…

一招,提高 Github 成员微信群运营效率

[外链图片转存失败&#xff0c;源站可能有防盗链机制&#xff0c;建议将图片保存下来上传(img-tvqbdR3w-1663327883339)(https://img-blog.csdnimg.cn/img_convert/b90a5642bc5aa322d23157e5fb5762ad.png)] 01 #学习是未来人工智能的基础石 外媒TechUp 3月1日&#xff0c;几…

微信中如何接入机器人才比较安全(不会收到警告或者f号)之第三步正式接入

大家好,我是雄雄,欢迎关注微信公众号:雄雄的小课堂。 前言 前面两篇文章分别介绍了下chatgpt接入方式: 微信中如何接入chatgpt机器人才比较安全(不会收到警告或者f号)之第一步登录微信 微信中如何接入chatgpt机器人才比较安全(不会收到警告或者f号)之第二步注入dll文件…

解决微信后台禁用url问题

解决微信后台禁用url问题 由于目前用的平台&#xff0c;域名都没有在微信授权&#xff0c;所以被微信给禁用了&#xff0c;我们现在用一个接口可以绑定域名的平台转发一下&#xff0c;演示选择使用vscode工具&#xff0c;其它有终端的工具亦可。 1. 安装vercel 全局安装verce…

智能面板小程序如何实现跨端开发,并无缝引入ChatGPT?

如何让开发者更便捷高效地开发面板小程序&#xff1f; 全球化 IoT 开发平台服务商涂鸦智能&#xff08;NYSE&#xff1a;TUYA&#xff0c;HKEX&#xff1a;2391&#xff09;原先提供的是一套基于 React Native (简称 RN) 的面板 SDK&#xff0c;但是随着面板规模的不断增长&am…

Onekey Card实测:绑定微信日常使用,可帮助开通 ChatGPT Plus

著名硬件钱包 OneKey 推出的 OneKey Card 是一个虚拟 Visa 卡&#xff0c;支持微信、支付宝等支付渠道。注册过程非常丝滑&#xff0c;而且可帮助开通 ChatGPT Plus。属实是Crypto Holder们的福音。我们在这里介绍如何注册使用OneKey Card。 01. OneKey Card是什么 OneKey Car…

ChatGPT会取代律师这份职业吗?

如今&#xff0c;一种新型的人工智能威胁再次来袭&#xff0c;律师们可能会感到似曾相识的感觉。有人警告称&#xff0c;类似于ChatGPT的软件&#xff0c;因为具有类似于人类的语言流畅性&#xff0c;可能会取代大部分法律工作。 人工智能​的进步曾让人们预测&#xff0c;法律…

ChatGPT 存在很大的隐私问题

当 OpenAI 发布时 2020 年 7 月的 GPT-3&#xff0c;它提供了用于训练大型语言模型的数据的一瞥。 根据一篇技术论文&#xff0c;从网络、帖子、书籍等中收集的数百万页被用于创建生成文本系统。 在此数据中收集的是您在网上分享的一些关于您自己的个人信息,这些数据现在让 O…

再聊ChatGPT(关于安全,隐私和法律方面的风险)

我在上一篇博文中有谈到ChatGPT 发展可能会经历的一些阶段。ChatGPT的必经阶段&#xff1a;野蛮生长时代-管理层监管与风险提示-号召国产化-规范化常态化。 昨天刚好看到监管部门发文 说明监管部门已经意识到到ChatGPT野蛮生长阶段&#xff0c;其实是存在很多漏洞和问题的。 …

ChatGPT创业潮来了,我既兴奋又焦虑

最近一段时间&#xff0c;ChatGPT从AI领域破圈&#xff0c;成了互联网领域的新风口。创业者和投资人也兴奋起来了。 创业的方向已经很明了。做中国版对标ChatGPT的大模型&#xff0c;是显而易见的一条路。目前百度的“文心一言”已经呼之欲出&#xff0c;原美团联合创始人王慧…

入坑ChatGPT创业!顶级VC认购2.3亿美元,75%股份用于招研发人才

来源&#xff1a;新智元 继「美团大佬自掏5000万美元入坑ChatGPT」之后。 如今&#xff0c;又有新后续了&#xff01; 王慧文表示下轮融资已有顶级VC认购2.3亿美元&#xff0c;所以广邀各路英雄&#xff0c;放心施展才华&#xff0c;一同打造中国的OpenAI。 「不必为资金忧心」…

牛逼啊,阿里版 ChatGPT 要来了!中文聊天截图曝光,还能画图。。

萧箫 发自 凹非寺量子位 | 公众号 QbitAI 谷歌硬刚ChatGPT消息一出&#xff0c;科技圈全坐不住了。阿里百度网易京东一众公司全宣布要推出类ChatGPT新产品&#xff0c;战况那叫一个激烈。 阿里内测中的达摩院版ChatGPT&#xff0c;也被提前曝光。 竟然连画画技能都具备了&#…

一个参数让ChatGPT的回答更有创意

你是不是发现ChatGPT的回答有时看上去太理性了&#xff0c;像是在写说明文。 怎样让它的回答更有创意&#xff0c;更有活力呢&#xff1f; 在提问时&#xff0c;加上 温度&#xff08;temperature&#xff09;这个参数就可以了。这个参数可以控制生成文本的多样性和创造性。较低…

OpenAI 正式发布 ChatGPT API,所有开发者都可集成到自己产品中,加量还打折

公众号关注 「奇妙的 Linux 世界」 设为「星标」&#xff0c;每天带你玩转 Linux &#xff01; ​ 现在&#xff0c;第三方可以通过 API 将对话模型 ChatGPT 和语音转文本模型 Whisper 集成到自己的应用程序和服务中了。 2022 年 11 月&#xff0c;OpenAI 上线 ChatGPT&#xf…

ChatGPT在编程方面的用例:节省时间并提高工作效率

除非您一直住在树林里的小屋里&#xff0c;远离电网&#xff0c;否则您可能听说过ChatGPT。AI 聊天机器人于 2022 年 11 月发布并引起了不小的轰动&#xff0c;这引出了一个问题&#xff1a;这项激动人心的新技术究竟能为您、您的企业和您的行业做什么&#xff1f; ChatGPT 在…

强的离谱!别玩啥 Bing 了!我把 Google 和 ChatGPT4 合二为一!

跟大家说一个好消息&#xff0c;我们的星球【ChatGPT中文社区】已经 700 多人了。这 700 多名球友属于第一波在星球里学习到如何注册 ChaGPT、如何升级 GPT-4&#xff0c;如何进行 AI 绘画等实操。真的印证了那句话&#xff1a;早就是优势&#xff01; 之前有一个球友问我&…

医疗金融法律大模型:从ChatDoctor到BloombergGPT/FinGPT/FinBERT、ChatLaw/LawGPT_zh

第一部分 各种医疗类ChatGPT&#xff1a;或中英文数据微调LLaMA、或中文数据微调ChatGLM 1.1 基于LLaMA微调的国内外医疗问答模型 1.1.1 ChatDoctor&#xff1a;通过self-instruct技术提示API的数据和医患对话数据集微调LLaMA Github上有一个基于LLaMA模型的医疗微调模型&am…

集简云上线ChatGPT文档问答,基于文档实现智能问答训练

过去&#xff0c;我们想要让ChatGPT结合自身业务进行针对性回答&#xff0c;只能通过输入大量的prompt提示&#xff0c;或使用官方原生Fine-Tuning模型训练。 然而&#xff0c;过多的prompt提示词一方面提高了使用成本&#xff0c;另一方面&#xff0c;提示词的信息量有限&…

【ChatGPT】ChatGPT 背后的 AI 时代大背景、技术门道和商业应用 (万字长文|建议收藏)

目录 引言 我和聊天机器人的小故事 一、AI 背景 1.1 ChatGPT 的出圈和能力圈

ChatGPT背后的AI背景、技术门道和商业应用(万字长文,建议收藏)

作者&#xff1a;京东科技 李俊兵 各位看官好&#xff0c;我是球神&#xff08;江湖代号&#xff09;。 自去年11月30日ChatGPT问世以来&#xff0c;迅速爆火出圈。 起初我依然以为这是和当年Transformer, Bert一样的“热点”模型&#xff0c;但是当一篇篇文章/报告不断推送…