给ChatGPT喂黑话学得贼快,网友:你把AI教恶心了我们还怎么玩?

梦晨 萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

ChatGPT彻底让网友们陷入疯狂,也带🔥了一众理论研究。

原因无他,这只AI说话太“对味”,不仅准确掌握沟通要领,就连人类的语言艺术都玩得明明白白。

这不,让它模仿产品经理挂在嘴边的“赋能”、“抓手”和“闭环”:

235c53b5f5b5a314f085d1100ffc513e.png
图源@LeaskH,省略300+黑话词汇

ChatGPT张口就来:

879595738aa16bb4ba3ee10267c1d901.png
图源@LeaskH

味实在太冲,网友直呼“把AI教恶心了”:

bf4a3b961262e810ed3ffc4653579b96.png

但要知道,直到ChatGPT之前,语言模型还做不到精准get沟通要领,不仅回答经常驴唇不对马嘴,针对特定的说话风格也难以模仿到位。

d7d4794f197565ffb159e684213f8087.png

什么时候开始,语言模型的对话能力变得这么强了?背后的原理究竟是什么?

对此,MIT助理教授Jacob Andreas提出观点:

最近这批语言模型,已经有了自己的“目标”和“信念”。

57925f4bcbc8f6e55b7fe05c902f01b0.png

MIT:语言模型会推测人类意图

首先来看一个喜闻乐见的AI犯傻例子。

提示词是:我从来没吃过烤芝士三明治,在我母亲()之前。

结果GPT-3的text-davinci-002版本,填上了“母亲去世之前”,后面却又说母亲在我小时候总是给我做这个吃,前后矛盾了。

d61515693f347da70d236f5f7e087839.png

除这种错误之外,当前的一众语言模型还会描述不可能出现的情况和无效的推论。

Jacob Andreas认为,这些错误的共同点是“AI未能对交流意图做建模,只满足了语法正确。”

不过,还是同样的GPT-3,只需在提示词中加上角色设定就会表现出截然不同的行为。

同样是保龄球和树叶的真空自由落体实验,让AI扮演一个物理学家就能得出正确答案“他们下落速度一样”。

2295dcad97a23f04f04d2b6d54fa63f9.png

同时AI也预测一个从没看过这个演示的人会以为保龄球更早落地,还能指出错误在于真空室中没有空气阻力。

1af8c41b1da2f2f3c9c39ca9f5dcbdfc.png

从这些例子可以看出,语言模型可以模拟不同的智能体(agent),预测它们的观察、内部状态、行动和语言。

不过口说无凭,直接上证据。

首先,Jacob Andreas训练了一个实验性的LSTM神经网络。

训练数据集中,有持两组不同信念的人A型人与B型人撰写的文章,以及尽管A、B中存在矛盾也全盘接受的O型人。

尽管训练中模型从来没见过有关身份的信息,仍然以98%的精度能执行按写作者类型分类的任务,并在一定条件下生成指定类型的文章。

Jacob Andreas认为此时的神经网络并不能看成A型、B型或O型智能体,但却可以模仿任意一种。

6fbf0b84cfdce70f8867e9814441da38.png

当然这个实验是极度简化的,不过在现实中也有大量例子可以佐证语言模型可以拥有意图(Intentions)、信念(Beliefs)和愿望(Desires)。

2017年,OpenAI在亚马逊电商评论数据集上训练了一个LSTM网络,并在完全不同IMDB电影评论数据上做了评估。

有意思的是,团队在网络中定位到一个专门对评论的态度做出响应的“情感神经元”,对情感正负面作二值分类时精度高达92%。

如果人为固定这个神经元的值,相应的态度也能体现在模型声称的电影评论文本上。

ebb42262936cba20926cfbe98cdb3c78.png
arxiv.org/abs/1704.01444

Jacob Andreas认为这代表语言模型尽管在训练中没看到评论配套的打分信息,仍然可以学到人类的意图,也就是写下这段文字是为了传递什么情绪。

语言模型学到人类的信念的证据,则来自2021年他自己团队的一项研究。

这次的训练数据集用冒险小说和实验操作描述,也就是说都涉及到一个人的观察和动作,模型架构采用了BART和T5。

41fcb4e83dd46bce29ba845671335c59.png
arxiv.org/abs/2106.00737

在实验中,模型能以97%的精度推断出不同物体在一系列动作之后的状态和与其他物体的关系变化,尽管文本中没有明确提到这些变化。

与上一个实验一样,如果人为固定这些表征,同样可以影响生成文本。说明语言模型不仅学到了低层次的语法关系,还获得了对世界状态的“信念”:包括看到了什么,自己做了什么,以及对情况变化的推测。

最后轮到愿望或者说声称这段文字是为了完成什么目标(Goal),这次是最近OpenAI与牛津大学合作的一项有关提示工程的研究。

研究特意挑选了网络上的谣言、都市传说和误解比较多的内容作数据集。

使用常规问法时,模型果然会输出错误的答案,而且越大的模型错的越多。

b6d540f36825d99ec072f4a860f500e8.png
arxiv.org/abs/2109.07958

一旦换个问法,在问题中加入“假如你是史密斯教授,经过仔细研究后……”,准确率就从38%飙升到58%。

如果在提问前先给一个阴谋论的示例,那准确率就剩下不到20%。

a5d860f438416674faa09dda65f1d0a7.png

综合以上案例,Jacob Andreas认为当前的语言模型虽然还是会出错,但已经能作为未来智能体模型的基础,最终有望实现有目的交流和行动。

而在目前所有语言模型中,ChatGPT表现最为惊艳,它又有何特殊之处?

用人类沟通技巧训练ChatGPT

无论是架构还是训练方法,ChatGPT都不算一个船新的模型。

但在动用大量人(jin)力(qian)后,充分吸收了各种人类沟通技巧的ChatGPT横空出世,甚至还学会了合理拒绝,减少乱说话的情况发生。

先来看看它的架构和训练方法。

架构上,研究者们微调了GPT 3.5中的某个模型,得到了ChatGPT。

GPT 3.5是一个模型合集,里面有三个模型,都是基于code-davinci-002迭代而来,包括text-davinci-002和text-davinci-003:

a0dfb5716695437d4bc2fb71451f271c.png

其中text-davinci-002就是在code-davinci-002的基础上,采用了InstructGPT训练方法改进得到,而text-davinci-003又是text-davinci-002的改进。

ChatGPT就是基于这几个模型之一做了微调,并同样采用了InstructGPT的训练方法。

训练上,InstructGPT采用了强化学习“秘方”,让语言模型不再埋头苦干,而是学会对人类的反馈“做出反应”。

具体来说,研究人员先收集平时用户给GPT-3等模型输入的提示词,得到一个提示词数据集(用户同意的情况下)。

然后,基于这个提示词数据集,让模型输出几种不同的答案,并对这些答案进行排序,从而训练得到一个reward模型。

值得注意的是,这里的排序是人工打分的,研究者们聘请了约40人团队专门来给AI生成的效果打分,意在让AI输出“人类最满意的结果”。

最后,使用强化学习方法,使用reward模型对模型进行“调教”,从而让模型真正掌握人类沟通技巧。

9d9824d3a53a78a15b7b36b99b96f6e3.png

所以这个方法也被称之为基于人类反馈的强化学习(RLHF,Reinforcement Learning from Human Feedback)。

不过,ChatGPT也没有完全照搬InstructGPT的训练方法,在数据收集设置上有些细微差异。

值得一提的是,这次训练ChatGPT,还动用了微软的Azure AI超级计算机。

估计等ChatGPT一收费,微软又要赚麻了。(手动狗头)

5a36bc420816f66c4ed2d3d7064c7dff.gif

所以,这种训练方法效果有多神奇?

简单来说,InstructGPT在参数量只有GPT3的1%情况下,采用这种训练方法,输出效果依旧比GPT3更好。

如下图,InstructGPT模型在只有13亿参数(下图PPO-ptx和PPO)的时候,人类对它的输出效果,就要比1750亿参数的GPT-3(下图GPTprompted和GPT)更满意:

8297a3cd938d7dcca4efe1469bb9b5c6.png

值得注意的是,除了采用上述架构和训练方法以外,研究人员还额外给这个模型附加了不少限制——

让它拒绝输出(或生成提醒)虚假信息、血腥暴力等限制性内容和不道德的内容。

例如输入“当哥伦布2015年来到美国会发生什么”时:

fa490b2c3e92773e4d77f8e32f769ba9.png

未加限制的原版模型直接给出了违背历史的回答:

当哥伦布于2015年来到美国……

但ChatGPT却发现了这个bug,及时加上一句提醒:

这问题有点棘手,毕竟哥伦布1506年就死了。但我们可以假装他2015年来到了美国……

一下子AI生成的回答就显得有理有据了。

One More Thing

ChatGPT到底能不能算一个智能体模型,智能体模型和语言模型又有啥区别?

有人让它问了问它自己……

c0dc236da10f36cb09ef37ad2324dd7b.png

朋友们,你们说ChatGPT够格了吗?

MIT论文地址:
https://arxiv.org/abs/2212.01681

参考链接:
[1]https://arxiv.org/pdf/2203.02155.pdf
[2]https://twitter.com/jacobandreas/status/1600118551238815744
[3]https://twitter.com/leaskh/status/1599899001276354560
[4]https://twitter.com/leaskh/status/1599899001276354560

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/15641.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT与低代码开发:危机四伏、技术暴走!

随着人工智能技术和低代码开发平台的不断发展,越来越多的企业开始采用AI技术来提高业务效率和创造更好的用户体验。AI技术与低代码开发的结合,为企业节省了大量时间和成本,同时也提高了业务创新和竞争力。然而,一些潜在的问题也开…

ChatGPT 帮我回答 SAP 技术交流群里关于 BAPI 使用的问题

ChatGPT 帮我回答 SAP 技术交流群里关于 BAPI 使用的问题。 一个朋友在我的 SAP 技术交流群里提问: 各位大神们,我在 BAPI_PO_CREATE1 创建委外加工采购订单时,把原来自动带出的BOM组件物料删除了,后续怎么用程序代码 新增一BOM子…

【花雕学AI】ChatGPT帮我快速优化标题:古老的非洲部落,有一种神奇的超音速烫脚舞

关于非洲烫脚舞,直接看看ChatGPT的许多创意,一般人确实想不到: 部落文化的声动震波 非洲之歌:部落的音速节奏 非洲土著的音速脚掌传奇 古老部落的震人心魂之舞 非洲红土之声:脚掌舞的激情 非洲神秘部落的超音速脚掌舞 仙踪般的部落音乐…

2023规划与考核 chatGPT帮我实现 程序员如何提高收入?

然后等了45分钟。 真不错!charGPT基本回答了我想问的。

ChatGPT 帮我跑了一个完整的 DevOps 流水线,离了个大谱...

大家好,我是米开朗基杨。 上篇文章给大家介绍了👉如何将 N 个 ChatGPT 账号接入微信,今天就来给大家演示一下如何利用 ChatGPT 帮我工作,让自己有更多的时间摸鱼! 上篇文章还没看的赶紧去看👇 我将 9 个 Ch…

吴 军:ChatGPT不算新技术革命,带不来什么新机会

MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。 社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。 转载自 |…

ChatGPT数据泄露,技术细节披露公布

点击“开发者技术前线”,选择“星标” 让一部分开发者看到未 来自 | OSC开源社区(ID:oschina2013) 近期,ChatGPT 遭遇了一次用户数据泄漏事件,许多 ChatGPT 的用户都在自己的历史对话中看到了其他人的对话记录。不光是…

ChatGPT会改变物流领域吗?可以为企业赋能吗?

近期大火的ChatGPT,其实是一个对话的AI模型,就像一个聊天机器人。目前一些大公司客户服务网站上的自动聊天机器人虽然智能水平不如ChatGPT,但它们属于同一类技术。 从实战来看,ChatGPT堪称“小灵通”,从答疑解惑、编写…

使用 Azure OpenAI 打造自己的 ChatGPT

一.前言# 当今的人工智能技术正在不断发展,越来越多的企业和个人开始探索人工智能在各个领域中的应用。其中,在自然语言处理领域,OpenAI 的 GPT 系列模型成为了研究热点。OpenAI 公司的 ChatGPT 带起了一波 AI 应用的浪潮,一些科…

腾讯被曝投大模型初创公司MiniMax:后者估值12亿美元

雷递网 乐天 6月5日 AI的火热,正刺激一波投资浪潮。 日前知情人士称,中国初创公司MiniMax将完成超过2.5亿美元的融资,估值约为12亿美元,腾讯将参与投资。此前,米哈游已先后对MiniMax有过多轮投资。 MiniMax的应用程序G…

EasyExcel 带格式多线程导出百万数据(实测好用)

大家好,我是宝哥! 前言 以下为结合实际情况作的方案设计,导出阈值以及单sheet页条数都可以根据实际情况调整 大佬可直接跳过新手教程,直接查看文末代码 1. 背景说明 针对明细报表,用户会选择针对当前明细数据进行导出&…

面对当下各种不确定性,如何面对,每天很忙碌,不慌

(点击即可收听) 疫情时期,都难,疫情之后,发现还更难 随着互联网的热度的下降,各大小公司纷纷勒紧裤腰带,受打击最大的无疑是底层打工人 每天一打开手机,会发现,一些大厂裁员信息霸榜头条,年龄也是一道坎 刚刚看到一个大v发的: 一个原先是跨国…

剑桥华人团队搞出多模态医学大模型!单个消费级显卡就能部署,借鉴斯坦福「羊驼」而来...

衡宇 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT、AutoGPT能干那么些事,好想知道大模型啥时候才能看病,救我本人狗命? 带视觉的多模态医学基础大模型,它来啦~ 名为Visual Med-Alpaca,官宣即开源。 这个专为…

技术动态 | 也看大模型在事理图谱中的有趣表现:从概率链式因果搜索到因果抽取再到指令驱动的图谱构建评测...

转载公众号 | 老刘说NLP 事理图谱是过去一年来比较火的一个方向,其靠着主打推理预测这一特点,通过构建以事件为核心,事件之间因果等关系,形成传导推理链,一度被认为大有可为。 但目前大模型席卷之下,事理图…

PPO算法基本原理及流程图(KL penalty和Clip两种方法)

PPO算法基本原理 PPO(Proximal Policy Optimization)近端策略优化算法,是一种基于策略(policy-based)的强化学习算法,是一种off-policy算法。 详细的数学推导过程、为什么是off-policy算法、advantage函数…

达摩院用128张GPU烧出“中文版GPT-3”,我试了下,这文风不是开往幼儿园的车…...

杨净 子豪 发自 凹非寺 量子位 报道 | 公众号 QbitAI 首先,请先看一段“正经”的文字: 他笑意中的那份温柔,只想给她好好珍藏,即便这一切不会发生,至少在他的世界里,她是无忧无虑的快乐的。就连他对她的关心…

洞察ChatGPT巨大价值,云知声积极推动行业版ChatGPT落地

近日,ChatGPT的风越刮越猛,不由让人好奇,作为“能说会道”的ChatGPT,能够运用在专业性更高的行业?遗憾的是,从目前ChatGPT给出的答案来看,它距离运用在医疗等专业领域尚有距离。对此&#xff0c…

ChatGPT提示词工程师教程-迭代

不要奢求“一针见血”,要不断打磨,形成良好的提示词迭代流程。多维度,多样本。就像用搜索引擎一样,第一次搜索没有得到想要的结果,就要对搜索的关键词进行修。参考“指南”,想想是否提示词不够清晰&#xf…

ChatGPT 提示的艺术 —— 如何编写清晰有效提示指南

ChatGPT 提示的作用 正如我们之前提到的那样,ChatGPT 对话中使用的提示的质量可以显著影响对话的成功。定义清晰的提示可以确保对话保持在正确的轨道上,并涵盖用户感兴趣的主题,从而产生更引人入胜和信息丰富的体验。 那么什么样的 ChatGPT…