复旦邱锡鹏:深度剖析 ChatGPT 类大语言模型的关键技术

dc88a52e7800ada2b9d57f153a861e70.gif

分享嘉宾 | 邱锡鹏       整理 | 禾木木,梦依丹

出品 | CSDN(ID:CSDNnews)

ChapGPT 自问世以来,便展现出了令世人惊艳的对话能力。仅用两个月时间,ChatGPT 月活跃用户就达一亿,是史上用户增速最快的消费应用。对于学术界、工业界、或是其他相关应用来说都是一个非常大的机会和挑战。

事实上,ChatGPT 的成功并不是偶然结果,其背后多有哪些创新之处,本文整理于「ChatGPT 及大模型专题研讨会」上复旦大学邱锡鹏教授带来的《对话式大型语言模型》的分享,他从大规模预训练语言模型带来的变化、ChatGPT 的关键技术及其局限性等角度深入地介绍了大规模语言模型的相关知识。

2d2be96f6efb851a81deb5280802791c.jpeg

邱锡鹏,复旦大学计算机学院教授,MOSS 系统负责人

00911e18617d127351fa2c7ac17f9c21.png

为什么是大语言模型?

随着算力的不断提升,语言模型已经从最初基于概率预测的模型发展到基于 Transformer 架构的预训练语言模型,并逐步走向大模型的时代。为什么要突出大语言模型或是在前面加个“Large”?更重要的是它的涌现能力。

当模型规模较小时,模型的性能和参数大致符合比例定律,即模型的性能提升和参数增长基本呈线性关系。然而,当 GPT-3/ChatGPT 这种千亿级别的大规模模型被提出后,人们发现其可以打破比例定律,实现模型能力质的飞跃。这些能力也被称为大模型的“涌现能力”(如理解人类指令等)。

7570bcda9b15dc4e7e8dabec14e289ca.png

上图是多个 NLP 任务随着模型规模扩大的性能变化曲线,可以看到,前期性能和模型规模大致呈线性关系,当模型规模大到一定程度时,任务性能有了明显的突变。

因此,通常以百亿/千亿级参数量作为 LLM 研究的分水岭。除此之外,大规模语言模型基座的可扩展性很强,其能够很容易和外部世界打通,源源不断地接受外部世界的知识更新,进而实现反复自我迭代。因此,大规模语言模型也被看作是实现通用人工智能的希望。

b96ecab2eb075224d62dbde7a2212d78.png

ChatGPT的三个关键技术

目前,很多公司和组织都在跟风 ChatGPT,推出类似的聊天机器人产品。这主要是因为 ChatGPT 的成功,给人们带来了信心,证明了聊天机器人技术的可行性和潜力,让人们看到了聊天机器人在未来的巨大市场和应用前景。

ChatGPT 的三个关键技术为:情景学习、思维链、自然指令学习,接下来将详细介绍一下这三个技术。

  • 情景学习(In-context learning)

改变了之前需要把大模型用到下游任务的范式。对于一些 LLM 没有见过的新任务,只需要设计一些任务的语言描述,并给出几个任务实例,作为模型的输入,即可让模型从给定的情景中学习新任务并给出满意的回答结果。这种训练方式能够有效提升模型小样本学习的能力。

446280ab8276bff8cd234d61ee8bff2f.png

情景学习的示例图

可以看到,只需要以自然语言的形式描述两个情感分类任务输入输出的例子,LLM 就能够对新输入数据的情感极性进行判断。例如,做一个电影的评论,给出相应的任务模型,即可输出正面的回答。

  • 思维链(Chain-of-Thought,CoT)

对于一些逻辑较为复杂的问题,直接向大规模语言模型提问可能会得到不准确的回答,但是如果以提示的方式在输入中给出有逻辑的解题步骤的示例后再提出问题,大模型就能给出正确题解。也就是说将复杂问题拆解为多个子问题解决再从中抽取答案,就可以得到正确的答案。

3d8ea539947c8aab087ff93357964ea3.png

思维链示意图

如思维链示意图所示,左边是直接让模型进行数学题的计算会得到错误的结果,而右侧在解题过程加入了一个示例,引入解题过程则可以激发模型的推理能力,从而得到的正确的结果。

f3048c28347d6072a4a5bee9ddf5779e.png

这就是一个简单的可以通过计算能力从思维链中分离,有助于大模型完成任务,从而减轻神经网络的负担。

由于 CoT 技术能够激发大规模语言模型对复杂问题的求解能力,该技术也被认为是打破比例定律的关键。

  • 自然指令学习(Learning from Natural Instructions)

早期研究人员希望把所有的自然语言处理任务都能够指令化,对每个任务标注数据。这种训练方式就是会在前面添加一个“指令”,该指令能够以自然语言的形式描述任务内容,从而使得大模型根据输入来输出任务期望的答案。该方式将下游任务进一步和自然语言形式对齐,能显著提升模型对未知任务的泛化能力。

64fb51c3ae53da938272b2535bc6af63.png

 自然指令学习示意图

如自然指令学习示意图所示,左边是自然指令的测试场景,人们把 NLP 任务做到 1000 多种,目前最新模型可以做到 2000 多种 NLP 任务,接下来再对 NLP 任务进行分类,比如能力 A、能力 B,大模型指令能力、泛化能力非常强,学到四五十个任务时就可以泛化到上百种任务。但距离真正的 ChatGPT 还有一步,那就是和真实的人类意图对齐,这就是 OpenAI 做的 GPT。

核心逻辑非常简单,一开始时让人写答案,但是成本太高,改成让人来选答案,这样对标注员的能力要求稍微低一点,可以迅速提升迭代和规模。基于打分再训练一个打分器,通过打分器自动评价模型的好坏,然后用强化学习开始迭代,这种方法可以大规模地把数据模型迭代给转起来,这是 OpenAI 做的 Instruct GPT 逻辑,强化学习的人类反馈。

7b762e9db80a2ba55051046f4021a91f.png

Instruct GPT 逻辑示意图

基于 Instruct GPT 技 术路线,ChatGPT 从技术上并没有特别好的创新,但它最伟大之处是赋予了大型语言模型对话的能力,这是个产品化创新,这个创新非常棒!

2f703f254d04c82152b0bd781ef790a0.png

如何构建一个大语言模型?

目前,主要可以从下面四个维度来衡量大语言模型的能力。

  1. Know Knowns:LLM 知道它知道的东西。

  2. Know Unknowns:LLM 知道它不知道哪些东西。

  3. Unknow Knowns:LLM 不知道它知道的东西。

  4. Unknow Unknowns:LLM 不知道它不知道的东西。

04f36b90e38f5a2ed87efabb8b599ed6.png

构建对话式大型语言模型

ChatGPT 通过更大规模的预训练,得到了更多的知识,即 Knowns 范围扩大。

另外,ChatGPT 还关注了伦理问题,通过类似解决 Know Unknowns 的方式,利用人工标注和反馈,拒绝回答一些包含伦理问题的请求。

这里,我们也不得不提国内首个对话式大型语言模型 MOSS,从 2 月 21 日发布至公开平台,便引起高度关注。“对话式大型语言模型 MOSS 大概有 200 亿参数。和传统的语言模型不一样,它也是通过与人类的交互能力进行迭代。”邱锡鹏教授在分享中谈到,MOSS 为何会选择 200 亿参数,原因非常简单,它恰好具备涌现能力,与人对话的成本低。

MOSS 是基于公开的中英文数据训练,通过与人类交互能力进行迭代优化。目前 MOSS 收集了几百万真实人类对话数据,也在进一步迭代优化,也具有多轮交互的能力,所以对于指令的理解能力上,通用的语义理解能力上,和ChatGPT 非常类似,任何话它都能接得住,但它的质量没有 ChatGPT 那么好,原因在于模型比较小,知识量不够。

bc837129479c63ce2fdaa2dca009db86.png

ChatGPT 的局限性

为什么说 ChatGPT 对于学术上来说有一定的重要性,因为它不仅展示了通用人工智能的大框架,更是因为它可以接入多模态信息,增强思考能力、增加输出能力,从而变成更好的通用人工智能底座,可以在学术上带来更多的应用。

相较于 ChatGPT 本身的能力而言,它的局限性相对较少且都比较容易解决。图灵奖得主、人工智能三巨头之一 Yann LeCun 认为 ChatGPT 的缺点有以下几点:

  • 目前形式有限。当前的 ChatGPT 仅局限于文本方向,但如前面所说,可以在上游使用一些多模态模型初步解决这个问题。

  • 并不可控。目前已有不少报道通过各种方式解锁了模型的 Ethic 和部分 Know Unknowns 限制,但这部分可以通过更多的人工标注和对齐解决。

  • 推理能力较差。通过思维链的方式,一定程度上可以增强模型推理能力。

  • 无法与现实世界相接触。这也是目前 ChatGPT 最大的问题之一,作为大型语言模型,它无法实时与外部世界互动,也无法利用如计算器,数据库,搜索引擎等外部工具,导致它的知识也相对落后。

e1762b510c5e302e67ddb5f05b36a7a2.png

而未来它更应该做到提高适时性、即时性、无害等等。

总的来说,如果将 LLM 作为智能体本身,能够与外部交互之后,这些模型的能力一定会有更大的提升。

但我们要始终保证这些 AI 模型的模型可信:有助、无害、诚实。

关于「ChatGPT 及大模型专题研讨会」

「ChatGPT 及大模型专题研讨会」是由中国人工智能学会主办,中国人工智能学会 NLP 专委会、真格、达观数据共同承办,中国信通院云大所支持的一场线上线下研讨会,想看本次研讨会的小伙伴可以移步「CSDN视频号」查看直播回放,也可以点击「阅读原文」查看。

 

43419d9ea874ebbd3e4f75965e00615e.gif

☞史上最强模型 GPT-4 上线:一张手绘草图能生一个网站、60 秒搞定一个游戏开发!
☞谷歌反击战!开放大语言模型 PaLM API,让 AI 帮你“打工”
☞GPT-4 来了,距离 AI 彻底取代程序员还有多远?

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/6830.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【自然语言处理】【ChatGPT系列】ChatGPT的智能来自哪里?

相关博客 【自然语言处理】【大模型】PaLM:基于Pathways的大语言模型 【自然语言处理】【chatGPT系列】大语言模型可以自我改进 【自然语言处理】【ChatGPT系列】WebGPT:基于人类反馈的浏览器辅助问答 【自然语言处理】【ChatGPT系列】FLAN:微…

ChatGPT 类大语言模型为什么会带来“神奇”的涌现能力?

作者 | 张俊林 责编 | 王子彧 出品 | CSDN(ID:CSDNnews) 如今,大语言模型已经彻底改变了自然语言处理 (NLP)的研发现状。众所周知,增加语言模型的规模能够为一系列下游 NLP 任务带来更好的任务效果,当…

抖音seo源码/源代码搭建/源代码部署打包-支持二开

1. 抖音seo源码/源代码搭建/源代码部署打包-支持二开 抖音SEO是指通过提高在抖音平台的关键词排名,来获取流量、获取客户的目的。抖音的流量主要分为付费流量、推荐流量和搜索流量,其中搜索流量因为付费太贵、上热门太累而成为另一种进入方式。与传统搜…

【AI大事件】谷歌AI教父Hinton离职!深探AI风险与挑战,共赴智能科技新征程!

近日,整个科技圈再次惊掉了下巴!深度学习泰斗、神经网络之父、图灵奖得主 Hinton 突然宣布离职谷歌。 Hinton,他可是 AI 的教父啊,而他的学生就是发明了GPT 的首席科学家。 他的这一举动,引发了整个科技行业的关注和讨…

一个人如何做抖音矩阵

随着抖音发展的越来越成熟,不少企业、公司都开始在抖音上发力。但由于人员不够迟迟没有开始布局抖音矩阵,今天小编就来和大家聊一聊一个人怎么做抖音矩阵! 一个人做抖音矩阵其实也非常简单,只需要借助矩阵管理系统即可 很多小伙伴…

好消息,发现一款知网学术不端论文检测查重助手,永久免费分享给大家使用

今天Aliwen要为大家带来一款神器是,知网学术不端论文检测查重助手 v1.5。基本上每个高校都会对学生的毕业论文进行论文查重检测,一方面可以避免论文抄袭,另一方面可以端正同学们的写作态度,让学术氛围更加公正、公平。 点击添加图…

知网查重学术不端文献检测系统查不查公式和图表文字

知网查重学术不端文献检测系统查不查公式和图表文字 记录博文 知网查重学术不端文献检测系统升级到5.3版本 一些说明 查不查公式么? 查。特殊符号转换大多数不出,公式转化率较低,数字可以转化出,文字基本 100 % 转化出。查不查…

免费下论文及查重投稿的10来个方法

目录 免费下载1.超星期刊2.库问搜索3. 全国图书馆参考咨询联盟4.百度学术5.爱学术6.谷歌学术7.OA图书馆8.Idata9.中国国家图书馆10.湖南图书馆——白嫖知网,强烈推荐 免费查重1.百度学术2.超星尔雅3.……待续…… 论文发表 眨眼间就快毕业了,是时候准备写…

20190312 文本查重系统(一)

整体框架部分参照牛客初级项目,python2.7flaskwebmysql; 首先是界面部分(这个部分实在是不大会前端,只能看个简单的效果) 首页:index.html 内容:学生登录和教师登录按钮,text按钮…

Python基于CRNN&CTPN的文本检测系统(源码&教程)

1.背景 文本是人类最伟大和最具影响力的发明之一,是人类智慧的结晶,是人类文化、思想传承的一种基本的表达方式和不可或缺的载体。在21世纪,文本与日常生活密切相关。描述、理解万事万物,表达情感,与他人交流都离不开文本。文本以各种形式存在于生活中,尤其在信息时…

英文论文查重用什么软件比较好?

提起查重,是不是又许多同学已经开始在脑袋大了呀? 确实,我们在进行论文查重的时候既要考虑这个软件靠不靠谱,准不准确,又要考虑哪个软件我们的荷包能够负担的起,还要查询自己选择的软件会不会给我们提供降…

推荐 :数据可视化的方法、工具和应用

1. 数据可视化简介 数据可视化,是指用图形的方式来展现数据,从而更加清晰有效地传递信息,主要方法包括图表类型的选择和图表设计的准则。随着互联网的广泛应用,我们的工作和生活等各个方面,每时每刻都在产生大量的数据…

作为一个数据分析师使用ChatGPT的心得

最近一直在研究chatgpt在数据分析领用的实际使用,有几个比较具体的实际案例是我在处理工作中遇到的,给大家分享一下。 一个是在商业领域,经常性的需要写日报周报月报,但到了3月底 还需要一个季度报,而季度报的数据处理…

22种大数据分析可视化工具

22种大数据分析可视化工具有哪些?数据可视化工具在软件测试领域中扮演着非常重要的角色。 数据可视化包括数据可视表示的设计和分析。 在当今世界,我们正在处理海量数据,其中对数据可视化软件的需求日益突出,以通过图形,趋势&…

数据可视化系列-06数据分析工具QuickBI

文章目录 数据可视化系列-06数据分析工具QuickBI一文介绍QuickBIQuick BI 的基本对象 快速入门Quick BI产品架构界面说明菜单栏 我的看板工作台首页 通过仪表板分析数据 数据可视化系列-06数据分析工具QuickBI 参考: Quick BI 数据可视化分析平台 QuickBI官方文档 …

独家 | 如何利用ChatGPT自动完成6个数据科学领域的任务

作者:Ahmed Besbes 翻译:陈之炎校对:赵茹萱本文约1400字,建议阅读7分钟本文将用一些涉及机器学习和软件工程的编程问题来挑战ChatGPT。 ChatGPT仿佛是Google、StackOverflow和Readthedocs三者的组合体。 图片由James A. Molnar在“…

TradeGraph媲美交易软件的python量化交易K线工具

之前用python做量化交易,需要画k线和各种曲线等,使用了mpl_finance,但体验太差,不支持拖拽而且性能很差,于是就自己写了个k线图工具TradeGraph,性能可媲美专业的股票软件,运行界面如下图&#x…

跌疯了,理性投资人会这样做 附国内外免费股票数据源

大家好,我是宁一。 最近股市真是跌疯了。 有人打算割肉,有人打算补仓,有人直接躺平。 不管什么打算,很多人的操作,都是毫无章法的,凭着自己的个人感受去加仓,减仓。 所有亏钱的决策都是顺应…

完爆基金经理?ChatGPT炒股,一年多回报率超500%

郑雅烁 中国证券报 2023-05-21 02:48 发表于北京 天天财经独家,速关注 近日,美国顶级公立大学佛罗里达大学金融学院公布的一项研究表明,将ChatGPT融合在投资模型中,可以预测股市的走势,其投资回报率甚至高达惊人的500%…

因去年开发出 ChatGPT,OpenAI 亏损 5.4 亿美元!

整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 研发具有创新性的 ChatGPT 究竟给其背后的公司 OpenAI 带来了什么? 据 The information 报道,ChatGPT 的诞生不仅给 OpenAI 带来了前所未有的关注度,吸引了微软“多年…