ChatGPT研究(二)——ChatGPT助力跨模态AI生成应用

✏️写作:个人博客,InfoQ,掘金,知乎,CSDN

📧公众号:进击的Matrix

🚫特别声明:创作不易,未经授权不得转载或抄袭,如需转载可联系小编授权。

前言

最近ChatGPT,想必大家已经是耳熟能详了,一度认为ChatGPT的到来是人工智能的奇点到来,那么到底ChatGPT是什么?为什么ChatGPT为代表的人工智能技术不仅受到平民用户的喜爱,还受到资本市场追捧呢?

上篇文章《ChatGPT研究(一)——AI平民化的里程碑》中初步讲解了ChatGPT的发展里程碑和各大科技公司的AI投入,本篇文章将会更多的从技术角度,解读ChatGPT的AI发展和应用。本公众号计划出三期,多维度研究分析ChatGPT,敬请期待😘。

基于人类反馈系统,ChatGPT助力跨模态AI生成应用

ChatGPT经历多类技术路线演化,逐步成熟与完善

  • ChatGPT所能实现的人类意图,来自于机器学习,神经网络以及Transformer模型的多种技术模型积累

ChatGPT经过多类技术积累,最终形成针对人类反馈信息学习的大规模预训练语言模型

ChatGPT模型在以往的基础上有了多方面的显著提升

Transformer的应用标志着基础模型时代的开始

  • 转移学习(Transfer Learning)使基础模型成为可能

✔️ 技术层面上,基础模型通过转移学习(Transfer Learning)(Thrun 1998)和规模(scale)得以实现。转移学习的思想是将从一项任务中学习到的“知识”(例如,图像中的对象识别)应用于另一
项任务(例如:视频中的活动识别)。

✔️ 在深度学习中,预训练又是转移学习的主要方法:在替代任务上训练模型(通常只是达到目的的一种手段),然后通过微调来适应感兴趣的下游任务,转移学习(Transfer Learning)使基础模
型成为可能。

  • 大规模化(scale)使基础模型更强大,因而GPT模型得以形成

✔️ 大规模需要三个要素:

  1. 计算机硬件的改进——例如,CPU吞吐量和内存在过去四年中增加了10倍;
  2. Transformer模型架构的开发(Vaswani et al.2017),该架构利用硬件的并行性来训练比以前更具表现力的模型;
  3. 更多训练数据的可用性

✔️ 基于Transformer的序列建模方法现在应用于文本、图像、语音、表格数据、蛋白质序列、有机分子和强化学习等,这些例子的逐步形成使得使用一套统一的工具来开发各种模态的基础模
**型这种理念得以成熟。**例如,GPT-3( Brown et al. 2020 )与GPT-2的15亿参数相比, GPT-3具有1750亿个参数,允许上下文学习,在上下文学习中,只需向下游任务提供提示(任务的自然
语言描述),语言模型就可以适应下 游任务,这是产生的一种新兴属性

Trasnsformer奠定了生成式AI领域的游戏规则

  • Transformer摆脱了人工标注数据集的缺陷,模型在质量上更优、 更易于并行化,所需训练时间明显更少
  • Transformer通过成功地将其应用于具有大量和有限训练数据的分析,可以很好的推广到其他任务。

✔️ 2017年在Ashish Vaswani et.al 的论文《Attention Is All You Need》 中,考虑到主导序列转导模型基于编码器-解码器配置中的复杂递归或卷积 神经网络,性能最好的模型被证明还是
通过注意力机制(attention mechanism)连接编码器和解码器,因而《Attention Is All You Need》 中提出了一种新的简单架构——Transformer,它完全基于注意力机制, 完全不用重复和
卷积,因而这些模型在质量上更优,同时更易于并行化,并且需要的训练时间明显更少

✔️ Transformer出现以后,迅速取代了RNN系列变种,跻身主流模型架构基础。(RNN缺陷正在于流水线式的顺序计算)

Transformer模型架构如下所示

GPT-1:借助预训练,进行无监督训练和有监督微调

  • GPT-1模型基于Transformer解除了顺序关联和依赖性的前提,采用生成式模型方式,重点考虑了从原始文本中有效学习的能力,这对于减轻自然语言处理(NLP)中对监督学习的依赖至关重要

✔️ GPT(Generative Pre-training Transformer)于2018年6月由OpenAI首次提出。GPT模型考虑到在自然语言理解中有大量不同的任务,尽管大量的未标记文本语料库非常丰富,但用于学
习这些特定任务的标记数据却很少,这使得经过区分训练的模型很难充分执行。同时,大多数深度学习方法需要大量手动标记的数据,这限制了它们在许多缺少注释资源的领域的适用性。

✔️ 在考虑以上局限性的前提下,GPT论文中证明,通过对未标记文本的不同语料库进行语言模型的生成性预训练,然后对每个特定任务 进行区分性微调,可以实现这些任务上的巨大收益
和之前方法不同,GPT在微调期间使用任务感知输入转换,以实现有效的传输,同时对模型架构的更改最小。

GPT-1模型的核心手段是预训练(Pre-training)

GPT-1:模型更简化、计算加速,更适合自然语言生成任务(NLG)

  • GPT相比于Transformer等模型进行了显著简化

✔️ 相比于Transformer,GPT训练了一个12层仅decoder的编解码器(原Transformer模型中包含Encoder和Decoder两部分)

✔️ 相比于Google的BERT(Bidirectional Encoder Representations from Transformers,双向编码生成Transformer),GPT仅采用上文预测单词(BERT采用了基于上下文双向的预
测手段)

注:ChatGPT的表现更贴近人类意图,部分因为一开始GPT是基于上文的预测,这更贴近人类的话语模式,因为人类语言无法基于将来的话来做分析。

GPT-1模型相比于Transformer模型有了显著简化

GPT-2:采用多任务系统,基于CPT-1进行优化

  • GPT-2在GPT-1的基础上进行诸多改进,实现执行任务多样性,开始学习在不需要明确监督的情况下执行数量惊人的任务

✔️ 在GPT-2阶段,OpenAI去掉了GPT-1阶段的有监督微调(fine-tuning),成为无监督模型

✔️ 大模型GPT-2是1.5B参数的Transformer,在其相关论文中它在8个测试语言建模数据集中的7个数据集上实现了当时最先进的结果。 模型中,Transfomer堆叠至48层。GPT-2的数据集
增加到8 million的网页、大小40GB的文本。

GPT-2通过调整原模型和采用多任务方式来让AI更贴近“通才” 水平

GPT-2仍未解决应用中的诸多瓶颈

  • GPT-2聚焦在无监督、zero-shot(零次学习)上,然而GPT-2训练结果也有不达预期之处,所存在的问题也亟待优化。

✔️ 在GPT-2阶段,尽管体系结构是任务无关的,但仍然需要任务特定的数据集和任务特定的微调:要在所需任务上实现强大的性能,通常需要对特定于该任务的数千到数十万个示例的数据集
进行微调。

GPT-2尚未解决诸多瓶颈问题

GPT-3取得突破性进展,任务结果难以与人类作品区分开来

  • GPT-3对GPT-2追求无监督与零次学习的特征进行了改进
  • GPT-3利用了过滤前45TB的压缩文本,在诸多NLP数据集中实现了强大性能

✔️ GPT-3是一个具有1750亿个参数的自回归语言模型,比之前的任何非稀疏语言模型多10倍。对于所有任务(在few-shot设置下测试其性能),GPT-3都是在没有任何梯度更新或微调的情况
下应用的,仅通过与模型的文本交互来指定任务和few-shot演示。

✔️ GPT-3在许多NLP数据集上都有很强的性能(包括翻译、问题解答和完形填空任务),以及一些需要动态推理或领域适应的任务(如解译单词、在句子中使用一个新单词或执行三位数算术)。
GPT-3可以生成新闻文章样本(已很难将其与人类撰写的文章区分开来)。

GPT-3的模型参数在GPT-2的基础上增加110多倍

GPT-3相关研究显示,few-shot(少量样本)的综合表 现是在无监督模式下最优的

InstructGPT模型在GPT-3基础上进一步强化

  • InstructGPT使用来自人类反馈的强化学习方案RLHF(reinforcement learning from human feedback), 通过对大语言模型进行微调,从而能够在参数减少的情况下,实现优于GPT-3的功能。

✔️ InstructGPT提出的背景:使语言模型更大并不意味着它们能够更好地遵循用户的意图,例如大型语言模型可以生成不真实、有毒或对 用户毫无帮助的输出,即这些模型与其用户不一致。另外,GPT-3虽然选择了少样本学习(few-shot)和继续坚持了GPT-2的无监督学习,但基于few-shot的效果,其稍逊于监督微调(fine-tuning)的方式

✔️ 基于以上背景,OpenAI在GPT-3基础上根据人类反馈的强化学习方案RHLF,训练出奖励模型(reward model)去训练学习模型(即:用AI训练AI的思路)

✔️ InstructGPT的训练步骤为:**对GPT-3监督微调——训练奖励模型(rewardmodel)——增强学习优化SFT(第二、第三步可以迭代循环多次) **

InstructGPT训练三步骤各自对应的数据集规模如下图所示(labeler指的是OpenAI的标注人员, customer指GPT-3 API的用户)

ChatGPT核心技术优势:提升了理解人类思维的准确性

  • InstructGPT与ChatGPT属于相同代际的模型,ChatGPT只是在InstructGPT的基础上增加了Chat属性,且开放了公众测试
  • ChatGPT提升了理解人类思维的准确性的原因在于利用了基于人类反馈数据的系统进行了模型训练

注:根据 官网介绍,ChatGPT也是基于InstructGPT构建,因而可以从InstructGPT来理解CharGPT利用人类意图来增强模型效果

基于人类反馈强化的核心训练流程如下所示

ChatGPT得益于通用(基础)模型所构建AI系统的新范式

  • 基础模型(Foundation Model)在广泛的应用中整合构建机器学习系统的方法,它为许多任务提供了强大的杠杆作用

✔️ 基础模型是在深度神经网络和自我监督学习的基础上演化而来。基础模型基于广泛数据(通常使用大规模自我监督) 训练的任何模型,可以适应(例如微调)广泛的下游任务,目前例子包扩
BERT( Devlin et al.)、GPT-3(Brown et al. 2020)和CLIP(Radford et al. 2021) 。

✔️ 机器学习使用学习算法同质化(例如,逻辑回归),深度学习使模型架构同质化(如卷积神经网络),而基础模型使模型本身同质化(比如,GPT-3)

人工智能的发展呈现同质化的过程

ChatGPT以基础模型为杠杆,可适用多类下游任务

  • ChatGPT采用了GPT3.5(InstructGPT)大规模预训练模型,在自然语言理解和作品生成上取得极大性能提升

✔️ 鉴于传统NLP技术的局限问题,基于大语言模型(LLM)有助于充分利 用海量无标注文本预训练,从而文本大模型在较小的数据集和零数据集 场景下可以有较好的理解和生成能力。基于大模型
无标准文本书收集,ChatGPT得以在情感分析、信息钻取、理解阅读等文本场景中优势突出

✔️ 随着训练模型数据量的增加,数据种类逐步丰富,模型规模以及参数量 的增加,会进一步促进模型语义理解能力以及抽象学习能力的极大提升, 实现ChatGPT的数据飞轮效应(用更多数据可
以训练出更好的模型, 吸引更多用户,从而产生更多用户数据用于训练,形成良性循环)

✔️ 研究发现,每增加参数都带来了文本合成和/或下游NLP任务的改进, 有证据表明,日志丢失与许多下游任务密切相关,随着规模的增长,日志丢失呈现平稳的改善趋势。

基础模型可以集中来自各种模态的所有数据的信息, 然后这一模型可以适用于广泛的下游任务

ChatGPT大模型架构也是ML发展到第三阶段的必然产物

  • ML中的计算历史分为三个时代:前深度学习时代、深度学习时代和大规模时代,在大规模时代,训练高级ML系统的需求快速增长

✔️ 计算、数据和算法的进步是指导现代机器学习(ML)进步的三个基本因素。在2010年之前,训练计算的增长符合摩尔定律,大约每20个 月翻一番。自2010年代早期深度学习(Deep Learning)问
世以来,训练计算的规模已经加快,大约每6个月翻一番。2015年末,随着公 司开发大规模ML模型,训练计算需求增加10至100倍,出现了一种新趋势——训练高级ML系统的需求快速增长

✔️ 2015-2016年左右,出现了大规模模型的新趋势。这一新趋势始于2015年末的AlphaGo,并持续至今( GPT-3于2020年出现)

ML相关计算规模呈现持续快速攀升趋势

2010年至2022年间102个里程碑ML系统的训练计算趋势如所示

本文正在参加 ✍🏻 技术视角深入 ChatGPT 征文活动


最后欢迎大家点赞、收藏、评论,转发!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/9191.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

《花雕学AI》12:从ChatGPT的出现看人类与人工智能的互补关系与未来发展

马云说道,ChatGPT这一类技术已经对教育带来挑战,但是ChatGPT这一类技术只是AI时代的开始。 谷歌CEO桑德尔皮猜曾说:“人工智能是我们人类正在从事的最为深刻的研究方向之一,甚至要比火与电还更加深刻。” 360周鸿祎认为&#xf…

论文谷歌翻译:SinGAN(代码开源)

论文地址:https://arxiv.org/abs/1905.01164 代码地址:http://webee.technion.ac.il/people/tomermic/SinGAN/SinGAN.htm 摘要 提出了 SinGAN,这是一个可以从单张自然图像学习的非条件性生成式模型。模型可以捕捉给定图像中各个小块内的内在…

最好最常用的国外邮箱推荐!注册非常简单!

大家都知道,接送和发送电子邮件是我们日常不可避免的,不管是个人也好,企业也好,都需要邮箱来处理一些东西。 当然现在的通讯比较发达,打电话、短信、QQ或者微信都可以进行交流沟通,也可以发送些简单的文件…

编译器技术的演进与变革

在过去的数十年里,摩尔定律一直支配着半导体行业的发展路线,随着晶体管尺寸的不断变小单个芯片上集成的晶体管数量越来越多。 最新的 NVIDIA A100 GPU 单个芯片集成了 540 亿个晶体管,而嵌入式系统级芯片(System on Chip&#xff…

2023年美赛A题赛后总结

文章目录 心路历程1. 选题2. 初次建模3. 数据收集4. 二次建模5. 算法实现以及优化6.全英论文撰写 总结 心路历程 2023年美赛是在2月17号早上6点到2月21号早上8点这期间举行的,美赛开赛前一天我们三个人还在考期末考,甚至美赛刚开始前两天有位队友每天还…

概率统计极简入门:通俗理解微积分/期望方差/正态分布前世今生(23修订版)

原标题:数据挖掘中所需的概率论与数理统计知识(12年首次发布,23年重编公式且反复改进) 修订背景 本文初稿发布于12年年底,十年后的22年底/23年初ChatGPT大火,在写ChatGPT通俗笔记的过程中,发现ChatGPT背后技术涉及到了…

ChatGPT 插件(八个插件,个个优秀)

webpilot——联网搜索图片、视频、文档、人脉等 1. 有哪些免费的高清无版权的图片网站,请从这些网站里找一些图片给我,图片搜索关键词为:Shanghai aerial,把图片的url链接发我; 2. 有哪些免费的GIF图片网站,请从这些网…

从ChatGPT看AI未来趋势和挑战 | 万字长文

ChatGPT 持续成为大家关注的焦点,开启通用人工智能(AGI)之门。北京交通大学桑基韬教授和于剑教授撰写的《从ChatGPT看AI未来趋势和挑战》,详述了ChatGPT 的“能”与“不能”,AI中什么是“真”以及AI的未来趋势,非常值得关注&#…

高等数学(第七版)同济大学 习题1-1 个人解答

高等数学(第七版)同济大学 习题1-1 函数作图软件:Mathematica 部分图片采用ChatGPT生成 1. 求下列函数的自然定义域 \begin{aligned}&1. 求下列函数的自然定义域&&&&&&&&&&&&&&am…

大佬太快了 !这本ChatGPT、AI绘画的书籍免费赠送给大家 !

a15a 著,贾雪丽,0xAres,张炯 编 电子工业出版社-博文视点 2023-04-01 ISBN: 9787121353932 定价: 79.00 元 新书推荐 🌟今日福利 |关于本书| 《一本书读懂AIGC:ChatGPT、AI绘画、智能文明与生产…

ChatGPT生成 SD 和 Midjourney 的提示(prompt)

探索Midjourney之旅,学习绘画与AI,一同成长。加入「阿杰与AI」公众号,参与内容社群建设。 1.Midjourney 新手快速起步指南2.Prompts-提示指令3.Explore Prompting-提示指令的探索4.Blend-叠加5.Midjourney Discord的使用手册6.Versions-版本…

人工智能前沿——6款AI绘画生成工具

>>>深度学习Tricks&#xff0c;第一时间送达<<< 目录 一、【前言】 二、【6款AI绘画生成工具】 1.DeepAI 2.NightCafe 3.Deep Dream Generator 4.StarryAI 5.Fotor 6.Pixso 一、【前言】 AI不仅影响商业和医疗保健等行业&#xff0c;还在创意产业中…

AI绘画工具+ChatGPT,新时代的倚天剑屠龙刀

当下&#xff0c;人工智能正对各个领域产生深远影响。其中&#xff0c;AI绘画工具和ChatGPT影响更为广泛。 AI绘画工具可以根据文本描述自动生成图像&#xff0c;属于计算机视觉和生成模型的结合。譬如&#xff0c;输入“一只白色的鸟&#xff0c;站在枯枝上&#xff0c;背景是…

使用ChatGPT为Stable Diffusion生成画面的关键词

在使用SD进行绘图的时候常常苦于某个换面想不到关键词,可以通过ChatGPT模板批量生成关键词。 先来看下演示效果。 案例结果 这个例子是根据古诗《陋室铭》编写的关键词描述。 仿照例子,并不局限于我给你的单词,给出一套详细描述“山不在高,有仙则名。”的prompt,注意…

如何让ChatGPT生成Midjourney提示词

​关注文章下方公众号&#xff0c;即可免费获取AIGC最新学习资料 导读&#xff1a;最近AI绘画非常的火&#xff0c;今天我们看ChatGPT如何生成Midjourney提示词&#xff0c;让AI教AI做事。 本文字数&#xff1a;900&#xff0c;阅读时长大约&#xff1a;3分钟 正如 Midjourney…

ChatGPT 为 Midjourney 或 DALL-E 等 AI 艺术生成提示

人工智能为创意产业开辟了一个充满可能性的全新世界。人工智能最令人兴奋的应用之一是生成独特的原创艺术作品。Midjourney 和 DALL-E 是人工智能生成艺术的两个突出例子&#xff0c;它们已经引起了艺术家和艺术爱好者的关注。在本文中&#xff0c;将探索如何使用 ChatGPT 为 A…

【文献阅读】“ChatGPT: Jack of all trades, master of none”

【文献阅读】“ChatGPT: Jack of all trades, master of none” 摘要背景问题任务介绍研究方法ChatGPT对话示例衡量指标 量化分析ChatGPT “博而不精”任务难易程度与ChatGPT 的表现随机上下文小样本个性化对话上下文对生成结果的影响是否用测试数据集来微调对性能表现的影响 质…

QQ邮箱验证码登录(移动端邮箱验证登录)

获取邮箱授权码 登录邮箱------->点击设置------->点击账户&#xff0c;下拉------->找到POP3/IMAP/SMTP/Exchange/CardDAV/CalDAV服务------->按照步骤开启POP3/SMTP服务 ------->获取授权码 2.在pom.xml中添加依赖&#xff1a; <!--mail--><depend…

关于学校edu邮箱登录第三方邮件客户端(例如Outlook、Foxmail、QQ邮箱、邮件App等)的注意事项

求实习&#xff0c;找工作的时候用了学校的邮箱&#xff0c;但发现收件不方便查看&#xff0c;很容易错过重要信息&#xff0c;所以需要添加到第三方手机客户端中。以iphone12自带的邮件app为例&#xff1a; 第一步 iphone打开设置——邮件——账户——添加账户——其他——添…

outlook登录QQ邮箱

前期准备 QQ邮箱 软件:outlook 步骤 1.打开网页版QQ邮箱:登录QQ邮箱 2.登录 3.打开设置 4.点击账户 5.点击管理服务 6.发送短信 7.生成授权码 8.复制授权码 9.打开outlook,点击文件 10.添加账户,输入复制的授权码, 注意,这里一定是复制的授权码,不是QQ密码!!! 注意,这里…