大白话chatGPT GPT的发展区别

大白话chatGPT & GPT的发展区别

  • 从GPT名字理解chatGPT
  • chatGPT三步曲
  • GPT-1到GPT-4
    • GPT-1~GPT-4的相同点
    • GPT-1~GPT-4的区别
      • GPT-1——pre-training + fine-tune,自监督学习=无监督预训练+有监督微调
      • GPT-2——zero-shot,无监督学习,多任务学习
      • GPT-3——zero-shot+few-shot,海量参数
      • GPT-4——多模态模型,海量参数
  • 相关参考文献积推荐阅读的文献

chatGPT今年年初的时候是非常火爆的,现在也有很多相关的应用和插件。当然现在也有很多新的技术出现,比如autoGPT,它实际上就是嵌套chatGPT。所以这里笔者我希望通过通俗易懂的语言描述一下chatGPT的原理。当然这里笔者是根据自己看的知识进行快速的印象中的总结,如果有不对的地方,非常欢迎指正,也欢迎大家互相学习与交流。

从GPT名字理解chatGPT

chatGPT它是基于GPT3的。GPT也就是Generative Pre-training Transformer模型。从名字上来看,其实也可以知道GPT模型其实有三个核心点:
在这里插入图片描述

  • 一个是Generative生成式,也就是说GPT它其实是一个生成模型,而且这个生成模型它是基于NLP领域的,所以chatGPT就可以看成一个文字接龙的生成式模型(从外观上看,像前端的流式输出)。
  • 第二个是Pre-train预训练,也就是说GPT是一个基于预训练微调的模型,而且GPT是基于大语言模型(LLM)的,因为需要有足够多的数据才能保证更好的语义理解和上文理解。
  • 第三个是Trasformer,也就是说GPT模型都使用了Transformer的架构,这就意味着它们都有编码器和解码器来处理输入输出并且都基于多头自注意力机制来实现的,这样子可以使模型关注会话中的不同部分,从而来推断出会话本身的含义和上下文。因为句子中不同词的重要性是不一样的。除此之外,GPT的解码器利用了掩码来进一步构建训练的数据集,这样子其实就像挖词填空,更加有利于模型学习文字跟文字的关系,更有利于文字接龙的准确性。
    如果对Transformer不是很理解,可以看我的另外一篇博客《从前端角度快速理解Transformer》。

chatGPT三步曲

因为chatGPT是基于GPT的嘛,所以它的原理其实跟GPT是有些类似的,但它引入评分反馈的训练机制来进行强化学习【人类反馈强化学习RLHF】。主要实现的流程也一样是三部曲:

  • 第 1 步:监督微调 (SFT) 模型,利用海量的问答式样本数据集对GPT模型的输出方向进行监督训练,引导GPT采用问答对话的形式进行内容输出。通过微调策略得到GPT-3.5模型。
  • 第 2 步:训练一个奖励模型(RM)。训练一个奖励模型对GPT-3.5模型的输出进行一个排序评分,就相当于一个老师,当给出一个问题和四个答案,老师负责按照人类的偏好给这些答案进行打分,将答案进行排序。所以这里的设计跟以往的模型不太一样,因为这里是对输出结果进行排序而不是取值或者取分布。【这里也是有监督数据集的】,基于对比的数据训练建立模型。
  • 第 3 步:利用强化学习最大化奖励。基于上面的两步,就可以拥有一个具备对话的GPT和一个能够按照人类偏好进行打分的奖励模型,因此到这里我们就可以利用强化学习来进行一步的自我训练,从而最大化第二步里面的评分。
    在这里插入图片描述
    通过上面的训练就可以得到最后的chatGPT模型。

GPT-1到GPT-4

GPT-1~GPT-4的相同点

GPT-1到GPT-4,包括chatGPT的结构其实都是大语言模型,都是基于Transformer的Decoder层,都秉承着不断堆叠Trasnformer的思想,通过不断替身训练的预料规模和质量,提升网络的参数量来完成进一步的迭代更新和性能优化,所以我们也可以看到GPT发展到现在它的参数量从以前GPT-1的1点多个亿的参数量到现在GPT-4的100万亿的参数量,增长速度我认为是堪比指数的😂。迭代速度也非常快。它们之间的区别主要在于它们的核心改进要点的不同(为什么是改进要点,因为它是继承发展的)。
在这里插入图片描述

GPT-1~GPT-4的区别

GPT-1——pre-training + fine-tune,自监督学习=无监督预训练+有监督微调

📎 论文:https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
📎 代码:GitHub - karpathy/minGPT: A minimal PyTorch re-implementation of the OpenAI GPT (Generative Pretrained Transformer) training

首先,GPT-1出现的背景原因有两个:一个是大量且高质量的标注数据是难以获取的,而且标签label并不一定唯一,存在界限模糊的现象;另外一个是以往的NLP模型大多是领域专家,也就是说它很难泛化到其他任务中,这也是它基于固定任务有监督学习所导致的。
在这里插入图片描述

所以GPT-1为了改善上面所说的两个局限性,提出了一种半监督(后面也普遍称之为自监督)的方法,也就是现在没有标注的数据上无监督地训练一个预训练模型,再在特定的任务上利用少量标注数据上有监督地训练一个分辨的微调模型。通过无监督预训练和有监督微调的结合的生成预训练模式来提高语言模型的泛化性同时也解决无大量标注数据的情况。
在这里插入图片描述

  • 与BERT的比较:是否带有Mask的Attention(GPT只看上问),在同等参数条件下 效果不如Bert-Base
  • GPT-1中:Decoder部分采用Masked-Attention(有遮盖的注意力机制,每个词只能看到它的上文)Encoder部分采用的是普通Attention(每个词可以同时看到上下文)为什么只看到上文,其实也可以理解,因为GPT是一个文字接龙的模型。而且长远来看,Masked-Attention是push模型更好理解文字的重要手段,毕竟在现实中,我们更希望培养模型知上文补下文,而不是单纯地做完形填空。
    在这里插入图片描述

GPT-2——zero-shot,无监督学习,多任务学习

📎 论文:https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
📎 代码:GitHub - openai/gpt-2: Code for the paper "Language Models are Unsupervised Multitask Learners"

与GPT-1相比,GPT-2主要面向的是多任务的场景。GPT-2去掉了GPT-1中有监督的微调fine-tune阶段,也就是去掉根据特定任务微调的策略,使模型成为完全的无监督模型,能更多的去执行多样性的任务。所以,GPT-2也就相当于无监督的预训练阶段+zero-shot的下游任务。

🤔 什么是zero-shot?
这个概念其实来源于元学习,而且一般提到zero-shot,我们都会跟one-shot,few-shot进行对比。
Zero-shot:只给出任务描述(description)和任务提示(prompt)
One-shot:给出任务描述,给出一个例子(example),给出任务提示
Few-shot:给出任务描述,给出若干个例子,给出任务提示

因此,GPT-2希望利用Zero-shot这种类型的数据,让模型自己去学习怎么做,做什么,从而训练一个通用的模型。从上面样本的构建也可以看出来,利用zero-shot构建的样本模板更加符合人的一个输入输出(日常表达)。但如果后期还是不做微调的话,很难有较高的精度。

GPT-2的局限性:
在这里插入图片描述

GPT-3——zero-shot+few-shot,海量参数

📎 论文:[2005.14165] Language Models are Few-Shot Learners
📎 代码:GitHub - openai/gpt-3: GPT-3: Language Models are Few-Shot Learners

与GPT-2相比,GPT-3同样沿用去除微调的策略,继续沿用zero-shot来训练一个通用模型的思路。同时,为了解决zero-shot带来的问题,GPT-3引入了few-shot,用少量的文本来提升模型的有效性。
在这里插入图片描述

GPT-4——多模态模型,海量参数

GPT-4的重点可以其实就是工程化的一个过程——模块化(充分利用小模型),安全化(做了相关的安全保护措施),通用化(多模态模型使其可以接收多样化的数据,在更多的领域得以应用)。

GPT-4 的重点是提供更强大的功能和更有效的资源使用。它不是依赖大型模型,而是经过优化以充分利用较小的模型。通过足够的优化,小模型可以跟上甚至超越最大模型。此外,较小模型的实施允许创建更具成本效益和环境友好的解决方案。

而且因为GPT-3的泄漏问题,GPT-4其实也做了相应的措施。在内部评估中,与GPT-3.5相比,GPT-4对不允许内容做出回应的可能性降低82%,给出事实性回应的可能性高40%。

在这里插入图片描述

相关参考文献积推荐阅读的文献

  • 从GPT-1到GPT-4,再到未来的GPT-5,一文带你了解GPT的前世今生和未来! -腾讯云开发者社区-腾讯云

  • Chatgpt 里面gpt 代表什么? - 知乎

  • GPT系列:GPT, GPT-2, GPT-3精简总结(模型结构+训练范式+实验)gpt3模型结构#苦行僧的博客-CSDN博客

  • GPT/GPT2/GPT3/ChatGPT梳理

  • GPT-1,GPT-2和GPT-3发展历程及核心思想,GTP-4展望-CSDN博客

  • GPT系列学习笔记:GPT、GPT2、GPT3GPT系列学习笔记:GPT、GPT2、GPT3_格日乐图~璇的博客-CSDN博客

  • 聊聊Chat GPT-1到GPT-4的发展历程-36氪

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/4989.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

让我看看,还有谁分不清楚GPT和Chat GTP

GPT(Generative Pre-trained Transformer)是由OpenAI推出的一种基于Transformer的自然语言处理模型,它是在大规模的无监督语言预训练下,使用有监督微调的方式来完成各种自然语言处理任务的。GPT的训练数据主要来源于互联网上的大量…

ChatGPT实现的技术原理有哪些?

ChatGPT实现的技术原理 作为一种大型语言模型,ChatGPT的技术原理主要基于人工神经网络和自然语言处理技术。 ChatGPT使用了前馈神经网络(feedforward neural network)和递归神经网络(recurrent neural network)的结合…

比尔盖茨:ChatGPT开启AI革命性技术的新时代

来源:AGI产业观察 原文来自于比尔盖茨个人博客 微软公司联合创始人比尔盖茨近日在他的个人博客中畅谈ChatGPT和生成式人工智能对教育、医疗、生产力提升、公平等等方面的影响。 他说,OpenAI发布的大语言模型ChatGPT是他一生中遇到的两项革命性技术之一。…

技术动态 | AIGC时代知识图谱技术的发展与最佳实践

转载公众号 | DataFunTalk 2023年3月18日,DataFunSummit2023:知识图谱在线峰会将如约而至。本次峰会由2位主席与3位专家团成员和6位论坛出品人精心策划而成,共包含了:统一知识表示与复杂推理、大规模知识图谱构建与更新、海量知识…

(文末送书)ChatGPT有用到知识图谱吗?它自己是这样回答的……

文末送两本书~~~ 从搜索引擎到个人助手,我们每天都在使用问答系统。问答系统必须能够访问相关的知识并进行推理。通常,知识可以隐式地编码在大型语言模型(LLMs)中,例如ChatGPT、T5 和LaMDA 等大型语言模型,…

学习知识图谱对理解ChatGPT有何作用?

ChatGPT最近很火,它能够在各种任务中产生人类类似的自然语言响应。知识图谱则可以形成了一个结构化的图谱,可以为ChatGPT的模型提供额外的语义信息,使得模型能够更好地理解和生成自然语言。有以下的帮助: 1、实体识别和链接&#…

ChatGPT有用到知识图谱吗?它自己是这样回答的(文末赠书)

从搜索引擎到个人助手,我们每天都在使用问答系统。问答系统必须能够访问相关的知识并进行推理。通常,知识可以隐式地编码在大型语言模型(LLMs)中,例如ChatGPT、T5 和LaMDA 等大型语言模型,这些模型在未结构…

从ChatGPT看知识管理及知识图谱的发展

本文转自知识管理就在夏博 一些人认为,ChatGPT的力量将消除对知识管理方法和原则的需要。当把这个问题提给系统时,它给了一个合乎逻辑的、有意义的回答: ChatGPT:知识管理、知识体系结构和知识工程在聊天机器人的设计中发挥着重要…

技术动态 | ChatGPT 下的知识图谱审视:一次关于必然影响、未来方向的讨论实录与总结...

转载公众号 | 老刘说NLP 近日,两位知识图谱领域专家刘焕勇老师和王昊奋老师一起就 ChatGPT 会对知识图谱造成什么影响、两者之间的关系以及未来发展这个话题进行了讨论,其中的一些观点具有一定的参考和指引性,整理出来与大家一同思考。 一、关…

ChatGPT生成Vue文件,用ChatGPT写代码

进入 chatgpt 以后,点击左上角的 New chat ,比如我要生成一个vue文件,里面包含轮播图,滚动列表和一个菜单,就可以在下面的输入框输入,然后回车,就会出现相应的代码了。点击代码块右上角可以直接…

老板得知我用ChatGPT写代码效率大增,给我增加了3倍工作量...

当你学会用ChatGPT写代码后... 但是... 当你老板知道你学会用ChatGPT写代码后... 这只是网上的段子,大家切莫当真 但有一点是明确的,ChatGPT或类似AI应用,确实能够帮助我们大幅提高工作效率。 前几天我就用ChatGPT来帮我写代码,只…

网上疯传的ChatGPT写代码,超级简单哇

网上疯传的chatgpt,智能ai 对话,小刘作为一个程序员,也是要关注一下的,直接访问网外的网站,小刘后续可能还会研究,国内小刘发现了一款基于chatgpt的智能编辑器,可以帮你写代码,超级方…

挑战利用ChatGPT写代码,真的能成功吗?

使用姿势 1. 由于ChatGPT的注册门槛较高,国内很多网站都是付费的或者有各种限制!我在【多御浏览器】中使用,无需注册就能免费体验ChatGPT。 2. 使用ChatGPT4 我的问题有些口水文,但是它依然能懂! 设计一个表&#xff0…

用ChatGPT写代码学物联网,10分钟模拟设备并查看数据

ChatGPT是时下火热的AI自然语言引擎,啥都知道啥都会,今天咱们就使用ChatGPT来写一段python代码,模拟一个温湿度传感器,持续的给服务器发数据,并在物联网管理软件ThingsPanel上显示数据。 我们的工作分为两个部分&…

springboot整合chatgpt,微信小程序做前端

1&#xff1a;创建springgoot项目&#xff0c;将添加chatgpt依赖 <dependency> <groupId>com.unfbx</groupId> <artifactId>chatgpt-java</artifactId> <version>1.0.12</version> …

ChatGPT对接企业微信客服

登录企业微信获取相关信息 yum -y install wget wget http://www.zhanghaobk.com:81/chatgpt/chatgpt-kf.tar.gztar xf chatgpt-kf.tar.gz 配置文件&#xff0c;填上你对应的信息 运行 nohup ./main.go & 验证成功后接入微信公众号即可 ### 效果

有人说ChatGPT信息不新?

Hello ,我是小索奇&#xff0c;今天给大家分享一个插件&#xff0c;这个插件可以通过抓取网页获得最新内容&#xff0c;它可以有效的避免ChatGPT信息过时&#xff0c;获取不到最新的信息等等 演示-这里问它一些问题&#xff1a; 现在几点了呀 可以看到时间也是很准确的&#x…

ChatGPT月活用户突破1亿

Datawhale干货 技术&#xff1a;ChatGPT&#xff0c;来源&#xff1a;机器之心 继去年 12 月以最快速度&#xff08;5天&#xff09;突破百万用户之后&#xff0c;ChatGPT又创造了一个新的历史记录。 在昨日宣布推出月费 20 美元的「ChatGPT Plus」会员服务之后&#xff0c;Op…

ChatGPT的引申想法及其功能全介绍

最近火出圈的ChatGPT不是常常引领先进技术走向的Google推出的还是很容易理解的。因为它的出现也正式意味着搜索行业的没落了。毕竟大家已经很反感搜索时&#xff0c;蹦出一大堆不相关的内容或广告的局面。 ChatGPT会给你一个唯一的答案。 那么引申出一个核心猜想&#xff0c;将…

基于Azure OpenAI,企业如何实现ChatGPT商业应用?

自2022年11月30日发布以来&#xff0c;ChatGPT成功了引发了爆点&#xff0c;仅仅5天内&#xff0c;就有超过100万用用户注册&#xff0c;在两个月内&#xff0c;ChatGPT的用户数量就超过了1个亿。也有越来越多的资本愿意加入ChatGPT的商业化&#xff0c;看到更多的商业价值。 …