GPT 模型简史:从 GPT-1 到 GPT-4

文章目录

    • GPT-1
    • GPT-2
    • GPT-3
    • 从 GPT-3 到 InstructGPT
    • GPT-3.5、Codex 和 ChatGPT
    • GPT-4

GPT-1

    2018 年年中,就在 Transformer 架构诞生⼀年后,OpenAI 发表了⼀篇题 为“Improving Language Understanding by Generative Pre-Training”的论文,作者是 Alec Radford 等⼈。这篇论文介绍了 GPT,也被称为 GPT-1。在 GPT-1 出现之前,构建高性能 NLP 神经网络的常用方法是利用监督学习。这种学习技术使用大量的手动标记数据。以情感分析任务为例,目标是对给定的文本进行分类,判断其情感是积极的还是消极的。⼀种常见的策略是收集数千个手动标记的文本示例来构建有效的分类模型。然而,这需要有大量标记良好的监督数据。这⼀需求限制了监督学习的性能,因为要生成这样的数据集,难度很大且成本高昂。接下来回顾 OpenAI 的 GPT 模型从 GPT-1 到 GPT-4 的演变历程。

    在论文中,GPT-1 的作者提出了⼀种新的学习过程,其中引入了无监督的预训练步骤。这个预训练步骤不需要标记数据。相反,他们训练模型来预测下⼀个标记。由于采用了可以并行化的 Transformer 架构,预训练步骤是在大量数据上进行的。对于预训练,GPT-1 模型使用了 BookCorpus 数据集。该数据集包含约 11 000 本未出版图书的文本。BookCorpus 最初由 YukunZhu 等⼈在 2015 年的论文“Aligning Books and Movies: Towards Story-likeVisual Explanations by Watching Movies and Reading Books”中给出,并通过多伦多大学的网页提供。然而,原始数据集的正式版本如今已不能公开访问。

    GPT-4 和 ChatGPT 基于⼀种特定的神经网络架构,即 Transformer。Transformer 就像阅读机⼀样,它关注句子或段落的不同部分,以理解其上下文并产生连贯的回答。此外,它还可以理解句子中的单词顺序和上下文意思。这使 Transformer 在语言翻译、问题回答和文本生成等任务中非常有效。

    ⼈们发现,GPT-1 在各种基本的文本补全任务中是有效的。在无监督学习阶段,该模型学习 BookCorpus 数据集并预测文本中的下⼀个词。然而,GPT-1 是小模型,它无法在不经过微调的情况下执行复杂任务。因此,人们将微调作为第⼆个监督学习步骤,让模型在⼀小部分手动标记的数据上进行微调,从而适应特定的目标任务。比如,在情感分析等分类任务中,可能需要在一小部分手动标记的⽂本示例上重新训练模型,以使其达到不错的准确度。这个过程使模型在初始的预训练阶段习得的参数得到修改,从而更好地适应具体的任务。

    尽管规模相对较小,但 GPT-1 在仅用少量手动标记的数据进行微调后,能够出色地完成多个 NLP 任务。GPT-1 的架构包括⼀个解码器(与原始 Transformer 架构中的解码器类似),具有 1.17 亿个参数。作为首个 GPT 模型,它为更强大的模型铺平了道路。后续的 GPT 模型使用更大的数据集和更多的参数,更好地利用了 Transformer 架构的潜力。

GPT-2

    2019 年初,OpenAI 提出了 GPT-2。这是 GPT-1 的⼀个扩展版本,其参数量和训练数据集的规模大约是 GPT-1 的 10 倍。这个新版本的参数量为 15亿,训练文本为 40 GB。2019 年 11 月,OpenAI 发布了完整版的 GPT-2 模型。GPT-2 是公开可用的,可以从 Hugging Face 或 GitHub 下载。GPT-2 表明,使用更大的数据集训练更大的语言模型可以提高语言模型的任务处理能力,并使其在许多任务中超越已有模型。它还表明,更大的语言模型能够更好地处理自然语⾔。

GPT-3

    2020 年 6 月,OpenAI 发布了 GPT-3。GPT-2 和 GPT-3 之间的主要区别在于模型的大小和用于训练的数据量。GPT-3 比 GPT-2 大得多,它有 1750 亿个参数,这使其能够捕捉更复杂的模式。此外,GPT-3 是在更广泛的数据集上进行训练的。这包括 Common Crawl(它就像互联网档案馆,其中包含来自数十亿个网页的文本)和维基百科。这个训练数据集包括来自网站、书籍和文章的内容,使得 GPT-3 能够更深入地理解语言和上下文。因此,GPT-3在各种语言相关任务中都展示出更强的性能。此外,它在文本生成方面还展示出更强的连贯性和创造力。它甚至能够编写代码片段,如 SQL 查询,并执行其他智能任务。此外,GPT-3 取消了微调步骤,而这在之前的 GPT模型中是必需的。

    然而,GPT-3 存在⼀个问题,即最终用户提供的任务与模型在训练过程中所见到的任务不⼀致。我们已经知道,语言模型根据输入文本的上下文来预测下⼀个标记。这个训练过程不⼀定与最终用户希望模型执行的任务⼀致。此外,增大语言模型的规模并不能从根本上使其更好地遵循用户的意图或指令。像 GPT-3 这样的模型是在互联网数据上进行训练的。尽管数据源经过⼀定的筛选,但用于训练模型的数据仍然可能包含虚假信息或有问题的文本,比如涉及种族歧视、性别歧视等。因此,模型有时可能说错话,甚至说出有害的话。2021 年,OpenAI 发布了 GPT-3 模型的新版本,并取名为 InstructGPT。与原始的 GPT-3 基础模型不同,InstructGPT 模型通过强化学习和⼈类反馈进行优化。这意味着 InstructGPT 模型利用反馈来学习和不断改进。这使得模型能够从人类指令中学习,同时使其真实性更大、伤害性更小。

    为了说明区别,我们输⼊以下提示词:“解释什么是时间复杂度。”两个模型给出的回答如下所述。

  • 标准的 GPT-3 模型给出的回答是:“解释什么是空间复杂度。解释什么是大 O 记法。”
  • InstructGPT 模型给出的回答是:“时间复杂度用于衡量算法运行和完成任务所需的时间,通常采用大 O 记法表示。它以操作次数来衡量算法的复杂度。算法的时间复杂度至关重要,因为它决定了算法的效率和对更大输入的扩展能力。”

    我们可以看到,对于相同的输入,第⼀个模型无法回答问题(它给出的回答甚至很奇怪),而第⼆个模型可以回答问题。当然,使用标准的 GPT-3模型也能够得到所需的回答,但需要应用特定的提示词设计和优化技术。这种技术被称为提示工程(prompt engineering)。

从 GPT-3 到 InstructGPT

    在题为“Training Language Models to Follow Instructions with Human Feedback”的论文中,OpenAI 的欧阳龙等人解释了 InstructGPT 是如何构建的。从 GPT-3 模型到 InstructGPT 模型的训练过程主要有两个阶段:监督微调(supervised fine-tuning,SFT)和通过人类反馈进行强化学习(reinforcement learning from human feedback,RLHF)。每个阶段都会针对前⼀阶段的结果进行微调。也就是说,SFT 阶段接收 GPT-3 模型并返回⼀个新模型。RLHF 阶段接收该模型并返回 InstructGPT 版本。根据 OpenAI 的论文,我们重新绘制了⼀张流程图,如下图所示。

获取 InstructGPT 模型的步骤(根据欧阳龙等人的图片重新绘制)

    在 SFT 阶段中,原始的 GPT-3 模型通过监督学习进行微调(上图中的步骤 1)。OpenAI 拥有⼀系列由最终用户创建的提示词。首先,从可用的提示词数据集中随机抽样。然后,要求⼀个⼈(称为标注员)编写⼀个示例来演示理想的回答。重复这个过程数千次,以获得⼀个由提示词和相应的理想回答组成的监督训练数据集。最后,使用该数据集微调 GPT-3 模型,以针对用户的提问提供更⼀致的回答。此时得到的模型称为 SFT 模型。

    RLHF 阶段分为两个子步骤:首先训练奖励模型(上图中的步骤 2),然后使用奖励模型进行强化学习(上图中的步骤 3)。奖励模型的目标是自动为回答给出分数。当回答与提示词中的内容匹配时,奖励分数应该很高;当回答与提示词中的内容不匹配时,奖励分数应该很低。为了训练奖励模型,OpenAI 首先随机选择⼀个问题,并使用 SFT模型生成几个可能的答案。我们稍后将看到,通过⼀个叫作温度(temperature)的参数,可以针对同⼀输入生成许多回答。然后,要求标注员根据与提示词的匹配程度和有害程度等标准给这些回答排序。在多次重复此过程后,使用数据集微调 SFT 模型以进行评分。这个奖励模型将用于构建最终的 InstructGPT 模型。

    训练 InstructGPT 模型的最后⼀步是强化学习,这是⼀个迭代的过程。它从⼀个初始的生成式模型开始,比如 SFT 模型。然后随机选择⼀个提示词,让模型给出预测结果,由奖励模型来评估结果。根据得到的奖励分数,相应地更新生成式模型。这个过程可以在无须人工干预的情况下重复无数次,从而自动、高效地提高模型的性能。与基础的 GPT-3 模型相比,InstructGPT 模型能够针对用户的提问生成更准确的内容。OpenAI 建议使用 InstructGPT 模型,而非原始版本。

图片名称
NLP 技术从 n-gram 到 LLM 的演变

GPT-3.5、Codex 和 ChatGPT

    2022 年 3 月,OpenAI 发布了 GPT-3 的新版本。新模型可以编辑文本或向文本中插入内容。它们所用的训练数据截至 2021 年 6 月,OpenAI 称它们比先前的版本更强大。2022 年 11 月底,OpenAI 正式称这些模型为 GPT-3.5模型。OpenAI 还提出了 Codex 模型,这是⼀个在数十亿行代码上进行了微调的GPT-3 模型。正是它给 GitHub Copilot 这款自动化编程工具赋予了强大的能力,为使用 Visual Studio Code、JetBrains 甚至 Neovim 等许多文本编辑器的开发人员提供了帮助。然而,Codex 模型在 2023 年 3 月被 OpenAI 弃⽤。相反,OpenAI 建议用户从 Codex 切换到 GPT-3.5 Turbo 或 GPT-4。与此同时,GitHub 发布了基于 GPT-4 的 Copilot X 版本,其功能比之前的版本多得多。

    OpenAI 对 Codex 模型的弃用提醒我们,使用应用程序接口存在固有风险:随着更高效的模型的开发和发布,它们可能会发生变化,甚至被停用。2022 年 11 月,OpenAI 推出了 ChatGPT,并将其作为⼀种实验性的对话式模型。该模型经过了微调,采用上图所示的类似技术,在交互式对话中表现出色。ChatGPT 源自 GPT-3.5 系列,该系列为其开发奠定了基础。可以说,ChatGPT 是由 LLM 驱动的应用程序,而不是真正的LLM。ChatGPT 背后的 LLM 是 GPT-3.5 Turbo。然而,OpenAI 在发布说明中将 ChatGPT 称为“模型”。在本书中,除非操作代码,否则我们将 ChatGPT 用作通用术语,既指应用程序又指模型。在特指模型时,我们使用 gpt-3.5-turbo。

GPT-4

    2023 年 3 月,OpenAI 发布了 GPT-4。关于这个新模型的原理以及关键技术我们都知之甚少,因为 OpenAI 提供的信息很少。这是 OpenAI 迄今为止最先进的系统,应该能够针对用户的提问生成更安全、更有用的回答。OpenAI 声称,GPT-4 在高级推理能力方面超越了 ChatGPT。与 OpenAI GPT 家族中的其他模型不同,GPT-4 是第⼀个能够同时接收文本和图像的多模态模型。这意味着 GPT-4 在生成输出句子时会考虑图像和文本的上下文。这样⼀来,用户就可以将图像添加到提示词中并对其提问。GPT-4 经过了各种测试,它在测试中的表现优于 ChatGPT。比如,在美国统⼀律师资格考试中,ChatGPT 的得分位于第 10 百分位,而 GPT-4 的得分位于第 90 百分位。国际生物学奥林匹克竞赛的结果也类似,ChatGPT 的得分位于第 31 百分位,GPT-4 的得分则位于第 99 百分位。这个进展令⼈印象深刻,尤其考虑到它是在不到⼀年的时间内取得的。

图片名称
GPT 模型的演变历程

    你可能听说过基础模型这个术语。虽然像 GPT 这样的 LLM 被训练用于处理人类语言,但基础模型其实是⼀个更宽泛的概念。这类模型在训练时采用多种类型的数据(不仅限于文本),并且可以针对各种任务进行微调,包括但不限于 NLP 任务。所有的 LLM 都是基础模型,但并非所有的基础模型都是 LLM。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/356972.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux环境搭建之CentOS7(包含静态IP配置)

🔥 本文由 程序喵正在路上 原创,CSDN首发! 💖 系列专栏:虚拟机 🌠 首发时间:2024年6月22日 🦋 欢迎关注🖱点赞👍收藏🌟留言🐾 安装VMw…

XML Encoding = ‘GBK‘ after STRANS,中文乱码

最近帮同事处理了一个中信银行银企直连接口的一个问题,同事反馈,使用STRANS转换XML后,encoding始终是’utf-16’,就算指定了GBK也不行。尝试了很多办法始终不行,发到银行的数据中,中文始终是乱码。 Debug使用HTML视图…

CompletableFuture 基本用法

一、 CompletableFuture简介 CompletableFuture 是 Java 8 引入的一个功能强大的类,用于异步编程和并发处理。它提供了丰富的 API 来处理异步任务的结果,支持函数式编程风格,并允许通过链式调用组合多个异步操作。 二、CompletableFuture中…

SpringMVC系列五: SpringMVC映射请求数据

SpringMVC映射请求数据 💞获取参数值说明应用实例 💞获取http请求消息头💞获取JavaBean对象使用场景说明应用实例注意事项和细节 💞获取servlet api说明应用实例注意事项和细节 上一讲, 我们学习的是SpringMVC系列四: Rest-优雅的…

Linux_内核缓冲区

目录 1、用户缓冲区概念 2、用户缓冲区刷新策略 3、用户缓冲区的好处 4、内核缓冲区 5、验证内核缓冲区 6、用户缓冲区存放的位置 7、全缓冲 结语 前言: Linux下的内核缓冲区存在于系统中,该缓冲区和用户层面的缓冲区不过同一个概念&#x…

SpringBoot 快速入门(保姆级详细教程)

目录 一、Springboot简介 二、SpringBoot 优点: 三、快速入门 1、新建工程 方式2:使用Spring Initializr创建项目 写在前面: SpringBoot 是 Spring家族中的一个全新框架,用来简化spring程序的创建和开发过程。SpringBoot化繁…

【调试笔记-20240618-Windows-pnpm 更新出现 Cannot find module 问题的解决方法】

调试笔记-系列文章目录 调试笔记-20240618-Windows-pnpm 更新出现 Cannot find module 问题的解决方法 文章目录 调试笔记-系列文章目录调试笔记-20240618-Windows-pnpm 更新出现 Cannot find module 问题的解决方法 前言一、调试环境操作系统:Windows 10 专业版调…

vue3实现表格的分页以及确认消息弹窗

表格的分页实例展示 效果1:表格按照每行10条数据分页,且编号也会随之分页自增 实现按照页码分页效果 第二页 展示编号根据分页自动增长 固定表格高度 这边设置了滚动条,同时表格高度实现自适应滚动条高度 template部分 表格代码 编号是按照页码条数进行循环并根据索引自增…

【Linux 杂记】TOP命令

top命令用于动态显示系统中正在运行的进程的详细信息,以及系统的整体资源使用情况。以下是其主要输出解释: Header 表头信息: top:当前时间和运行时间。Tasks:进程统计信息,如总进程数、运行中、睡眠中等。…

qt+halcon实战

注意建QT工程项目用的是MSVC,如果选成MinGW,则会报错 INCLUDEPATH $$PWD/include INCLUDEPATH $$PWD/include/halconcppLIBS $$PWD/lib/x64-win64/halconcpp.lib LIBS $$PWD/lib/x64-win64/halcon.lib#include "halconcpp/HalconCpp.h" #include &quo…

【系统架构设计师】三、数据库系统(事务并发|封锁协议|数据库安全|商业智能|SQL语句)

目录 一、事务并发 1.1 事务概述 1.2 并发控制 1.3 封锁 1.3.1 X 封锁和 S 封锁 1.3.2 三级封锁协议 二、数据库安全 2.1 备份(转储)与恢复 2.2 备份分类 2.3 数据库故障 三、商业智能 3.1 数据仓库 3.2 数据仓库的结构-OLAP 3.3 数据挖掘 3.4 分布式数据库 四…

【猫狗分类】Pytorch VGG16 实现猫狗分类1-数据清洗+制作标签文件

Pytorch 猫狗分类 用Pytorch框架,实现分类问题,好像是学习了一些基础知识后的一个小项目阶段,通过这个分类问题,可以知道整个pytorch的工作流程是什么,会了一个分类,那就可以解决其他的分类问题&#xff0…

intouch的报警怎么发到企业微信机器人

厂务报警通知系列博客目录 intouch的报警怎么发到微信上 intouch的报警怎么发到邮件上 intouch的报警怎么发到短信上 intouch的报警怎么发到企业微信机器人 intouch的报警怎么发到飞书机器人 intouch的报警怎么用语音通知到手机用户 创建企业微信群机器人 打开企业微信客…

java基于ssm+jsp 母婴用品网站

1管理员功能模块 管理员登录,管理员通过输入用户名、密码等信息进行系统登录,如图1所示。 图1管理员登录界面图 管理员登录进入母婴用品网站可以查看主页、个人中心、用户管理、商品分类管理、商品信息管理、留言板管理、成长交流、系统管理、订单管理、…

6月27日云技术研讨会 | 中央集中架构新车型功能和网络测试解决方案

会议摘要 “软件定义汽车”新时代下,整车电气电气架构向中央-区域集中式发展已成为行业共识,车型架构的变革带来更复杂的整车功能定义、更多的新技术的应用(如SOA服务化、TSN等)和更短的车型研发周期,对整车和新产品研…

视频与音频的交响:探索达摩院VideoLLaMA 2的技术创新

一、简介 文章:https://arxiv.org/abs/2406.07476 代码:https://github.com/DAMO-NLP-SG/VideoLLaMA2 VideoLLaMA 2是由阿里巴巴集团的DAMO Academy团队开发的视频大型语言模型(Video-LLM),旨在通过增强空间-时间建模…

Axios进阶

目录 axios实例 axios请求配置 拦截器 请求拦截器 响应拦截器 取消请求 axios不仅仅是简单的用基础请求用法的形式向服务器请求数据,一旦请求的端口与次数变多之后,简单的请求用法会有些许麻烦。所以,axios允许我们进行创建axios实例、ax…

Python基础入门

目录 1. 什么是Python? 2. 安装Python 3. Python基础语法 4. 数据结构 5. 文件操作 6. Python标准库 总结 1. 什么是Python? Python是一种高级编程语言,由Guido van Rossum于1991年发布。它以其简单易读的语法和强大的功能而闻名&…

DataWhale - 吃瓜教程学习笔记(二)

学习视频:第3章-一元线性回归_哔哩哔哩_bilibili 西瓜书对应章节: 3.1 - 3.2 一元线性回归 - 最小二乘法 - 极大似然估计 - 梯度 多元函数的一阶导数 - 海塞矩阵 多元函数的二阶导数 - 机器学习三要素

LLC开关电源开发:第四节,LLC软件设计报告

LLC源代码链接 数控全桥LLC开发板软件设计报告  1. LLC硬件及软件框架2. LLC软件设计2.1 工程文件说明2.2 LLC中断设计2.2.1 20us中断2.2.2 5ms中断 2.3 LLC状态机设计2.3.1 初始化状态2.3.2 空闲状态2.3.3 软启动状态2.3.4 正常运行状态2.3.5 故障状态 2.4 环路设计2.4.1 环路…