微软震撼开源DeepSpeed Chat,一键实现ChatGPT的端到端RLHF训练

4ec4f0ece8af0cbc8febf36333bae0fc.png

编|Aeneas 好困
源|新智元

微软开源的DeepSpeed Chat,让开发者实现了人手一个ChatGPT的梦想!

人手一个ChatGPT的梦想,就要实现了?

刚刚,微软开源了一个可以在模型训练中加入完整RLHF流程的系统框架——DeepSpeed Chat。

也就是说,各种规模的高质量类ChatGPT模型,现在都唾手可得了!

96d7206653a14394c3b8280aaf5fd478.png
▲项目地址:https://github.com/microsoft/DeepSpeed

一键解锁千亿级ChatGPT,轻松省钱15倍

众所周知,由于OpenAI太不Open,开源社区为了让更多人能用上类ChatGPT模型,相继推出了LLaMa、Alpaca、Vicuna、Databricks-Dolly等模型。

但由于缺乏一个支持端到端的RLHF规模化系统,目前类ChatGPT模型的训练仍然十分困难。而DeepSpeed Chat的出现,正好补全了这个「bug」。

d8d6393b0b350f950fef6316845a2fd0.png

更亮的是,DeepSpeed Chat把成本大大地打了下来。

此前,昂贵的多GPU设置超出了许多研究者的能力范围,并且,即使能访问多GPU集群,现有的方法也无力负担数千亿参数ChatGPT模型的训练。

现在,只要花1620美元,就可以通过混合引擎DeepSpeed-HE,在2.1天内训练一个OPT-66B模型。

而如果使用多节点、多GPU系统,DeepSpeed-HE可以花320美元,在1.25小时内训练一个OPT-13B模型,花5120美元,就能在不到一天的时间内训练一个OPT-175B模型。

前Meta AI专家Elvis激动转发,称这是一件大事,并表示好奇DeepSpeed Chat和ColossalChat相比起来如何。

9fcc832fd333ee9c7054ec8d02117ea8.png

下面,我们就来看看效果如何。

经过DeepSpeed-Chat的训练,13亿参数版「ChatGPT」在问答环节上的表现非常亮眼。不仅能get到问题的上下文关系,而且给出的答案也有模有样。

be0fb6ea36a105796cc329f73ffc1bf8.gif

在多轮对话中,这个13亿参数版「ChatGPT」所展示出的性能,也完全超越了这个规模的固有印象。

46fd121ee3f076a95a66bbacaa3c0dc3.gif

一段代码,生成你的第一个ChatGPT

当然,在体验之前,还需要把环境配置一下:

git clone https://github.com/microsoft/DeepSpeed.git
cd DeepSpeed
pip install .git clone https://github.com/microsoft/DeepSpeedExamples.git
cd DeepSpeedExamples/applications/DeepSpeed-Chat/
pip install -r requirements.txt

一杯咖啡,训完13亿参数版ChatGPT

如果你只有大约1-2小时的咖啡或午餐休息时间,也可以尝试使用DeepSpeed-Chat训练一个「小玩具」。

团队特地准备了一个针对1.3B模型的训练示例,可在消费级GPU上进行测试。最棒的是,当你从午休回来时,一切都已准备就绪。

python train.py --actor-model facebook/opt-1.3b --reward-model facebook/opt-350m --num-gpus 1

配备48GB显存的消费级NVIDIA A6000 GPU:

c4b6e7b608c60eebe9e45ba105b1a565.png

一个GPU Node,半天搞定130亿参数

如果你只有半天的时间,以及一台服务器节点,则可以通过预训练的OPT-13B作为actor模型,OPT-350M作为reward模型,来生成一个130亿参数的类ChatGPT模型:

python train.py --actor-model facebook/opt-13b --reward-model facebook/opt-350m --num-gpus 8

单DGX节点,搭载了8个NVIDIA A100-40G GPU:

727a9eacf52d77707494615f78af8898.png

超省钱云方案,训练660亿参数模型

如果你可以使用多节点集群或云资源,并希望训练一个更大、更高质量的模型。那么只需基于下面这行代码,输入你想要的模型大小(如66B)和GPU数量(如64):

python train.py --actor-model facebook/opt-66b --reward-model facebook/opt-350m --num-gpus 64

8个DGX节点,每个节点配备8个NVIDIA A100-80G GPU:

198e0f4f7744b721e2f33aad897600b7.png

具体来说,针对不同规模的模型和硬件配置,DeepSpeed-RLHF系统所需的时间和成本如下:

80e240fa02a95f265d858dad782dbea9.png

DeepSpeed Chat是个啥?

DeepSpeed Chat是一种通用系统框架,能够实现类似ChatGPT模型的端到端RLHF训练,从而帮助我们生成自己的高质量类ChatGPT模型。

6c293b7e008374c58fbfa467bb77f471.png

DeepSpeed Chat具有以下三大核心功能:

  1. 简化ChatGPT类型模型的训练和强化推理体验

开发者只需一个脚本,就能实现多个训练步骤,并且在完成后还可以利用推理API进行对话式交互测试。

  1. DeepSpeed-RLHF模块

DeepSpeed-RLHF复刻了InstructGPT论文中的训练模式,并提供了数据抽象和混合功能,支持开发者使用多个不同来源的数据源进行训练。

  1. DeepSpeed-RLHF系统

团队将DeepSpeed的训练(training engine)和推理能力(inference engine) 整合成了一个统一的混合引擎(DeepSpeed Hybrid Engine or DeepSpeed-HE)中,用于RLHF训练。由于,DeepSpeed-HE能够无缝地在推理和训练模式之间切换,因此可以利用来自DeepSpeed-Inference的各种优化。

DeepSpeed-RLHF系统在大规模训练中具有无与伦比的效率,使复杂的RLHF训练变得快速、经济并且易于大规模推广:

  • 高效且经济:

DeepSpeed-HE比现有系统快15倍以上,使RLHF训练快速且经济实惠。

例如,DeepSpeed-HE在Azure云上只需9小时即可训练一个OPT-13B模型,只需18小时即可训练一个OPT-30B模型。这两种训练分别花费不到300美元和600美元。

f6a1b1b2db1727237b506b2c416144e6.png
  • 卓越的扩展性:

DeepSpeed-HE能够支持训练拥有数千亿参数的模型,并在多节点多GPU系统上展现出卓越的扩展性。

因此,即使是一个拥有130亿参数的模型,也只需1.25小时就能完成训练。而对于拥有1750 亿参数的模型,使用DeepSpeed-HE进行训练也只需不到一天的时间。

3a6cda8feec319f1b96d97be93dab799.png
  • 实现RLHF训练的普及化:

仅凭单个GPU,DeepSpeed-HE就能支持训练超过130亿参数的模型。这使得那些无法使用多GPU系统的数据科学家和研究者不仅能够轻松创建轻量级的RLHF模型,还能创建大型且功能强大的模型,以应对不同的使用场景。

db33d007ed470314991cee427eb41d7f.png

完整的RLHF训练流程

为了提供无缝的训练体验,研究者遵循InstructGPT,并在DeepSpeed-Chat中包含了一个完整的端到端训练流程。

febd3647f71454cea345b963834a3789.png
▲DeepSpeed-Chat的RLHF训练流程图示,包含了一些可选择的功能

流程包括三个主要步骤:

第 1 步:

监督微调 (SFT),使用精选的人类回答来微调预训练的语言模型,以应对各种查询。

第 2 步:

奖励模型微调,用一个包含人类对同一查询的多个答案打分的数据集,来训练一个独立的(通常比SFT小)奖励模型(RW)。

第 3 步:

RLHF训练,在这一步,SFT模型通过使用近似策略优化(PPO)算法,从RW模型的奖励反馈进一步微调。

在步骤3中,研究者还提供了两个附加功能,来帮助提高模型质量:

  • 指数移动平均线(EMA)的收集,可以选择一个基于EMA的检查点,进行最终评估。

  • 混合训练,将预训练目标(即下一个词预测)与 PPO 目标混合,以防止在公共基准(如SQuAD2.0)上的性能回归。

cf5b763fb9746136f9b7e61ac75720c7.png

EMA和混合训练这两个训练特征,常常被其他的开源框架所忽略,因为它们并不会妨碍训练的进行。

然而,根据InstructGPT,EMA检查点往往比传统的最终训练模型提供更好的响应质量,而混合训练可以帮助模型保持训练前的基准解决能力。

因此,研究者为用户提供了这些功能,让他们可以充分获得InstructGPT中描述的训练经验。

而除了与InstructGPT论文高度一致外,研究者还提供了功能,让开发者使用多种数据资源,训练自己的RLHF模型:

  • 数据抽象和混合能力:

DeepSpeed-Chat配备了(1)抽象数据集层,以统一不同数据集的格式;以及(2)数据拆分/混合功能,从而使多个数据集被适当地混合,然后在3个训练阶段进行分割。

014cfc62620c6ec537cf5699edb3e30e.png

DeepSpeed混合引擎

指示引导的RLHF管道的第1步和第2步,类似于大模型的常规微调,它们由基于ZeRO的优化和DeepSpeed训练中灵活的并行策略组合,来实现规模和速度。

而管道的第3步是在性能影响方面最复杂的部分。

每个迭代都需要有效地处理两个阶段:a)推理阶段,用于token/经验的生成,产生训练的输入;b)训练阶段,更新actor和reward模型的权重,以及它们之间的互动和调度。

它引入了两个主要的困难:(1)内存成本,因为在整个第三阶段需要运行多个SFT和RW模型;(2)生成回答阶段的速度较慢,如果没有正确加速,将显著拖慢整个第三阶段。

此外,研究者在第三阶段增加的两个重要功能——指数移动平均(EMA)收集和混合训练,将产生额外的内存和训练成本。

为了应对这些挑战,研究者将DeepSpeed训练和推理的全部系统能力组成了一个统一的基础设施,即混合引擎(Hybrid Engine)。a6227fe55f48f12066faca1b92e70413.png

它利用原有的DeepSpeed引擎进行快速训练模式,同时毫不费力地应用DeepSpeed推理引擎进行生成/评估模式,为第三阶段的RLHF训练提供了一个更快的训练系统。

如下图所示,DeepSpeed训练和推理引擎之间的过渡是无缝的:通过为actor模型启用典型的eval和train模式,在运行推理和训练流程时,DeepSpeed选择了不同的优化,以更快地运行模型,并提高整个系统的吞吐量。

5c50f42830ee1d8faec2eda067064cc0.png
▲用于加速RLHF流程中最耗时部分的DeepSpeed混合引擎设计

在RLHF训练的经验生成阶段的推理执行过程中,DeepSpeed混合引擎使用轻量级的内存管理系统,来处理KV缓存和中间结果,同时使用高度优化的推理CUDA核和张量并行计算,与现有方案相比,实现了吞吐量(每秒token数)的大幅提升。

在训练期间,混合引擎启用了内存优化技术,如DeepSpeed的ZeRO系列技术和低阶自适应(LoRA)。

而研究者设计和实现这些系统优化的方式是,让它们彼此兼容,并可以组合在一起,在统一的混合引擎下提供最高的训练效率。

混合引擎可以在训练和推理中无缝地改变模型分区,以支持基于张量并行的推理,和基于ZeRO的训练分片机制。

它还可以重新配置内存系统,以便在每一种模式中最大限度地提高内存可用性。

这就避免了内存分配瓶颈,能够支持大的batch size,让性能大大提升。

总之,混合引擎推动了现代RLHF训练的边界,为RLHF工作负载提供了无与伦比的规模和系统效率。

f8e683590d53601f7d7f614c58f339fe.png

效果评估

与Colossal-AI或HuggingFace-DDP等现有系统相比,DeepSpeed-Chat具有超过一个数量级的吞吐量,能够在相同的延迟预算下训练更大的演员模型或以更低的成本训练相似大小的模型。

例如,在单个GPU上,DeepSpeed使RLHF训练的吞吐量提高了10倍以上。虽然CAI-Coati和HF-DDP都可以运行1.3B的模型,但DeepSpeed可以在相同的硬件上运行6.5B模型,直接高出5倍。

b64efbe8b7c2ba4b8c56c44ba3c42575.png

在单个节点的多个GPU上,DeepSpeed-Chat在系统吞吐量方面比CAI-Coati提速6-19倍,HF-DDP提速1.4-10.5倍。

60ae15ffb426d4adc827456d7f2d2ddd.png

团队表示,DeepSpeed-Chat能够获得如此优异的结果,关键原因之一便是混合引擎在生成阶段提供的加速。

5be7bfed7c4ca005332b6d9ee97fd3e5.png

aa6e9132577159bedbc94025b75b1542.jpeg后台回复关键词【入群

加入卖萌屋NLP、CV、搜推广与求职讨论群

 b3ffb2f69cc022b22d4f0f07f4f947ac.png

[1]https://github.com/microsoft/DeepSpeed

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/59400.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

“开源ChatGPT”:PaLM-rlhf-pytorch

就说程序员的手速有多快吧,首个开源ChatGPT项目已经出现了! 基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF),华人小哥Phillip Wang复刻了一个ChatGPT出来。 项目GitHub星已经超过1.7k了,而且还在一路飙升ing。 不过一反常态的是,网友们看到“开…

英语听力,这练习很简单

首先,跟大家推荐一个软件,亲测真的巨好用,听力,口语,词汇一把抓。 就是它,每日英语听力,你提高听力最需要的单句精听它有噢,建议每次听一遍,把句子写下来,重…

ChatGPT精通:使用ChatGPT-4的专家提示工程

大师ChatGPT,专家提示工程,提高生产力,探索开放人工智能GPT-4和生成人工智能技术,探索ChatGPT的激动人心的世界,并利用这一关于掌握OpenAI最新创新GPT-4的深入而全面的课程来驾驭人工智能驱动的对话技术的力量。本课程…

计算机中职生自我介绍500字,中专生自我介绍500字

中专生自我介绍500字 当我们在一个陌生场合中,我们难以避免地要作出自我介绍,用自我介绍往往可以来展示自己。那么我们该怎么去写自我介绍呢?以下是小编为大家收集的中专生自我介绍500字,欢迎阅读,希望大家能够喜欢。 …

面试自我介绍范文(30篇)

面试自我介绍范文(30篇) 当来到一个新环境时,我们总归要向他人介绍自己,自我介绍是让陌生人彼此认识的好方法。如何编写一段个性的自我介绍? 面试自我介绍范文1 各位面试官: 大家好! 我叫__,就读于__大学金…

超级计算机作文500字初中,自我介绍初中作文500字(精选9篇)

自我介绍初中作文500字(精选9篇) 当到达一个陌生的环境后,通常需要用到自我介绍,通过自我介绍可以让别人认识自己。如何写出一个与众不同的自我介绍?以下是小编帮大家整理的自我介绍初中作文500字(精选9篇),欢迎阅读与收藏。 自我…

ChatGPT-4开通方法和费用

**[文章来源](https://bk.suning.info):https://bk.suning.info** 哪里可以用gpt-4,gpt-4相较于gpt3.5又有了逻辑性和图片识别等方面的加强,今天跟大家分享gpt-4使用的方法。 想要使用GPT-4模型,我们需要订阅付费的ChatGPT(ChatGPT的高级版…

【力扣刷题1-10】

力扣刷题1-10 力扣刷题1-10 1、两数之和1.1 题目1.2 分析1.3 代码实现 2、两数相加2.1 题目2.2 分析2.3 代码实现 3、无重复字符的最长子串3.1 题目3.2 分析3.3 代码实现 4、寻找两个有序数组的中位数4.1 题目4.2 分析4.3 代码实现 5、最长回文子串5.1 题目5.2 分析5.3 代码实现…

力扣刷题汇总

力扣刷题汇总 C基础知识学习:一、数组例题 二、链表参考理论C/C的定义链表节点方式知识点例题 三、哈希表参考理论例题 四、字符串例题KMP算法 五、双指针法例题 六、栈与队列(栈和队列都是容器适配器)参考理论数据结构学习(queue…

力扣刷题记录-4

目录 No.226No.112No.700No.701No.98No.653No.235 No.226 复盘: 1、这道题的核心思路是递归 2、首先将叶子节点进行翻转,然后回到它的父节点,如果其左右结点都已翻转,则直接交换两个子树 这样一直递归至根节点,则算法完…

BAT程序员总结的力扣刷题指南,已经在Github了!!刷题顺序,优质题解一网打尽!

相信很多小伙伴刷题的时候面对力扣上近两千道题目,感觉无从下手! 我花费半年时间整理了Github学习项目「力扣刷题攻略」: https://github.com/youngyangyang04/leetcode-master 先上上图吧! 项目中整体顺序为:前序&a…

【力扣刷题 | 第六天】

目录 前言: 344. 反转字符串 - 力扣(LeetCode) 541. 反转字符串 II - 力扣(LeetCode) 今天我们进入字符串章节的刷题旅程,希望各位小伙伴可以和我一起坚持下去,一起征服力扣! 前言…

力扣题库刷题笔记682-棒球比赛

1、题目如下&#xff1a; 2、个人Python代码实现如下&#xff1a; 代码如下&#xff1a; class Solution: def calPoints(self, operations: List[str]) -> int: i 0 #用于遍历元素的下标 while i < len(operations): …

力扣刷题【第一期】

文章目录 1.爬楼梯2.求两数的和&#xff08;283&#xff09;3.移动零&#xff08;283&#xff09;3.1 题目描述3.2 算法描述3.3具体实现 4.合并有序连表&#xff08;21&#xff09;4.1 题目描述4.2 算法思想4.3 代码实现 5.删除连表中重复的值&#xff08;83&#xff09;5.1 题…

力扣刷题Day4

24. 两两交换链表中的节点 题目&#xff1a;力扣 难点在与如何模拟节点的交换&#xff0c;在编码实现的时候容易出现杂乱而导致循环节点的出现。 在自己实现的时候&#xff0c;出现的错误&#xff1a; 把head和head.next作为迭代的基准&#xff0c;但是存在的问题是&#x…

力扣刷题流程--记录用

目前已完成第一小节的做题任务&#xff0c;前路漫漫啊。 第一部分 数据结构基础&#xff08;155 题&#xff09; 数组和字符串&#xff08;22 题&#xff09; 数组类算法&#xff08;12 题&#xff09; 链表&#xff08;15 题&#xff09; 队列 & 栈&#xff08;2…

【力扣刷题 | 第五天】

目录 前言&#xff1a; 15. 三数之和 - 力扣&#xff08;LeetCode&#xff09; 18. 四数之和 - 力扣&#xff08;LeetCode&#xff09; 结束&#xff1a; 前言&#xff1a; 今天两道题类型相似&#xff0c;解法思路一致&#xff0c;都利用了双指针技术。 15. 三数之和 - 力…

力扣-刷题记录

189. 轮转数组 给定一个整数数组 nums&#xff0c;将数组中的元素向右轮转 k 个位置&#xff0c;其中 k 是非负数。 力扣https://leetcode.cn/problems/rotate-array/description/ void rotate(int* nums, int numsSize, int k){if(k > numsSize){k % numsSize;}if(k0){f…

出海周报|Temu在美状告shein、ChatGPT安卓版上线、小红书回应闪退

工程机械产业“出海”成绩喜人&#xff0c;山东相关企业全国最多Temu在美状告shein&#xff0c;跨境电商战事升级TikTok将在美国推出电子商务计划&#xff0c;售卖中国商品高德即将上线国际图服务&#xff0c;初期即可覆盖全球超200个国家和地区ChatGPT安卓版正式上线&#xff…

方法试用:基于强化学习提高EEG分类准确率的特征选择方法(完整代码)

2023/4/19 -4/21 脑机接口学习内容一览&#xff1a; 这一篇文章主要建立在前文脑机接口随机森林判断睡眠类型与EEG前沿方法探索的基础上&#xff0c;尝试运用强化学习的方法来提高识别睡眠阶段的准确率&#xff0c;对前段时间强化学习的学习成果做一个总结。 一、强化学习类详解…