ChatGPT低成本复现流程开源!任意单张消费级显卡可体验

首个开源的ChatGPT低成本复现流程来了!

预训练、奖励模型训练、强化学习训练,一次性打通。

最小demo训练流程仅需1.62GB显存,随便一张消费级显卡都能满足了。单卡模型容量最多提升10.3倍。

相比原生PyTorch,单机训练速度最高可提升7.73倍,单卡推理速度提升1.42倍,仅需一行代码即可调用。

对于微调任务,可最多提升单卡的微调模型容量3.7倍,同时保持高速运行,同样仅需一行代码。

要知道,ChatGPT火是真的火,复现也是真的难。

毕竟ChatGPT是不开源的,市面上至今没有开源预训练权重、完全开源的低成本训练流程,而且千亿级别大模型的训练本身就是个难题。

但ChatGPT军备赛已经愈演愈烈,为了抓住趋势,如谷歌等都在打造对标竞品。快速复现ChatGPT是应趋势所需。

开源加速方案Colossal-AI正是为此而来。

并且在提供开源完整复现流程的同时,把成本降了下来!

开源地址:https://github.com/hpcaitech/ColossalAI'>https://github.com/hpcaitech/ColossalAI

降显存开销是关键

ChatGPT的效果好,主要是由于在训练过程中引入了人类反馈强化学习(RLHF),但这也直接导致ChatGPT的复现训练难度飙升。

其训练流程主要分为三个阶段:

1、监督微调:从Prompt库中采样,收集其人工回答,利用这些数据来微调预训练大语言模型;

2、奖励模型:从Prompt库中采样,使用大语言模型生成多个回答,人工对这些回答进行排序后,训练奖励模型(RM),来拟合人类的价值判断。

3、基于第一阶段的监督微调模型和第二阶段的奖励模型,利用强化学习算法对大语言模型进一步训练。

正在上传…重新上传取消△RLHF的三个阶段

对于ChatGPT训练而言,第三阶段是核心部分。

OpenAI采用了强化学习中近端策略优化算法(PPO),借此引入奖励信号,使得语言模型生成内容更加符合人类评判标准。

但强化学习的引入,也意味着更多模型调用。

例如,使用基于Actor-Critic(AC)结构的PPO算法,需要在训练时进行Actor、Critic两个模型的前向推理和反向传播,以及监督微调模型、奖励模型的多次前向推理。

在ChatGPT基础的InstructGPT论文中,Actor和监督微调模型都使用了1750亿参数的GPT-3系列模型,Critic和奖励模型则使用了60亿参数的GPT-3系列模型。

如此大规模的模型参数,意味着想要启动原始ChatGPT训练流程,需要数千GB的显存开销,单张GPU显然无法容纳,常见的数据并行技术也不能搞定。

即便引入张量并行、流水并行对参数进行划分,也需要至少64张80GB的A100作为硬件基础。而且流水并行本身并不适合AIGC的生成式任务,bubble和调度复杂会导致效率受限。

单张消费级显卡都能体验

Colossal-AI基于ZeRO,Gemini, LoRA, Chunk-based内存管理等方法,提出了一系列单卡、单机多卡、大规模并行解决方案。

对于基于GPT-3系列模型的ChatGPT,Colossal-AI能用原本一半的硬件资源启动1750亿参数模型训练,从64卡降低到32卡。

如果继续用64卡,则将训练时间压缩到更短,节省训练成本、加速产品迭代。

而为了能让更大范围的开发者体验复现ChatGPT,除了1750亿参数版本外,Colossal-AI还提供单卡、单机4/8卡的类ChatGPT版本,以降低硬件限制。

正在上传…重新上传取消

要知道,在单机多卡服务器上,即便把显卡规格提升为A100 80GB,由于ChatGPT的复杂性和内存碎片,PyTorch最大也只能启动基于GPT-L(774M)这样的小模型ChatGPT。

用PyTorch原生的DistributedDataParallel (DDP) 进行多卡并行扩展至4卡或8卡,性能提升有限。

Colossal-AI最高可提升单机训练速度7.73倍,单卡推理速度1.42倍,还可继续扩大规模并行。

正在上传…重新上传取消

为了尽可能降低训练成本和上手门槛,Colossal-AI还提供了在单张GPU上即可尝试的ChatGPT训练流程。

相比于PyTorch在约10万元的A100 80GB上,最大仅能启动7.8亿参数模型,Colossal-AI将单卡容量提升10.3倍至80亿参数。

对于基于1.2亿参数小模型的ChatGPT训练,最低仅需1.62GB显存,任意单张消费级GPU即可满足。

正在上传…重新上传取消

此外,Colossal-AI也致力于降低基于预训练大模型的微调任务成本。以ChatGPT可选的开源基础模型OPT为例,相比PyTorch,Colossal-AI可将提升单卡微调模型容量3.7倍(原始计算量显著增大),同时保持高速运行。

一行代码快速上手

到了具体操作部分,如上复现流程中的多个步骤,基于Colossal-AI开源方案,都能实现一行代码快速上手。

先看模型使用方面。

尽管ChatGPT背后的大语言模型GPT-3.5不开源,但如GPT、OPT、BLOOM等主流开源模型可作为替代。

Colossal-AI为Hugging Face社区的这些模型,提供了开箱即用的ChatGPT复现代码,可覆盖三个阶段的训练。

以GPT为例,添加一行代码指定使用Colossal-AI作为系统策略即可快速使用。

正在上传…重新上传取消

使用下列命令,即可快速启动单卡、单机多卡、1750亿版本训练,并测试各种性能指标(包括最大显存占用、吞吐率和TFLOPS等):

正在上传…重新上传取消

背后原理如何?

核心方案还是Colossal-AI。

它从诞生起就面向大模型应用,可基于PyTorch高效快速部署AI大模型训练和推理,是这一领域的明星项目了,GitHub Star超八千颗,并成功入选SC、AAAI、PPoPP、CVPR等国际AI与HPC顶级会议的官方教程。

目前,Colossal-AI已成功帮助一家世界五百强企业,开发具备在线搜索引擎能力增强的类ChatGPT聊天机器人模型。

此前,它们还为Stable Diffusion、OPT、AlphaFold等前沿模型,提供了多样高效的大规模多维并行分布式解决方案。

主创人员为加州伯克利大学杰出教授James Demmel和新加坡国立大学校长青年教授尤洋。

正在上传…重新上传取消△Colossal-AI与当今主要开源项目同期开源数据对比

具体到细节原理上,LoRA、ZeRO+Gemini是关键。

低成本微调的LoRA

在微调部分,Colossal-AI支持使用低秩矩阵微调(LoRA)方法。

LoRA方法认为大语言模型是过参数化的,其在微调中的参数改变量是一个低秩的矩阵,可以将其分解为两个更小的的矩阵的乘积,即

正在上传…重新上传取消

在微调时,固定大模型参数,只调整低秩矩阵参数,从而显著减小训练参数量。在微调之后,进行推理部署之前,只需要将参数加回原有矩阵即可,即

,不增加模型的推理延迟。

正在上传…重新上传取消△LoRA示意图,仅需训练A、B减少内存冗余的ZeRO+Gemini

Colossal-AI 支持使用无冗余优化器 (ZeRO) 来优化内存使用,这种方法可以有效减少内存冗余,并且相比传统的数据并行策略,不会牺牲计算粒度和通信效率,同时可以大幅提高内存使用效率。

为了进一步提升 ZeRO 的性能,Colossal-AI 引入了自动Chunk机制。

通过将运算顺序上连续的一组参数存入同一个 Chunk中(Chunk 是一段连续的内存空间),可以确保每个 Chunk 的大小相同,从而提高内存使用效率。

使用Chunk 方式组织内存可以保证 PCI-e 和 GPU-GPU之间的网络带宽得到有效利用,减小通信次数,同时避免潜在的内存碎片。

正在上传…重新上传取消△Chunk机制

此外,Colossal-AI的异构内存空间管理器Gemini支持将优化器状态从 GPU 卸载到 CPU ,以节省 GPU 内存占用。

可以同时利用 GPU 内存、CPU 内存(由 CPU DRAM 或 NVMe SSD内存组成)来突破单GPU内存墙的限制,进一步扩展了可训练模型规模。

正在上传…重新上传取消△通过ZeRO+Gemini提升硬件的模型容量One More Thing

尽管此次开源包含了复现ChatGPT的完整算法流程和必要软件系统,但想要走到实际应用落地,还至少需要数据、算力等方面的支持。

参考开源大模型BLOOM、开源AI画画工具Stable Diffusion的经验,这背后都需要包括个人开发者、算力、数据模型等可能合作方的支持共建——

此前,超过1000个科学家联合发起、耗时一年多炼出了号称和GPT-3一样强大的语言模型BLOOM。还有AI画画趋势的头号明星Stable Diffusion,也是由Stability AI、EleutherAI和LAION多方联合完成的。

复现ChatGPT也是如此,Colossal-AI正在发起这一开发活动。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/15737.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

不要老盯着ChatGPT,这几家公司的产品同样不容小觑

Adept.ai 2022 年成立,致力于一款能够代替人类使用电脑、操控软件的AI助手,旗下模型 ACT-1 还处于雏形阶段,但根据官方示例,已经可以完成通过自然语言指令完成特定的任务。公司创始人曾任OpenAI的工程副总裁,后来进入谷…

当ERP遇到ChatGPT,新世界的大门被打开

‍数据智能产业创新服务媒体 ——聚焦数智 改变商业 关键发现: 1、ChatGPT可以导入私有数据进行训练,从而指导业务优化。 2、ChatGPT能够记住每一个回话的内容,从而给出思考和推论。 3、ChatGPT真的是在思考,它实时的在训练并且生…

深度学习大模型框架的简单介绍(ChatGPT背后原理的基本介绍)

一、引言 主流的深度学习基础框架有很多:tensorflow、pytorch、paddlepaddle、keras、caffee等等。 随着以Bert、GPT系列为代表的NLP预训练语言模型的诞生,对于NLP的语言模型研究走向了大规模预训练之路。 在CV领域,随着GAN、Diffusion Mo…

插件推荐:一键保存ChatGPT对话记录GPT-EZ

大家好,我是可夫小子,关注AIGC、读书和自媒体。解锁更多ChatGPT、AI绘画玩法。加:keeepdance,备注:chatgpt,拉你进群。 我们在与ChatGPT对话中,好的使用体验,也许需要漫长的调教。一…

聚观早报 | Meta 考虑推出 Twitter 竞品;硅谷银行,真的倒闭了

今日要闻:Meta 考虑推出 Twitter 竞品;硅谷银行,真的倒闭了;谷歌 Stadia 云服务被关闭;用和微软合作开发ChatGPT车载服务;长城汽车悬赏1000万抵制网络水军 Meta 考虑推出 Twitter 竞品 Meta 正在探索推出一…

本地部署 Chatbot UI,一个开源的 ChatGPT UI

openchat-ui 0. 什么是 Chatbot UI1. Github 地址2. 本地部署3. (参考)配置文件说明 0. 什么是 Chatbot UI Chatbot UI 是一个用于 AI 模型的开源聊天 UI。适用于 OpenChat 模型。 画面效果展示如下, 1. Github 地址 https://github.com/imoneoi/openchat-ui 2.…

基于Chatbot UI 实现ChatGPT对话-V1.2

基于Chatbot UI 实现ChatGPT对话-V1.0 前端基于开源项目:chatbot-ui进行二次开发,感兴趣的小伙伴可以自行研究。 本项目搭建初衷:在无法科学上网的情况下,实现ChatGPT对话。还有规避官方聊天时,长时间无链接导致的问题…

chatgpt赋能python:Python创建GUI界面——让你的程序更加直观易用

Python创建GUI界面——让你的程序更加直观易用 Python作为一门直译式的解释性高级编程语言,具有简洁、易读、易学的特点,一直被广泛应用于数据处理、自动化脚本、Web开发等方面。而随着Python在各个领域的应用不断扩大,Python GUI界面开发也…

边无际CEO陈永立:让ChatGPT通过物联网看到世界

如何利用ChatGPT及其插件,将AI与物联网设备相连? 通过Shifu Plugin获取摄像头的实时画面 我们都认识到,ChatGPT引发了一连串的技术变革。作为一个对AI和物联网技术充满热情的开发者,获得ChatGPT插件的早期访问权限,是…

35岁程序员:从焦虑到适应

文章目录 前言:chatgpt的回答35岁程序员有危机吗?35岁程序员面对裁员应该如何做? 焦虑:岁数不小、精力不够、能力一般岁数不小精力不够、能力一般 适应:失业难以避免,重构人生规划失业难以避免重构人生规划“35岁危机”是一个极…

全球AI最具创新力城市北京排名第二,杭州超过深圳

2023年全球人工智能最具创新力城市排名发布了! 7月6日,中国国际数字和软件服务交易会(简称“数交会”)在辽宁省大连市开幕。在会议期间举办的第二届中国计算机学会东北论坛中,AMiner联合智谱研究发布2023年全球人工智能…

李彦宏关于大模型最新演讲 | 大模型重塑数字世界

文章目录 一、前言二、主要内容三、总结 🍉 CSDN 叶庭云:https://yetingyun.blog.csdn.net/ 一、前言 2023 年 6 月 26 日,百度创始人、董事长兼首席执行官李彦宏出席 “世界互联网大会数字文明尼山对话”,发表了题为《大模型重塑…

训练人工智能的中国县城工人

Datawhale干货 最新:AI行业现状,来源:蓝字计划 作者 | 林石 来源 | 蓝字计划(NPO2020) 全文字数|约4300 全世界都在谈论ChatGPT将带来颠覆性的技术革命,但人工智能训练师李杰却一点…

自学编程,从月薪500到年薪150万,46岁程序员的IT成长之路

【CSDN 编者按】本文来自 CSDN“年度征文”活动中的一篇文章,作者分析了入行编程 20 年,从高中物理老师到自学编程,在 IT 编程领域摸爬滚打,经历多次起伏与柳暗花明。 原文链接:https://blog.csdn.net/mosquitoxh/arti…

文心一言算力从哪来?自家最大智算中心:算力规模4EFLOPS,base李彦宏老家

百度版ChatGPT底层算力支持,李彦宏老家阳泉助一臂之力! 量子位获悉,百度阳泉智算中心从2月底开始就布设了两个新机房,专门为自家大模型产品文心一言提供计算推理的算力需求。 同样功能的机房,在百度保定计算集群&…

阿里版ChatGPT已进入测试,中文聊天截图曝光,达摩院出品

谷歌硬刚ChatGPT消息一出,科技圈全坐不住了。 就在2月9号,阿里百度网易京东一众公司全宣布要推出类ChatGPT新产品,战况那叫一个激烈。 阿里内测中的达摩院版ChatGPT,也被提前曝光。 竟然连画画技能都具备了?&#xff0…

ChatGPT标注数据比人类便宜20倍,80%任务上占优势 | 苏黎世大学

Pine 发自 凹非寺量子位 | 公众号 QbitAI 又一“人类饭碗”被AI抢走,还是和训练AI息息相关的: 数据标注。 苏黎世大学研究发现,在ChatGPT面前,无论成本还是效率,人类可以说是毫无优势: 成本上,C…

ChatGPT引爆变革:第五个被颠覆的行业——市场营销与广告

随着人工智能技术的不断发展,ChatGPT已经开始在市场营销与广告领域产生深远影响。作为一款强大的文本生成工具,ChatGPT不仅能够撰写各类文章,还可以用于广告文案创作、营销策略设计以及消费者行为分析。 在广告文案创作方面,ChatG…

GPT-5根本不存在!ChatGPT之父Sam Altman首次公开表态,最新视频流出

新智元报道 编辑:编辑部 【新智元导读】4月13日,OpenAI CEO、GPT-4老板Sam Altman在接受视频采访时的一句话,让在场所有人惊呆了:「压根就没有GPT-5」! Sam Altman辟谣了!根本就没有GPT-5! 之…

LLM 系列 | 06:ChatGPT Prompt实践:文本摘要推断转换

简介 梅子留酸软齿牙,芭蕉分绿与窗纱。日长睡起无情思,闲看儿童捉柳花。小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖雪糕的小女孩。更多、更新文章欢迎关注 微信公众号:小窗幽记机器学习。后续会持续整理…