细数和Chatgpt相似的开源模型

毫无疑问Chatgpt对于AI的发展具有里程碑式的意义,它最大的意义在于从0到1验证了大规模语言模型的可行性。

毕竟训练这个模型,是需要烧非常多钱的,OpenAI背后的金主微软都已经投资了上百亿美元。

前几天连Chatgpt4都被暂停了,官网显示,暂时无法升级账户到Plus会员,不过这两天也恢复了。

归根到底原因就是:High demand。需求量太大,而算力要求极高,以至于OpenAI不得不暂停Plus的销售。

地球上已经没有足够的算力来满足需求了。

Chatgpt虽然是OpenAI发布的,但并不Open,一点训练细节都没公布。

这也可以理解,毕竟微软前期投资了这么多钱,多少要靠这波浪潮吃回来点。

虽然不Open,但Chatgpt的原理和模型也很快被大家挖掘出来,网上现在也有一些开源的大模型出来,今天我们就来细数一下。

一.LLaMA

github地址:

https://github.com/facebookresearch/llama

Star: 16.4K.

LLaMA翻译过来叫大羊驼,它是由Meta(原脸书公司)公司开源的AI模型,Meta 的 LLaMA 是“大型语言模型 Meta AI” (Large Language Model Meta AI)的缩写,它可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者。

这个模型非常重要,后面介绍的很多模型都是基于这个模型进行二次开发和微调得来的,可以说是这类模型的开源鼻祖

LLaMA主要设计了7B(70亿)、13B(130亿)、33B 和 65B参数的模型。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 万亿个 tokens 上训练,而最小的模型 LLaMA 7B 也经过了 1 万亿个 tokens 的训练。

从LLaMA相关的论文来看,13B的模型已经优于Chatgpt3,当然,不是说参数越多结果就越好的。

LLaMA对比Chatgpt3有个很大的缺陷,它没有经过指令微调和RLHF(Reinforcement Learning from Human Feedback),即,使用强化学习的方法,利用人类反馈信号直接优化语言模型,所以LLaMA的实际表现并不如意。

大家使用Chatgpt3的时候,它能回答得如此全面,符合人类的问答方式,并不是天生的,更何况训练的数据也是良莠不齐的。

Chatgpt3模型的训练大概分为三个流程:预训练、强化学习、反馈和激励。

一开始的预训练相当于把所有的训练数据都填给它,让它可以掌握人类史上所有的学习资料。但这个时期的模型,你问它任何东西,包括那些违法犯罪、色情暴力等,它都会机械式的回答给你,而这个回答也是会良莠不齐,长短不一。

强化学习的过程,是为了学习标准的回答模板,让它学习到更符合人类习惯的问答方式,比如说起名,它都是给你好几个,列出每个名字的含义,这是训练出来的。

反馈和激励,简单理解就是根据回答的内容,进行赏罚,比如说回答了一些敏感信息,那就要告诉模型,这个回答不好,回答的优质的,也要告诉模型这个是回答是好的。

所以chatgpt也是经过人工不断优化和调整出来的,不是一开始就这么强大,从这也能看到,为什么chatgpt的门槛这么高,不仅是算力要求高,后期的反馈和激励训练是需要人工花很多时间的。

回到我们刚才说的LLaMA模型,LLaMA-13B的性能优于GPT-3,而体积却小了10倍以上,虽然体积小了这么多,需要的算力依然不低。

当训练一个65B参数的模型时,LLaMA在2048个A100 GPU(单张A100 售价10万以上,还没有现货)和80GB的内存上处理大约380个token/秒/GPU,也就是说训练1.4T token的数据集大约需要21天。

此外,LLaMA预训练的数据几乎没有包含中文语料,所以LLaMA的中文问答能力是很差的。

二. Alpaca

github地址:

https://github.com/tatsu-lab/stanford_alpaca

Star: 18.4K.

Alpaca翻译过来叫羊驼,也就是神兽"草泥马",这是斯坦福大学开源的类 ChatGPT模型,它基于 LLaMA-7B 和指令微调,仅使用约 5 万条训练数据,就能达到类似 GPT-3.5 的效果。

这个训练的成本很低,斯坦福团队花了不到500美元,它利用OpenAI提供的GPT模型API生成质量较高的指令数据(仅52k),比如下面这种:

基于这些指令数据使用HuggingFace Transformers框架精调LLaMA-7B模型,简单说就是让GPT-3.5自己教出一个旗鼓相当的对手AI。

还记得我们上面说到的chatgpt3训练要经过预训练、强化学习和反馈学习三个步骤吧,LLaMA只有预训练的过程,而Alpaca相当于是用了LLaMA预训练完的模型,剩下需要人工的训练都通过gpt3.5来完成,所以Alpaca的表现看起来就和gpt3一样。

不得不说这种操作还是很6的,曲线救国,这样玩能把大模型的成本压得很低,门槛瞬间降低了。

但是因为它的训练数据只有英文,所以对中文的支持并不友好。

三. Vicuna

github地址:

https://github.com/lm-sys/FastChat

Star: 9.7K.

Vicuna意思是小羊驼,从名字也可以看出,它是基于LLaMA和Alpaca的。

Vicuna是基于LLaMA-13B模型的,Vicuna-13B 通过微调 LLaMA 实现了高性能的对话生成。这一点和斯坦福之前的 Alpaca 模型类似,但 Vicuna 比 Alpaca 的生成质量更好,速度也更快。

Vicuna借鉴了 Meta LLaMA 和 Stanford Alpaca 项目的思路,利用来自 ShareGPT 的用户共享数据进行学习。

ShareGPT 可以说是 AI 领域的一个宝藏网站,上面有许多用户上传的有趣而又有价值的 ChatGPT 回答,而 Vicuna 就是通过这些分享数据得以更加精准地进行推理和回答的。

顺便提一下,虽然据说谷歌的 Bard 也曾使用 ShareGPT 的数据,但 Vicuna 有着完全不同的使用宗旨,其研究团队明确强调 Vicuna 绝对不能用于任何商业目的。

从这个角度来看,Vicuna相当于升级版的Alpaca,Alpaca用的指令数据只有52K,而Vicuna用的ShareGPT的数据则更加丰富。

当然,不只是训练数据更加丰富,Vicuna在内存优化(比如最大上下文长度从 512 扩展到 2048),多轮对话、降低成本方面也是做了很多工作,这里就不一一展开了。

在评测 Vicuna 的性能时,研究团队并不采用传统的「标准化考试」方式,而是从一些非常实用的场景出发,让GPT-4 当「考官」,看Vicuna-13B 相比于其他基线模型的表现。结果令人振奋——超过 90% 的问题中,GPT-4 倾向于选择 Vicuna 的回答,同时 Vicuna 在总分上还达到了 ChatGPT 的 92%。

这意味着 Vicuna 已经远远超越了当前最先进的 LLaMA、Alpaca 开源模型,在对话中展现出了更高的变通能力和准确度,理论上来说,这种方法只要训练的数据足够多,它是可以无限接近于chatgpt的。

值得一提的是,研究团队认为传统的标准化测试并不能真正测出模型的变通能力,而他们采用的这种方式更贴合实际应用场景,可见其极具前瞻性和实用性。

目前来看,Vicuna综合下来的训练成本是最低的,只要300美元,而性能可以达到chatgpt4的92%,还是很有意思的。

四.ColossalChat

github地址:

https://github.com/hpcaitech/ColossalAI

star:27.1K

Colossal-AI 是当下最火热的开源 AI 大模型解决方案之一,虽然它也是基于LLaMA模型,但它率先建立了一个完整的 RLHF 流程,包括监督数据集收集、监督微调、奖励模型训练和强化学习微调等步骤,是目前最接近 ChatGPT 原始技术方案的开源项目!

ColossalChat 不需要成百上千亿的参数,只需在大语言模型的基础上进行 RLHF 微调,就能拥有类似于 ChatGPT 和 GPT-3.5 的效果,并且有中英双语能力。

ColossalChat不像Alpaca和Vicuna,它是利用自己的数据,完整地实现了RLHF。

ColossalChat 的团队推出了一份中英双语数据集,该数据集包含约 10 万条问答,并通过 self-instruct 技术进行数据扩充,使得数据集更加丰富和真实。和其他 self-instruct 方法相比,这个数据集的种子数据覆盖的话题也更广泛,可以同时用于微调和 RLHF 训练,使得 ColossalChat 能够做到更好的对话交互,同时支持中文。

这说明 ColossalChat 的研究团队非常注重数据集的质量和多样性,以此来提高机器的言语理解和表达能力。通过这个数据集,它不仅具备了更丰富的话题和内容,也为中文语境下的 AI 对话系统提供了更好的支持。

这个开源模型对于理解chatgpt整个训练过程还是很有帮助的,但要个人直接上手还是有难度的,而且训练的成本也不低。

五.LMFlow

github地址:

https://github.com/OptimalScale/LMFlow

Star:3.5K

这个模型的热度和人气都不及上面几个模型,但是它是少有的国人开源的这类模型,它的发起机构是香港科技大学统计和机器学习实验室团队,他们致力于建立一个全开放的大模型研究平台。

这个开放平台能够支持各种机器学习实验,并在有限的机器资源下提高数据利用方式和算法效率,以更高的效率进行大规模模型的训练。

每个人都可以用尽量少的资源来训练一个专有领域的、个性化的大模型,这是该团队的愿景。

在 LMFlow 的加持下,即便是有限的计算资源,也能够针对专有领域进行个性化训练,基于流水线技术的神经网络训练框架,它可以高效地处理大规模语言模型的训练。

具体来说,通过利用 70 亿参数的 LLaMA,只需要 1 张 NVIDIA 3090 GPU 和 5 个小时的训练时间,就可以成功地训练出一个适用于自己专有领域的个性化 GPT 模型,并且可以轻松地在网页上部署。

如果使用更多资源对更大的 LLaMA-33b 模型进行微调,可以大幅提高回答的质量。

在这个框架的支持下,开源库作者们已经成功地训练了一个 330 亿参数的 LLaMA 中文版,并且已经开源了模型权重用于学术研究,让更多人可以受益于这个技术。

如果是在特定的专家领域中,例如医疗领域,只需要微调 6 个 A100 * 天,就可以获得和 ChatGPT 相同甚至更好的效果。相比之下,ChatGPT 模型的参数量高达 1750 亿,而通过微调后的最小模型规模仅仅是 ChatGPT 的约 1/20,大大节省了计算资源的使用。

github上也有中文文档,上手起来也是比较快的,感兴趣的可以试试。

总结

LLaMA模型是这类开源模型的鼻祖,很多模型都是基于此进行二次开发、微调、优化、训练等,但对中文支持并不友好。

Alpaca和Vicuna用了LLaMA的模型,利用gpt3.5来帮助原有的模型进行RLHF,理论上,用这种方式,不断迭代进行训练,可以无限接近于chatgpt本身。Vicuna目前也是成本很低的一种模型,很适合个人开发和训练。

ColossalChat没有用chatgpt来训练,而是利用自己的数据进行RLHF,严格来说,它才是真正复刻了chatgpt完整的训练过程。

LMFlow是国人开源的模型,也是使用了LLaMA模型,能加速训练速度。

感兴趣的朋友可以选择性地去试试那几个模型。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/5293.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

从ChatGPT到大模型

AIGC AIGC1. 关于ChatGPT2. 关于大模型模型即服务。现在大模型的两种:大模型发展趋势:大模型作用:大模型核心: 3. 要复现一个ChatGPT需要的资源支持?4. ChatGPT的局限性5. 类ChatGPT 未来的发展ChatGPT 体现的通用性&…

让ChatGPT在中断回答的时候自动输入「请接上文继续」并发送

一、脚本内容 让ChatGPT在中断回答的时候自动输入「请接上文继续」并发送 // UserScript // name ChatGPT自动接上文继续 // namespace http://tampermonkey.net/ // version 1.3 // description 让ChatGPT在中断回答的时候自动输入「请接上文继续」并发送 /…

ChatGPT流式输出实现原理

在使用ChatGPT时,模型的回复内容是一个字一个字蹦出来的,而不是整段话直接出现,因为模型需要不断预测接下来要回复什么内容,如果等整段回复生成之后再输出到网页,用户体验就会很差,一直以为这种流式输出效果…

利用 ChatGPT 回答 R 相关问题

最近小编也尝试使用了 ChatGPT,下面给出一些知乎上常见 R 语言相关问题的回答。供大家参考: 目录 文章目录 目录经典问题预测数据科学软件排名数据科学的 10 个常用 R 包R 语言入门书籍和网站推荐回答专业问题 绘图绘制正负柱状图动态散点图 构建 Shiny…

Chatgpt易语言版本Chatgpt直接用

Chatgpt易语言版本 Chatgpt易语言版本 Chatgpt易语言版本 直接上代码 主要核心代码如下 .版本 2.子程序 功能_网页访问, 文本型, , 本命令由【精易网页调试助手】生成,请配合精易模块使用。 .局部变量 局_网址, 文本型 .局部变量 局_方式, 整数型 .局部变量 局_提…

笔记本电脑部署本地离线版类似ChatGPT3.5的AI模型(CPU+内存运行)

准备工作 如果通过GPU来运行,一般办公电脑的显卡可能达不到所需的要求,所以,可以通过CPU内存的方式花最低的代价来部署一套本地运行AI的模型。 1、首先下载CPU-Z,运行看一下电脑当前的指令集是否包含AVX512,非AVX512…

一条指令打开ChatGPT开发者模式

大家好,我是Ai 11社长。 对于ChatGPT冷漠刻板的回答,大家应该都腻了吧,试试这个。 这个类似小红书的回答满意不?在ChatGPT开发者模式下就能得到这样的回复。 怎么打开开发者模式呢?指令如下: Ignore all th…

低成本复制 ChatGPT 训练流程,仅需 1.68GB GPU 即可使用,方法现已开源!

编译 | 屠敏 出品 | CSDN(ID:CSDNnews) 当昨日我们还在讨论从大厂以及个人创业的角度来看,复制一家 OpenAI 和一款强大的 ChatGPT 可行性究竟有几成之际,苦于 OpenAI 并未将 ChatGPT 开源出来,所以这趟水究…

【uni-app】微信小程序开发 node_modules 模块丢失问题

解决问题 重要的问题说三遍!!! 解决 HBuilderX 打包 uni-app 项目到微信小程序时,node_modules 文件夹丢失问题。 解决 HBuilderX 打包 uni-app 项目到微信小程序时,node_modules 文件夹丢失问题。 解决 HBuilderX 打包…

element-ui 实现对话框

使用element-ui实现弹框 <!-- 弹窗 --><el-dialog title"New Ticket" :visible.sync"true" width"50%"> //:visible.sync"true"&#xff1a;一般设置一个变量来保存&#xff0c;true为打开,false为关闭<el-divider>…

拥抱AI大模型之美,帮你探索OpenAI大语言模型的能力(基础实战篇)

说明:本文主要是通过一些小的案例,让你体验一下OpenAI提供的一些API,如果你连ChatGPT和OpenAI是什么都不知道,那么这篇文章可能不适合你,你可以划走了. 环境准备: 01.准备账号和APIKey 首先要注册一个ChatGPT账号,账号注册完成之后&#xff0c;打开地址: https://platform.…

手握数据智能密钥,诸葛智能打开数字化经营“三重门”

科技云报道原创。 如果说上世纪传统麦迪逊大街上的“广告狂人”吸金立足之本&#xff0c;还主要是基于“Big Idea”的话&#xff0c;那么在当下&#xff0c;数据正在成为企业营销和运营的金矿。 这是一个“人与机器共同进化”的时代&#xff0c;技术作为延伸人类感觉的媒介之…

AI大模型,驶向产业何方?

技术更迭&#xff0c;已不是壁垒&#xff0c;国产式AI需要的是产品的创新思维&#xff0c;以及对需求的产品变现能力。 作者|斗斗 出品|产业家 “AI炒了那么多年&#xff0c;第一次感觉它真的要来了。”国内某论坛中&#xff0c;带有ChatGPT的词条下&#xff0c;几乎都会出…

重磅!马云回来了,聊了ChatGPT

编辑&#xff1a;米丽萍&#xff0c;余心丰&#xff0c;来源&#xff1a;正和岛 转自&#xff1a;Datawhale 图注&#xff1a;马云今日在云谷学校&#xff0c;图片来源&#xff1a;云谷教育 马云&#xff0c;回国了。 3月27日&#xff0c;据《科创板日报》报道&#xff0c;近日…

新媒体人打开 ChatGPT 的正确姿势

最近互联网讨论最多的话题&#xff0c;莫过于 ChatGPT。 虽然它是一个聊天机器人&#xff0c;但能模拟人的语气和用户聊天&#xff0c;并且通过不断地学习、理解进一步优化回答。 自去年11月发布以来&#xff0c;ChatGPT 便在全球引起了一时的轰动&#xff0c;发布仅五天&…

我做了第一个ChatGPT .net api聊天库

我做了第一个ChatGPT .net api聊天库 最近这个ChatGPT很火啊&#xff0c;看了B站上很多视频&#xff0c;自己非常手痒&#xff0c;高低自己得整一个啊&#xff0c;但是让我很难受的是&#xff0c;翻遍了github前十页&#xff0c;竟然没有一个C#的ChatGPT项目&#xff0c;我好…

ChatGPT想干掉开发人员,做梦去吧

很多人都发现ChatGPT可以做一些代码相关的工作&#xff0c;不仅可以写一些基础的类似python、java、js的代码段&#xff0c;还可以做一定量的调优&#xff0c;于是就开始担忧起来&#xff0c;到哪天我的开发工作会不会被ChatGPT这个工具给取代了&#xff1f; 目录 1. ChatGPT…

从零开发基于chatGPT的社区交友系统 (前后端分离)丨环境配置 01

01 环境配置 项目介绍安装配置Node.js下载安装配置淘宝镜像 安装vue脚手架(vue-cli)可视化创建vue项目运行vue项目 总结 项目介绍 本项目是一个基于ChatGPT人工智能技术开发的社区社交类应用程序。我们致力于为用户提供高质量的社区社交体验&#xff0c;让您的社交生活更加丰富…

无法连接到 reCAPTCHA,请检查您的网络连接

无法连接到 reCAPTCHA,请检查您的网络连接 https://www.pianshen.com/article/42341046536/ 浏览器&#xff1a;Chrome 电脑版 无法连接到 reCAPTCHA,请检查您的网络连接 第一步 安装Header Editor 插件 点击右侧蓝色按钮 后 &#xff0c;如图所示就可以了 第二步 配置插…

使用Python调用ChatGPT

import openai # Set up the OpenAI API client openai.api_key "你的KEY" # Set up the model and prompt model_engine "ada" prompt input(请输入字符串&#xff1a;) # Generate a response completion openai.Completion.create( enginemodel_eng…