一网打尽!国内外大模型调研汇总

format,png

作者 | guolipa 

整理 | NewBeeNLP

https://zhuanlan.zhihu.com/p/614766286

大家好,这里是 NewBeeNLP。

自从ChatGPT出现之后,各种大语言模型是彻底被解封了,每天见到的模型都能不重样,几乎分不清这些模型是哪个机构发布的、有什么功能特点、以及这些模型的关系。比如 GPT-3.0 和 GPT 3.5 就有一系列的模型版本和索引,还有羊驼、小羊驼、骆驼 ......

cd39cefdff8786344f67b97aa2d3c5b1.gif

于是浅浅的调研了一下比较有名的大语言模型,主要是想混个脸熟,整理完之后就感觉清晰多了,又可以轻松逛知乎学习了。

7079935249d22adf954e8f1fdb7835a2.gif

一. Basic Language Model

基础语言模型是指只在大规模文本语料中进行了预训练的模型,未经过指令和下游任务微调、以及人类反馈等任何对齐优化。

3fb9b869edb86944f8cb26370a1d48ee.jpeg

基础 LLM 基本信息表,GPT-style 表示 decoder-only 的自回归语言模型,T5-style 表示 encoder-decoder 的语言模型,GLM-style 表示 GLM 特殊的模型结构,Multi-task 是指 ERNIE 3.0 的模型结构

  • 当前绝大部分的大语言模型都是 Decoder-only 的模型结构 ,原因请转移这个问题:为什么现在的LLM都是Decoder only的架构[1]

  • 大部分大语言模型都不开源 ,而 OPT、BLOOM、LLaMA 三个模型是主要面向开源促进研究和应用的,中文开源可用的是 GLM,后续很多工作都是在这些开源的基础模型上进行微调优化的。

T5[2]

T5 是谷歌提出了一个统一预训练模型和框架,模型采用了谷歌最原始的 Encoder-Decoder Transformer结构。 T5将每个文本处理问题都看成“Text-to-Text”问题 ,即将文本作为输入,生成新的文本作为输出。通过这种方式可以将不同的 NLP 任务统一在一个模型框架之下,充分进行迁移学习。

为了告知模型需要执行的任务类型,在输入的文本前添加任务特定的文本前缀 (task-specific prefifix ) 进行提示,这也就是最早的 Prompt。也就说可以用同样的模型,同样的损失函数,同样的训练过程,同样的解码过程来完成所有 NLP 任务。

T5 本身主要是针对英文训练,谷歌还发布了支持 101 种语言的 T5 的多语言版本 mT5[3]

578e5e37f734e448d97d58bfc238e105.jpeg

GPT-3[4]

大语言模型中最具代表和引领性的就是发布 ChatGPT 的 OpenAI 的 GPT 系列模型 (GPT-1、GPT-2、GPT-3、GPT-3.5、GPT-4),并且当前大部分大语言模型的结构都是 GPT-style ,文章生成式预训练模型[5]中介绍了GPT-1/2/3, 且从 GPT-3 开始才是真正意义的大模型。

GPT-3 是 OpenAI 发布的 GPT 系列模型的一个,延续了 GPT-1/2 基于Transformer Decoder 的自回归语言模型结构,但 GPT-3 将模型参数规模扩大至 175B , 是 GPT-2 的 100 倍,从大规模数据中吸纳更多的知识。

GPT-3不再追求 zero-shot 的设定,而是 提出 In-Context Learning ,在下游任务中模型不需要任何额外的微调,利用 Prompts 给定少量标注的样本让模型学习再进行推理生成 。就能够在只有少量目标任务标注样本的情况下进行很好的泛化,再次证明大力出击奇迹,做大模型的必要性。

通过大量的实验证明,在 zero-shot、one-shot 和 few-shot 设置下,GPT-3 在许多 NLP 任务和基准测试中表现出强大的性能,只有少量目标任务标注样本的情况下进行很好的泛化,再次证明大力出击奇迹,做大模型的必要性。

8a853eaacd95b3a11f006bccdf52f2e4.jpeg

LaMDA[6]

LaMDA 是谷歌在2021年开发者大会上公布的专用于对话的大语言模型,具有 137B 个参数。论文中提出三个指导模型更好训练的指标: 质量/Quality(合理性/Sensibleness、特异性/Specificity、趣味性/Interestingness,SSI)、安全性/Safety、真实性/Groundedness

和其他大模型一样,LaMDA分为预训练和微调两步,在微调阶段,生成式任务(给定上下文生成响应)和判别式任务(评估模型生成响应的质量和安全性)应用于预训练模型进行微调形成 LaMDA。对话期间,LaMDA 生成器在给定多轮对话上下文时生成几个候选响应,然后 LaMDA 判别器预测每个候选响应的 SSI 和安全分数。安全分数低的候选响应首先被过滤掉,剩下的候选响应根据 SSI 分数重新排名,并选择分数最高的作为最终响应。为提升 LaMDA 生成响应的真实可靠性,收集标注用户与 LaMDA 间对话的数据集,并在适用的情况下使用检索查询和检索结果进行注释。然后,在这个数据集上微调 LaMDA,学习与用户交互期间调用外部信息检索系统,提升生成响应的真实可靠性。

7e651fb0560dbdf6c7f0aacfc420b8dc.jpeg

Jurassic-1[7]

Jurassic-1 是以色列的 AI 公司 AI21 Labs 发布的一对自回归语言模型,由 178B 参数模型 J1-Jumbo 和 7B 参数模型 J1-Large 组成,大致对应 GPT-3 175B 和 GPT-3 6.7B 两个模型。

该模型主要对标 GPT-3,在数据补全、零样本学习和少样本学习方面对模型进行了评估,Jurassic-1 模型可以预测来自比 GPT-3 更广泛的领域的文本(网络、学术、法律、源代码等),在零样本条件中实现可比的性能,并且少样本性能优于 GPT-3,因为他们能够将更多示例放入prompt中。

MT-NLG[8]

Megatron-Turing NLG (MT-NLG) 是由 Microsoft 和 NVIDIA 共同研发的大语言模型,具有 530B 个参数,是 GPT-3 的三倍多,MT-NLG 在多个 benchmarks 中实现了非常好的零、一和少量样本学习性能。

研究认为训练如此大的语言模型有两个挑战,

  • 一是 存储高效性 ,将模型参数全部拟合到及时最大GPT的内存中已不再可能;

  • 二是 计算高效性 ,若不同时优化算法、软件和硬件堆栈,所需的大量计算操作可能会导致不切实际的长训练时间;

需要 在内存和计算上都可扩展的高效并行技术,以充分发挥数千个 GPU 的潜力 。对此,论文提出了结合了 DeepSpeed 的管道并行和数据并行性以及 Megatron 的张量切片并行的高效且可扩展的 3D 并行软件系统。同时,还介绍了模型高效训练的硬件基础设施,提高训练效率和稳定性。

Gopher[9]

Gopher 是 DeepMind 发布的大语言模型,拥有过 280B 规模的参数。在语言模型和开发过程中,DeepMind 训练了 6 个不同参数规模的系列模型,参数量包括 44M、117M、417M、1.4B、7.1B、280B(Gopher)。这些模型在 152 项不同的任务上进行了评估,在大多数任务中都实现了最先进的性能。阅读理解、事实核查和有毒语言识别等领域性能提升最大,但对于逻辑和数学推理等问题的性能提升较小。

Chinchilla[10]

Chinchilla(龙猫)是 DeepMind 发布的大语言模型,拥有 70B 的参数规模。Chinchilla 的研究主要关注 在给定固定的 FLOPs 预算下,如何权衡模型规模大小和训练tokens的数量规模的问题

在 Chinchilla 之前的一系列大语言模型在扩展模型参数规模的同时保持训练数据量不变,导致计算资源的浪费和大语言模型的训练不足。对于计算成本最优的训练,模型规模大小和训练 tokens 的数量应该同等比例地缩放,模型参数规模的加倍时,训练 tokens 的数量也应该加倍。

基于上述假设训练了计算优化模型 Chinchilla,它与 Gopher 使用相同的计算预算,但具有 70B 的参数和 4 倍多的训练数据。同时,Chinchilla 在大量下游评估任务上一致且显著优于 Gopher (280B)、GPT-3 (175B)、Jurassic-1 (178B) 和 Megatron-Turing NLG (530B)。Chinchilla 使用更少的计算来进行微调和推理,极大地促进了下游使用。

PaLM[11]

PaLM 是谷歌2022年提出的 540B 参数规模的大语言模型,它采用的是 GPT-style 的 decoder-only 的单向自回归模型结构,这种结构对于 few-shot 更有利。

PaLM 是 使用谷歌提出的 Pathways[12] 系统(一种新的 ML 系统,可以跨多个 TPU Pod 进行高效训练)在 6144 块TPU v4 芯片上训练完成 的。

作者在 Pod 级别上跨两个 Cloud TPU v4 Pods 使用数据并行对训练进行扩展,与以前的大多数 LLM 相比,是一个显著的规模增长。PaLM 实现了 57.8% 的硬件 FLOPs 利用率的训练效率,是 LLM 在这个规模上实现的最高效率。PaLM 在数百种语言理解和生成 benchmarks 上实现最先进的few-shot 学习结果,证明了scaling 模型的好处。在其中的许多任务中,PaLM 540B 实现了突破性的性能,在一组多步推理任务上的表现优于经过微调的 SOTA 模型。并且大量 BIG-bench 任务显示了模型规模的扩大带来性能的不连续提升,当模型扩展到最大规模,性能急剧提高。

0db9800073bfc43e011f2d7ddfe7c135.jpeg

U-PaLM[13]

由于扩大语言模型可以提高性能,但会带来巨大的计算成本。谷歌提出 UL2R 方法, 在几乎可以忽略不计的额外计算成本和没有新数据的情况下,使用原始的预训练数据继续训练 PaLM 模型 ,能够显着改善大语言模型在下游指标上的扩展特性。

使用 UL2R 训练 PaLM,引入了一组 8B、62B 和 540B 规模的新模型,称为 U-PaLM。在 540B 规模下,实现了大约 2 倍的计算节省率,其中 U-PaLM 以大约一半的计算预算实现了与最终 PaLM 540B 模型相同的性能,并且在在许多小样本条件上性能优于 PaLM。

UL2[14] 连接了生成语言模型和双向语言模型,它提出了混合降噪器目标,在同一模型中混合前缀(非因果)语言建模和填充(跨度损坏),并利用模式提示(mode prompts)在下游任务期间切换模式。

OPT[15]

OPT 是由 Meta AI 研究人员发布的一系列大规模预训练语言模型,模型包括125M、350M、1.3B、2.7B、6.7B、13B、30B、66B、175B 9个不同的参数规模和版本,除了 175B 的版本需要填写申请获取外,其它规模版本的模型都完全开放下载,可以免费获得。

OPT-175B 和 GPT-3 的性能相当,并且部署只需要损耗 GPT-3 1/7 的能量损耗。 OPT 系列模型开源的目的是为促进学术研究和交流 ,因为绝大多数大语言模型训练成本高昂,导致大部分研究人员都无法负担大语言模型的训练或使用;同时,各大企业发布的大语言预训练模型由于商业目的也都无法完整访问模型权重,只能通过 API 调用获取结果,阻碍了学术的交流与研究。

  • Github:metaseq/projects/OPT at main · facebookresearch/metaseq[16]

  • GitHub - facebookresearch/metaseq: Repo for external large-scale work[17]

LLaMA[18]

LLaMA 是 Meta AI 发布的包含 7B、13B、33B 和 65B 四种参数规模的基础语言模型集合,LLaMA-13B 仅以 1/10 规模的参数在多数的 benchmarks 上性能优于 GPT-3(175B),LLaMA-65B 与业内最好的模型 Chinchilla-70B 和 PaLM-540B 比较也具有竞争力。

这项工作重点关注 使用比通常更多的 tokens 训练一系列语言模型,在不同的推理预算下实现最佳的性能,也就是说在相对较小的模型上使用大规模数据集训练并达到较好性能 。Chinchilla 论文中推荐在 200B 的 tokens 上训练 10B 规模的模型,而 LLaMA 使用了 1.4T tokens 训练 7B的模型,增大 tokens 规模,模型的性能仍在持续上升。

  • Github:https://github.com/facebookresearch/llama[19]

BLOOM[20]

BLOOM 是 BigScience(一个围绕研究和创建超大型语言模型的开放协作研讨会)中数百名研究人员合作设计和构建的 176B 参数开源大语言模型,同时,还开源了BLOOM-560M、BLOOM-1.1B、BLOOM-1.7B、BLOOM-3B、BLOOM-7.1B 其他五个参数规模相对较小的模型。

BLOOM 是一种 decoder-only 的 Transformer 语言模型,它是在 ROOTS 语料库上训练的,该数据集包含 46 种自然语言和 13 种编程语言(总共 59 种)的数百个数据来源。实验证明 BLOOM 在各种基准测试中都取得了有竞争力的表现,在经过多任务提示微调后取得了更好的结果。BLOOM 的研究旨在针对当前大多数 LLM 由资源丰富的组织开发并且不向公众公开的问题, 研制开源 LLM 以促进未来使用 LLM 的研究和应用

a9ba050da1d18e50311ca46df4ed4ddd.jpeg
  • Transformers:https://huggingface.co/bigscience[21]

GLM-130B[22]

GLM-130B 是清华大学与智谱AI共同研制的一个开放的双语(英汉)双向密集预训练语言模型,拥有 1300亿个参数,使用通用语言模型(General Language Model, GLM[23])的算法进行预训练。

2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测, GLM-130B 是亚洲唯一入选的大模型 。GLM-130B 在广泛流行的英文基准测试中性能明显优于 GPT-3 175B(davinci),而对 OPT-175B 和 BLOOM-176B 没有观察到性能优势,它还在相关基准测试中性能始终显著优于最大的中文语言模型 ERNIE 3.0 Titan 260B。GLM-130B 无需后期训练即可达到 INT4 量化,且几乎没有性能损失;更重要的是,它能够在 4×RTX 3090 (24G) 或 8×RTX 2080 Ti (11G) GPU 上有效推理,是使用 100B 级模型最实惠的 GPU 需求。

c063bd21d098aaf9fcd373b4cfc0593d.jpeg

GLM 预训练方式:自回归的空白填充,并通过 GLM 通过添加 2D 位置编码和打乱片段顺序来改进空白填充预训练

  • Github:https://github.com/THUDM/GLM-130B[24]

ERNIE 3.0 Titan[25]

ERNIE 3.0[26] 是百度发布的 知识增强的预训练大模型 ,参数规模为 10B。ERNIE 实现了 兼顾自然语言理解和自然语言生成的统一预训练框架 ,使得经过训练的模型可以通过零样本学习、少样本学习或微调轻松地针对自然语言理解和生成任务进行定制。

75a9410931a4a0591a433e3c59177fb8.jpeg

ERNIE 3.0 模型框架:模型包括统一表示模块(Universal Representation Module) 和 两个任务特定的表示模块(Task-specific Representation Modules),即自然语言理解(NLU)表示模块和自然语言生成表示模块(NLG)

ERNIE 3.0 Titan 是百度与鹏城实验室发布的目前为止 全球最大的中文单体模型 ,它是ERNIE 3.0的扩大和升级,模型参数规模达到 260B,相对GPT-3的参数量提升50%。

此外,在预训练阶段还设计了一个自监督的对抗性损失和一个可控的语言建模损失,使 ERNIE 3.0 Titan 生成可信和可控的文本(Credible and Controllable Generations)。

为了减少计算开销,ERNIE 3.0 Titan 提出了一个在线蒸馏框架,教师模型将同时教授学生模型和训练自己以更高效地利用计算资源。ERNIE 3.0 Titan 在 68 个 NLP 数据集上的表现优于最先进的模型。

二. Instruction-Finetuned Language Model

这里的 Instruction[27] (指令)是指通过自然语言形式对任务进行描述

如下图所示,对于翻译任务,在对需要翻译的句子 "I Love You." 前加入任务指令 "Translate the given English utterance to French script." 告诉模型要执行的任务和要求。这种方式符合模型生成的工作模型,最重要的是对于未知任务具有较好的 zero-shot 性能表现。通过将各种不同的任务转化为指令数据形式,对语言模型进行进一步微调。

531e8ce1e66aa9325065fe321abce388.jpeg
Instruction-tuning示例

下表为经过 Instruction 微调的大模型,他们几乎都是在基础语言模型基础上进行指令微调、人类反馈、对齐等优化操作。

004c87b6395676ce42ff48e12fd9efc3.jpeg
指令微调大模型基本信息
a8d744892f7ff66cf1af41c4b80dcd8e.jpeg

T0[28]

T0 是由 Hugging Face 牵头联合 42 位研究人员研发的一个基于 T5 模型在大规模多任务数据集上进行微调得到的模型。该研究的目的是在不需要大幅度扩大模型规模情况下引导模型更好地泛化到未知任务(zero-shot 性能),并且对 prompts 的措辞表达选择与变化更加稳健。

研究开发了一个可以将任何自然语言任务映射到人类可读的 prompt 形式的系统, 并转换了大量有监督的数据集,每个数据集都有多个 prompt 和不同的措辞,在这个涵盖各种任务的多任务数据上微调 encoder-decoder 结构的 T5 模型。T0 在多个标准数据集上 zero-shot 性能大幅度超越比其大 16 倍的 GPT-3 模型。

6d0fe76629b216e484d0b739e71e8a86.jpeg

FLAN[29]

FLAN 是谷歌在 LaMDA 137B 模型基础上进行进一步的指令微调(Instruction tuning)得到的模型, 通过指令微调提高语言模型在未知任务上的 zero-shot 性能和泛化能力 。zero-shot 实验中 FLAN 在评估的 25 个数据集中的 20 个上超过了 GPT-3 175B。FLAN 在 ANLI、RTE、BoolQ、AI2-ARC、OpenbookQA 和 StoryCloze 上的表现甚至大大优于 few-shot GPT-3。论文的消融实现表明,微调数据集的数量、模型规模和自然语言指令是指令微调成功的关键。

3cf7845f6af4781be45ff164d93bd544.jpeg

Flan-LM[30]

Flan-LM 是谷歌在其已有的 T5、PaLM、U-PaLM 基础模型基础上利用指令 (Instruction) 数据集微调的一系列语言模型,包括 Flan-T5 (11B)、Flan-PaLM (540B)、Flan-U-PaLM (540B),在指令数据集上微调语言模型可以提高模型性能以及对未知任务的泛化能力。该工作主要 通过扩大模型规模和微调任务数量来研究指令微调 scaling 的效果 , 通过整合 Muffiffiffin(80 tasks)、T0-SF(193 tasks)、NIV2(1554 tasks)、CoT (9 tasks) 四个之前的工作将指令微调任务扩大到 1,836 个,同时对 CoT 数据进行微调提升模型的逻辑推理能力。实验证明,指令微调可以显著提高预训练语言模型性能和可用性的通用方法,以及各种提示设置(零样本、少样本、CoT)和评估基准性能,例如,在 1.8K 任务上微调的 Flan-PaLM 540B 指令大大优于 PaLM 540B(平均 +9.4%),并在多个基准测试中实现了最先进的性能。

c2583fd1d96d05f2907cdc3eaccf5516.jpeg

BLOOMZ \& mT0[31]

上述 T0 和 FLAN 等指令微调模型证明了多任务提示微调 (MTF) 可以帮助大模型在 zero-shot 条件下泛化到新任务,并且对 MTF 的探索主要集中在英语数据和模型上。

Hugging Face 将 MTF 应用于预训练的多语言 BLOOM 和 mT5 模型系列 ,发布了称为 BLOOMZ 和 mT0 的指令微调变体。研究实验中发现在具有英语提示的英语任务上微调多语言大模型可以将任务泛化到仅出现在预训练中的非英语任务;使用英语提示对多语言任务进行微调进一步提高了英语和非英语任务的性能,实现各种最先进的 zero-shot 结果;论文还研究了多语言任务的微调,这些任务使用从英语翻译的提示来匹配每个数据集的语言,实验发现翻译的提示可以提高相应语言的人工提示的性能。实验还发现模型能够对它们从未见过的语言任务进行零样本泛化,推测这些模型正在学习与任务和语言无关的更高级别的能力。

GPT-3.5[32]

GPT-3.5 是从 GPT-3 演化来的一些列模型,如下图所示,从初始的 GPT-3 到 GPT-3.5 再到 ChatGPT 是经过了一些列的优化和演进。图片来源:ChatGPT进化的秘密[33] 和 拆解追溯 GPT-3.5 各项能力的起源[34],参考文章整理了以下 GPT-3.5 的演化过程。

  • 2020年7月,发布GPT-3 ,最原始的 GPT-3 基础模型主要有 davinci、curie、ada 和 babbage 四个不同版本,其中 davinci 是功能最强大的 ,后续也都是基于它来优化的;

  • 2021年7月,发布Codex[35],在代码数据上对 GPT-3 微调得到,对应着 code-davinci-001 和 code-cushman-001 两个模型版本;

  • 2021年3月,发布 InstructGPT[36] 论文,对 GPT-3 进行指令微调 (supervised fine-tuning on human demonstrations) 得到 davinci-instruct-beta1 模型;在指令数据和经过标注人员评分反馈的模型生成样例数据上进行微调得到 text-davinci-001, InstructGPT 论文中的原始模型对应着 davinci-instruct-beta;

  • 2021年6月,发布 code-davinci-002 ,是功能最强大的 Codex 型号,在文本和代码数据上进行训练,特别擅长将自然语言翻译成代码和补全代码;

  • 2021年6月,发布 text-davinci-002, 它是在code-davinci-002 基础上进行有监督指令微调得到;

  • 2021年11月,发布 text-davinci-003 和 ChatGPT[37] , 它们都是在 text-davinci-002 基础上利用人类反馈强化学习 RLHF 进一步微调优化得到。

712ebf83bb8b924f9f9428f8f6e7dbff.jpeg

ChatGPT[38]

ChatGPT 是在 GPT-3.5 基础上进行微调得到的,微调时使用了从 人类反馈中进行强化学习的方法(Reinforcement Learning from Human Feedback,RLHF) 。这里的人类反馈其实就是人工标注数据,来不断微调 LLM,主要目的是 让LLM学会理解人类的命令指令的含义 (比如文生成类问题、知识回答类问题、头脑风暴类问题等不同类型的命令),以及让LLM学会判断对于给定的prompt输入指令(用户的问题) ,什么样的答案输出是优质的 (富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等多种标准)。

其实从 GPT-1到 GPT-3.5 可以发现更大的语言模型虽然有了更强的语言理解和生成的能力,但并不能从本质上使它们更好地遵循或理解用户的指令意图。例如,大型语言模型可能会生成不真实、有害或对用户没有帮助的输出,原因在于这些语言模型预测下一个单词的训练目标与用户目标意图是不一致的。为了对齐语言模型于人类意图,ChatGPT展示了一种途径,可以引入人工标注和反馈,通过强化学习算法对大规模语言模型进行微调,在各种任务上使语言模型与用户的意图保持一致,输出人类想要的内容。

93cc39ffdfcc79689a39e91786e7e08d.jpeg

GPT-4[39]

GPT-4 是 OpenAI 继 ChatGPT 之后发布的一个大规模的多模态模型,之前的 GPT 系列模型都是只支持纯文本输入输出的语言模型,而 GPT-4 可以接受图像和文本作为输入,并产生文本输出。GPT-4 仍然是基于 Transformer 的自回归结构的预训练模型。OpenAI 的博客中表示在随意的对话中,GPT-3.5 和 GPT-4 之间的区别可能很微妙,当任务的复杂性达到足够的阈值时,差异就会出现,即 GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。虽然在许多现实场景中的能力不如人类,但 GPT-4 在各种专业和学术基准测试中表现出人类水平的表现,包括通过模拟律师考试,得分在应试者的前 10% 左右。和 ChatGPT RLHF 的方法类似,alignment(对齐)训练过程可以提高模型事实性和对期望行为遵循度的表现,具有强大的意图理解能力,并且对 GPT-4 的安全性问题做了很大的优化和提升。

Alpaca[40]

Alpaca(羊驼)模型是斯坦福大学基于 Meta 开源的 LLaMA-7B 模型微调得到的指令遵循(instruction-following)的语言模型。在有学术预算限制情况下,训练高质量的指令遵循模型主要面临强大的预训练语言模型和高质量的指令遵循数据两个挑战,作者利用 OpenAI 的 text-davinci-003 模型以 self-instruct[41] 方式生成 52K 的指令遵循样本数据,利用这些数据训练以有监督的方式训练 LLaMA-7B 得到 Alpaca 模型。在测试中,Alpaca 的很多行为表现都与 text-davinci-003 类似,且只有 7B 参数的轻量级模型 Alpaca 性能可与 GPT-3.5 这样的超大规模语言模型性能媲美。

5b8538e081944615c92fc7b0bf29e101.jpeg
Alpaca训练示意图
  • 博客:https://crfm.stanford.edu/2023/03/13/alpaca.html[42]

  • Github:https://github.com/tatsu-lab/stanford\_alpaca[43]

Alpaca-LoRA[44] 使用 low-rank adaptation \(LoRA\)[45] 重现 Alpaca 的结果,并且能够以一块消费级显卡,在几小时内完成 7B 模型的 fine-turning。

Alpaca 主要支持英文任务,因此许多工作在 Alpaca 基础上进一步训练其他语言的模型,比如,韩语羊 KoAlpaca[46],日语羊驼 Japanese-Alpaca-LoRA[47]。对于中文任务,国内开源了参考 Alpaca 训练方式基于 LLaMA 的 Chinese-Vicuna (小羊驼)模型[48],以及 Luotuo(骆驼): Chinese-alpaca-lora[49]

9497cb877bedeae14728ff57affce4f6.jpeg

ChatGLM[50]

ChatGLM 是清华大学知识工程(KEG)实验室与其技术成果转化的公司智谱AI基于此前开源的 GLM-130B[51] 千亿基座模型研制,是一个初具问答和对话功能的千亿中英语言模型。ChatGLM 参考了 ChatGPT 的设计思路,在千亿基座模型 GLM-130B 中注入了代码预训练,通过有监督微调(Supervised Fine-Tuning)、反馈自助(Feedback Bootstrap)、人类反馈强化学习(Reinforcement Learning from Human Feedback) 等技术实现人类意图对齐。

同时,开源了62 亿参数的 ChatGLM-6B[52],结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存),虽然规模不及千亿模型,但大大降低了用户部署的门槛,并且已经能生成相当符合人类偏好的回答。

  • 博客地址:https://chatglm.cn/blog[53]

ERNIE Bot

EENIE Bot 就是百度的文心一言,基于 ERNIE 系列大模型构建的类 ChatGPT 的对话模型,具体细节不知道...

Bard

Bard 是谷歌基于 LaMDA 研制的对标 ChatGPT 的对话语言模型,目前应该只支持英文对话,限美国和英国用户预约访问,其他未知...

一起交流

想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定o要备注信息才能通过)

format,png

本文参考资料

[1]

为什么现在的LLM都是Decoder only的架构: https://www.zhihu.com/question/588325646/answer/2940298964

[2]

T5: https://arxiv.org/pdf/1910.10683.pdf

[3]

mT5: https://arxiv.org/pdf/2010.11934.pdf

[4]

GPT-3: https://arxiv.org/pdf/2005.14165.pdf

[5]

生成式预训练模型: https://zhuanlan.zhihu.com/p/406751681

[6]

LaMDA: https://arxiv.org/pdf/2201.08239.pdf

[7]

Jurassic-1: https://uploads-ssl.webflow.com/60fd4503684b466578c0d307/61138924626a6981ee09caf6_jurassic_tech_paper.pdf

[8]

MT-NLG: https://arxiv.org/pdf/2201.11990.pdf

[9]

Gopher: https://storage.googleapis.com/deepmind-media/research/language-research/Training%20Gopher.pdf

[10]

Chinchilla: https://arxiv.org/pdf/2203.15556.pdf

[11]

PaLM: https://arxiv.org/pdf/2204.02311.pdf

[12]

Pathways: https://arxiv.org/pdf/2203.12533.pdf

[13]

U-PaLM: https://arxiv.org/pdf/2210.11399.pdf

[14]

UL2: https://arxiv.org/pdf/2205.05131.pdf

[15]

OPT: https://arxiv.org/pdf/2205.01068.pdf

[16]

metaseq/projects/OPT at main · facebookresearch/metaseq: https://github.com/facebookresearch/metaseq/tree/main/projects/OPT

[17]

GitHub - facebookresearch/metaseq: Repo for external large-scale work: https://github.com/facebookresearch/metaseq

[18]

LLaMA: https://arxiv.org/pdf/2302.13971v1.pdf

[19]

https://github.com/facebookresearch/llama: https://github.com/facebookresearch/llama

[20]

BLOOM: https://arxiv.org/pdf/2211.05100.pdf

[21]

https://huggingface.co/bigscience: https://huggingface.co/bigscience

[22]

GLM-130B: https://arxiv.org/pdf/2210.02414.pdf

[23]

General Language Model, GLM: https://github.com/THUDM/GLM

[24]

https://github.com/THUDM/GLM-130B: https://github.com/THUDM/GLM-130B

[25]

ERNIE 3.0 Titan: https://arxiv.org/pdf/2112.12731.pdf

[26]

ERNIE 3.0: https://arxiv.org/pdf/2107.02137.pdf

[27]

Instruction: https://arxiv.org/pdf/2303.10475v2.pdf

[28]

T0: https://arxiv.org/pdf/2110.08207.pdf

[29]

FLAN: https://openreview.net/pdf?id=gEZrGCozdqR

[30]

Flan-LM: https://arxiv.org/pdf/2210.11416.pdf

[31]

BLOOMZ & mT0: https://arxiv.org/pdf/2211.01786.pdf

[32]

GPT-3.5: https://platform.openai.com/docs/models/gpt-3-5

[33]

ChatGPT进化的秘密: https://zhuanlan.zhihu.com/p/593519656?utm_source=zhihu

[34]

拆解追溯 GPT-3.5 各项能力的起源: https://link.zhihu.com/?target=https%3A//yaofu.notion.site/GPT-3-5-360081d91ec245f29029d37b54573756

[35]

Codex: https://arxiv.org/pdf/2107.03374.pdf

[36]

InstructGPT: https://arxiv.org/pdf/2203.02155.pdf

[37]

ChatGPT: https://openai.com/blog/chatgpt

[38]

ChatGPT: https://openai.com/blog/chatgpt

[39]

GPT-4: https://openai.com/research/gpt-4

[40]

Alpaca: https://crfm.stanford.edu/2023/03/13/alpaca.html

[41]

self-instruct: https://arxiv.org/abs/2212.10560

[42]

https://crfm.stanford.edu/2023/03/13/alpaca.html: https://crfm.stanford.edu/2023/03/13/alpaca.html

[43]

https://github.com/tatsu-lab/stanford_alpaca: https://github.com/tatsu-lab/stanford_alpaca

[44]

Alpaca-LoRA: https://github.com/tloen/alpaca-lora

[45]

low-rank adaptation (LoRA): https:///arxiv.org/pdf/2106.09685.pdf

[46]

KoAlpaca: https://github.com/Beomi/KoAlpaca

[47]

Japanese-Alpaca-LoRA: https://github.com/masa3141/japanese-alpaca-lora

[48]

Chinese-Vicuna (小羊驼)模型: https://github.com/Facico/Chinese-Vicuna

[49]

Luotuo(骆驼): Chinese-alpaca-lora: https://github.com/LC1332/Chinese-alpaca-lora

[50]

ChatGLM: https://chatglm.cn/blog

[51]

GLM-130B: https://openreview.net/pdf%3Fid%3D-Aw0rrrPUF

[52]

ChatGLM-6B: https://github.com/THUDM/ChatGLM-6B

[53]

https://chatglm.cn/blog: https://chatglm.cn/blog

ff4b5977e5a87934b77f9af096d8c3aa.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/27472.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

学习笔记借助chatGPT生成excel统计公式

要求:通过Excel公式提取ExcelB列表格中邮箱名称(之前的字符) 知道老板要求后,我们就需要写出对应的提取公式,可是对于Excel公式使用不熟练的人来说,这个公式如何写呢?这时候我们就需要借助chatG…

《辉煌优配》6G技术推进下,CPO引领光通信发展新方向

3月1日,中国工业和信息化部部长金壮龙在国务院新闻办新闻发布会上表明,工信部将研究制定未来产业开展行动计划,加快布局人形机器人、元宇宙、量子科技等前沿范畴,全面推动6G技能研制。2月27日,2023年世界移动通讯大会&…

动态销售看板图表 | 汇总不同部门数据,一键切换部门

背景:公司有五十多个子部门,每个sheet存储着每个部门的所有数据(不sheet表格结构需要保持一致),如果想将每个部门月至今的销售数据做成图表,怎么办?50多个sheet逐一添加图表?当然不&…

12. Excel数据可视化看板--动态销售月报看板

文章目录 1可视化看板作用1.1 形象直观,有利于提高效率1.2 透明度高,便于配合和监督1.3 降低成本,缩短生产周期1.4 传递现场的生产信息,统一思想1.5 杜绝现场管理中的漏洞1.6 绩效考核的公平化、透明化1.7 保证生产现场作业秩序&a…

33、Power Query-统计员工完成业绩的记录

本节通过一个实例来讲解之前的所学的行、列、表的构造。 需求如下图所示,要求:统计实际业绩大于等于计划业绩的数据记录(完成业绩)。 比如第一个员工“休闲海”,他就是这样的好员工,实际业绩大于等于计划业…

【干货】公司年终业绩分析报告,你的数据统计对么?

每年年终或新年伊始,公司管理层都要从各个角度比如部门、产品线等考察公司过去一年的业绩,作为数据分析团队,你需要向管理层准备这样的数据分析报告,而在此过程中,你可能会面临着这样的问题: * 公司的组织…

销售业绩-各区负责人大盘情况PPT汇报

文中业绩数据和人物-纯属虚构,仅供学习参考,不代表任何实际意义。 ----数据来源网上公开脱敏数据集 文章目录 广州各区负责人-销售业绩BI大盘情况一、PPT汇报1.广州-华南大区整体情况 总结 广州各区负责人-销售业绩BI大盘情况 一、PPT汇报 1.广州-华南…

AIGC浪潮来袭,奇点云“数智科技大会”洞见AI加速的数智未来

“进化,发生在每一个数字化场景。” 5月25日,以“数据进化论”为主题,由StartDT(奇点云、GrowingIO)主办的2023 StartDT Day数智科技大会在杭召开。企业客户、行业专家、技术专家与数万位参会伙伴相聚云上,…

大模型引爆算力缺口,智算中心是正“途”

中共中央、国务院印发的《数字中国建设整体布局规划》指出,要夯实数字中国建设基础,其中重要的一方面,就是系统优化算力基础设施布局,引导通用数据中心、超算中心、智能计算中心、边缘数据中心等合理梯次布局,加强传统…

关于大模型对未来影响的一点看法

人们总是高估了未来一到两年的变化,低估了未来十年的变革。 ---比尔盖茨 近来OpenAI的GPT技术可以说在全球都带来了巨大的影响,也让大家看到了什么叫大力出奇迹。chatGPT和GPT4的能力给了大家很大的震撼,其流畅自如、逻辑清晰、出众的能力&am…

从函数空间的角度重新理解傅里叶变换

文章目录 函数空间向量空间投影指数形式的傅里叶级数其他形式的投影傅里叶变换短时傅里叶变换(STFT)、Gabor变换与小波变换短时傅里叶变换Gabor变换小波变换不确定性原理 Paley-Wiener理论Paley-Wiener Condition 或者 Paley-Wiener CriterionPaley-Wiener Theorem陶哲轩(Terre…

小雨的三周年创作纪念日 —— # 大型立flag现场

写在最前面 听说写《我的创作纪念日》会有红包掉落!让我来试试~ ლ(ڡლ) Tips 您发布的文章将会展示至 里程碑专区 ,您也可以在 专区 内查看其他创作者的纪念日文章优质的纪念文章将会获得神秘打赏哦 机缘 最初成为创作者的初心,是大一时…

人工智能前沿——2022年最流行的十大AI技术

深度学习Tricks,第一时间送达 目录 1、语言识别 2、自然语言生成 3、机器学习平台 4、深度学习平台 5、决策管理 6、虚拟代理 7、AI优化硬件 8、机器人处理自动化 9、生物计量学 10、网络防御 >>>一起交流!互相学习!共同进…

机器学习与微分方程的浅析

大家都已经使用机器学习了,尤其是基于神经网络的深度学习,chatGPT甚嚣尘上,还需要深入理解微分方程么?不论答案是啥,都会涉及到二者的对比,那么,机器学习与微分方程的区别又是什么呢&#xff1f…

从“数据”与“信息”的概念之差看 AIGC 工具衍生数据对人类社会的影响

今天看到“腾讯科技”昨晚发表的“陆奇最新演讲实录:我的大模型世界观”,其中对“信息”及“信息搬运”的说法促使笔者撰写本文。 陆奇先生在展示“三位一体结构演化模式”时说明,“任何复杂体系,包括一个人、一家公司、一个社会&…

GPT / GPT-2 / GPT-3 / InstructGPT 进化之路

原文: 目录 引言 近期,ChatGPT 火遍圈内外,连微博热搜都出现了它的身影。突然之间,好多许久未联系的各行各业的同学好友都发来“问候”:ChatGPT 是什么? 其实,ChatGPT 的成功并非一朝一夕&…

Paperreading:ChatGPT is not all you need. A State of the Art Review of large Generative AI models

ChatGPT is not all you need. A State of the Art Review of large Generative AI models 最先进的大型AI生成模型综述 原文链接 Abstract 在过去两年中,已经发布了大量大型生成模型,例如 ChatGPT 或 Stable Diffusion。具体而言,这些模型…

Power BI调用飞书API,抓取多维表格中的数据

第一步:收集相关参数 首先,我们打开飞书开放平台的开发文档,链接地址是 https://open.feishu.cn/document/server-docs/docs/bitable-v1/notification 我们清楚我们的目的是读取数据而已,所以我们直奔主题。 获得API的链接及另…

ChatGPT万物皆可接,你体会到了么?

引言: 当前AI技术的快速发展,已经在许多领域中得到了广泛的应用。如果你还没有玩过或者动手玩过的,我建议你还是自己搞一搞比较好,腾讯云的服务器也不贵,每月几十块钱,如果没有技术能力,或者对…

程序员的悲哀是什么?

推荐阅读:阿里领导猝死,留下孤儿寡母 知乎上有个热门讨论帖:程序员的悲哀是什么? 本文整理了一些网友回答。 网友:zhang文1 996嫌累,摸鱼觉得没意思,使用开源库觉得没技术含量,自己造…