五年时间,Transformer宇宙发展成了这样,ChatGPT 只是其中之一

format,png

源 | 机器之心

大家好,这里是 NewBeeNLP。关于 Transformer ,这是一篇很好的学习指南,可以帮助你熟悉最流行的 Transformer 模型。

自 2017 年提出至今,Transformer 模型已经在自然语言处理、计算机视觉等其他领域展现了前所未有的实力,并引发了 ChatGPT 这样的技术突破,人们也提出了各种各样基于原始模型的变体。

由于学界和业界不断提出基于 Transformer 注意力机制的新模型,我们有时很难对这一方向进行归纳总结。近日,领英 AI 产品战略负责人 Xavier Amatriain 的一篇综述性文章或许可以帮助我们解决这一问题。

bf08d63725660c8769554fd0431a1649.jpeg

e60b04aaa05bfce41a2eaa07ce9345e0.png

在过去的几年里,陆续出现了数十个来自 Transformer 家族模型,所有这些都有有趣且易懂的名字。本文的目标是为最流行的 Transformer 模型提供一个比较全面但简单的目录和分类,此外本文还介绍了 Transformer 模型中最重要的方面和创新。

论文《Transformer models: an introduction and catalog》:

e61edda40e05eff0c1400776f891a695.jpeg

论文链接:

https://arxiv.org/abs/2302.07730

GitHub:https://github.com/xamat/TransformerCatalog

简介:什么是 Transformer

Transformer 是一类由一些架构特征定义的深度学习模型。首次出现在谷歌研究人员于 2017 年发表的著名论文《Attention is All you Need》中(这篇论文在短短 5 年就被引用了 3.8 万余次)以及相关的博客文章中。Transformer 架构是编码器 - 解码器模型 [2] 的一个特定实例,该模型在 2 - 3 年前开始流行起来。然而,在此之前,注意力只是这些模型使用的机制之一,这些模型主要基于 LSTM(长短期记忆)[3] 和其他 RNN(循环神经网络)[4] 变体。Transformers 论文的关键见解是,正如标题所暗示的那样,注意力可以被用作推导输入和输出之间依赖关系的唯一机制。讨论 Transformer 体系结构的所有细节超出了本博客的范围。为此,本文建议参考上面的原论文或 Transformers 的帖子,内容都十分精彩。话虽如此,本文将简要叙述最重要的方面,下面的目录中也会提到它们。本文将先从原始论文中的基本架构图开始,继而展开叙述相关内容。

编码器 / 解码器架构

通用编码器 / 解码器体系架构 (参见图 1) 由两个模型组成。编码器接受输入并将其编码为固定长度的向量。解码器获取该向量并将其解码为输出序列。编码器和解码器联合训练以最小化条件对数似然。一旦训练,编码器 / 解码器可以生成给定输入序列的输出,或者可以对输入 / 输出序列进行评分。在最初的 Transformer 架构中,编码器和解码器都有 6 个相同的层。在这 6 层中的每一层编码器都有两个子层:一个多头注意层和一个简单的前馈网络。每个子层都有一个残差连接和一个层归一化。编码器的输出大小是 512。解码器添加了第三个子层,这是编码器输出上的另一个多头注意层。此外,解码器中的另一个多头层被掩码。

3ca13cc57a9a3a8ff02e5c11814d2ea1.png

图 1:Transformer 体系架构

89d8583ecb35916a040700161b201973.jpeg

图 2:注意力机制

注意力

从上面的描述可以清楚地看出,模型体系架构唯一的特别元素是多头注意力,但是,正如上面所描述的,这正是模型的全部力量所在。那么,注意力到底是什么?注意力函数是查询和一组键值对到输出之间的映射。输出是按值的加权和计算的,其中分配给每个值的权重是通过查询与相应键的兼容性函数计算的。Transformers 使用多头注意力,这是一个被称为缩放点积注意力的特定注意力函数的并行计算。关于注意力机制如何工作的更多细节,本文将再次参考《The Illustrated Transformer》的帖文,将在图 2 中再现原始论文中的图表,以便了解主要思想。与循环网络和卷积网络相比,注意力层有几个优势,最重要的两个是它们较低的计算复杂性和较高的连通性,特别是对于学习序列中的长期依赖关系非常有用。

Transformer 的用途是什么,为什么它们如此受欢迎

最初的 Transformer 是为语言翻译而设计的,特别是从英语到德语。但是,通过原先的研究论文就可以看出,该架构可以很好地推广到其他语言任务。这一特别的趋势很快就引起了研究界的注意。在接下来的几个月里,大多数与语言相关的 ML 任务排行榜完全被某个版本的 Transformer 架构所主导(比方说,著名的 SQUAD 排行榜,其中所有位于顶部的模型都是 Transformer 的集合)。Transformer 能够如此迅速地占据大多数 NLP 排行榜的关键原因之一是它们能够快速适应其他任务,也就是迁移学习。预训练的 Transformer 模型可以非常容易和快速地适应它们没有经过训练的任务,这具有巨大的优势。作为 ML 从业者,你不再需要在庞大的数据集上训练大型模型。你所需要做的就是在你的任务中重新使用预训练的模型,也许只是用一个小得多的数据集稍微调整它。一种用于使预训练的模型适应不同任务的特定技术被称为微调。

事实证明,Transformer 适应其他任务的能力是如此之强,以至于尽管它们最初是为与语言相关的任务而开发的,但它们很快就被用于其他任务,从视觉或音频和音乐应用程序,一直到下棋或做数学。

当然,如果不是因为有无数的工具,任何人都可以轻松地编写几行代码,那么所有这些应用程序都不可能实现。Transformer 不仅能被迅速整合到主要的人工智能框架(即 Pytorch8 和 TF9)中,甚至基于此创建起整个公司。Huggingface 是一家迄今为止已经筹集了 6000 多万美元的初创公司,几乎完全是围绕着将开源 Transformer 库商业化的想法建立的。

最后,有必要谈谈 Transformer 普及初期 GPT-3 对其的影响。GPT-3 是 OpenAI 在 2020 年 5 月推出的 Transformer 模型,是他们早期 GPT 和 GPT-2 的后续产品。该公司通过在预印本中介绍该模型而引起了很大的轰动,他们声称该模型非常强大,以至于他们无法向世界发布它。从那以后,该模型不仅发布了,而且还通过 OpenAI 和微软之间的大规模合作实现了商业化。GPT-3 支持 300 多个不同的应用程序,是 OpenAI 商业战略的基础 (对于一家已经获得超过 10 亿美元融资的公司来说,这是很有意义的)。

RLHF

最近,从人类反馈(或偏好)中强化学习(RLHF(也称作 RLHP)已成为人工智能工具包的一个巨大补充。这个概念已经在 2017 年的论文《Deep reinforcement learning from human preferences》中提出。最近,它被应用于 ChatGPT 和类似的对话智能体,如 BlenderBot 或 Sparrow。这个想法很简单:一旦语言模型被预先训练,用户就可以对对话生成不同的响应,并让人类对结果进行排序。人们可以在强化学习环境中使用这些排名(也就是偏好或反馈)来训练奖励(见图 3)。

扩散

扩散模型已经成为图像生成中的新 SOTA,显然将之前的方法如 GANs(生成对抗网络)推到了一边。什么是扩散模型?它们是一类经过变分推理训练的潜变量模型。以这种方式训练的网络实际上是在学习这些图像所代表的潜在空间(参见图 4)。 

扩散模型与其他生成模型有关系,如著名的 [生成对抗网络 (GAN)] 16,它们在许多应用中已经被取代,特别是与(去噪)自动编码器。有些作者甚至说扩散模型只是自编码器的一个具体实例。然而,他们也承认,微小的差异确实改变了他们的应用,从 autoconder 的潜在表示到扩散模型的纯粹生成性质。

fc4fcc6dfbe5ad9056746ddea402bddd.jpeg

图 3:带有人类反馈的强化学习。

d81cef3a48045253bf10b05b0344aa17.jpeg

图 4:概率扩散模型架构摘自《Diffusion Models: A Comprehensive Survey of Methods and Applications》

本文介绍的模型包括:

9c515dc42319b563c4a48b7462ada3ad.jpeg

0250f38d2d048a83bcd0cac207e7b6ba.jpeg

48c1e1e68b704eb3e2966dc111f8ff05.jpeg

bf562bc85ac86fe470069b30004a7179.jpeg

一起交流

想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定o要备注信息才能通过)

format,png

789005317a105a28fe829048c48fc469.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/8443.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

GPT专业应用:英语作文修改与解释

正文共 868 字,阅读大约需要 3 分钟 英语学习者/老师必备技巧,您将在3分钟后获得以下超能力: 快速修改英语作文 Beezy评级 :B级 *经过简单的寻找, 大部分人能立刻掌握。主要节省时间。 推荐人 | Kim 编辑者 | Linda …

最新SpringBoot 整合 ChatGPT API 项目实战!!!

体验到了ChatGPT的强大之后,那么我们会想,如果我们想基于ChatGPT开发一个自己的聊天机器人,这个能搞定吗? ChatGPT平台已经为技术提供了一个入口了,很简单的就是实现了。 一、准备工作 (1)已…

使用宝塔面板的Docker安装ChatGPT-pandora项目

ChatGPT狂飙160天,世界已经不是之前的样子。 新建了人工智能中文站https://ai.weoknow.com 每天给大家更新可用的国内可用chatGPT资源 本机以腾讯云 轻量云服务器为例。 首先在轻量云服务器后台的防火墙放行端口3002。 然后登陆宝塔,点击Docker&#xf…

SpringBoot 整合 ChatGPT API 项目实战,十分钟快速搞定!

往期热门文章: 1、10款低代码平台YYDS! 2、使用 Autowired 为什么会被 IDEA 警告,应该怎么修改最佳? 3、每天 100 万次登陆请求,8G 内存该如何设置 JVM 参数? 4、12种接口优化的通用方案,我又偷…

chatgpt赋能python:Python的调试方法:如何看每一步的执行情况

Python的调试方法:如何看每一步的执行情况 Python是一门强大的编程语言,它易于学习,同时也被广泛应用于各种领域。当你在编写Python代码时,难免会遇到一些错误和问题。本文将介绍一些方法来调试Python代码,以帮助您更…

如何辨别ChatGPT是不是真的

随着ChatGPT爆红,国内陆续出现了几个所谓的“ChatGPT 反向代理站点”,乍一试回答似乎还挺靠谱,但它们真的是ChatGPT吗?本文以其中一个站点为例,对其真伪进行辨别。 其实最多只需要问两个问题,基本上就可以…

Excel到PPT动嘴就能做!ChatGPT4接入Office全家桶

微软把AI神器GPT-4全面接入Office,这下ChatPPT、ChatWord、ChatExcel一家整整齐齐。 CEO纳德拉在发布会上直接放话:今天,进入人机交互的新时代,重新发明生产力。 新功能名叫Microsoft 365 Copilot(副驾驶)&…

QQ 接入GPT,让聊天更自然

目录 0、文末点击公众号联系 1、先看效果 1.1 私聊: 1.2 群聊 2、下载文件 3、获取Api Key 4、Windows 封装版 4.1、进入py 文件夹。 4.2、打开 QBot 文件夹 5、代码版 5.1 进入 py 文件夹 5.1.1 安装依赖 5.1.2 启动 4.2、打开 QBot 文件夹 6、到此就…

我把ai聊天和绘画接入到了微信群

经过两天的努力,总算通过这种形式把ai聊天机器人接入到群聊中。挺有趣的,有没有测试下效果的。还可以画画哦。

在飞书上轻松集成ChatGPT,3步搞定!

在飞书上使用 ChatGPT,3步搞定 为了让用户更便捷地使用 ChatGPT,我们将 ChatGPT 集成到飞书,设置只需要几分钟。 步骤一:获取飞书 Webhook URL 在应用商店或点击飞书官网下载飞书。下载安装后进入飞书界面,点击上方➕…

ChatGPT 和知识策略,构建低成本的认知助手

ChatGPT 风靡全球!它无处不在。我的朋友不断向我发送 ChatGPT 所做的奇妙和意想不到的事情的例子。ChatGPT 在短短五天内就吸引了超过 100 万用户。 我对 ChatGPT 变得如此出色并不感到惊讶。但令我惊讶的是,在过去两个月中,人们对这些工具的认识有了惊人的增长。这鼓励我帮…

LangChain 基于 ChatGPT 构建本地知识库问答应用

一、使用本地知识库构建问答应用 上篇文章基于 LangChain 的Prompts 提示管理构建特定领域模型,如果看过应该可以感觉出来 ChatGPT 还是非常强大的,但是对于一些特有领域的内容让 GPT 回答的话还是有些吃力的,比如让 ChatGPT 介绍下什么是 L…

你想知道ChatGPT针对JAVA技术趋势等问题的答案不?

今天终于试了一下最近非常火的ChatGPT,针对JAVA技术趋势等问题与ChatGPT进行了沟通,感觉还挺好玩的,如同和一个人正常交流一样,问题的答案虽然不是很精准,但还算是正确的。 让人吃惊的是:ChatGPT 竟然都知道@EnumValue怎么使用 使用界面 问题及回复 问题: JAVA技术趋势…

吴恩达ChatGPT《Prompt Engineering》笔记

1. 课程介绍 1.1 ChatGPT 相关术语 LLM:Large Language Model,大语言模型 Instruction Tuned LLM:经过指令微调的大语言模型 Prompt:提示词 RLHF:Reinforcement Learning from Human Feedback,人类反馈…

ChatGPT 最佳实践指南之:使用外部工具

Use external tools 使用外部工具 Compensate for the weaknesses of GPTs by feeding them the outputs of other tools. For example, a text retrieval system can tell GPTs about relevant documents. A code execution engine can help GPTs do math and run code. If a …

《ChatGPT实用指南》(精编版)重磅发布,全网免费分享,快上车,别掉队

文 / 高扬(微信公众号:量子论) 据上次3月18号发布的V1.8版,已经过去十天,这期间AI领域发生了很多重大变化。 因此,我们对《ChatGPT实用指南》进行了重大改版,增加了大量实用的操作和详细的讲解&…

ChatGPT对敏捷实践者的提示

作者 | Stefan Wolpers 作为Scrum实践者,如何获得更好的结果。我选择以更全面的提示为基础,用三个日常场景来呈现ChatGPT。 01、TL; DR:ChatGPT对Scrum从业人员的提示 上周,我根据《Scrum Master面试指南》中的问题,对…

ChatGPT在R语言的应用(一)

💂 个人信息:酷在前行👍 版权: 博文由【酷在前行】原创、需要转载请联系博主👀 如果博文对您有帮助,欢迎点赞、关注、收藏 订阅专栏 📋 文章目录 🐣 一、ChatGPT的简介🐤 二、ChatG…

ChatGPT能取代传统伪原创工具吗?

文章伪原创工具是一种计算机辅助写作工具,通过算法和技术实现对原有文章内容进行修改和改写,生成新的、看起来不同于原文的文章,以达到避免抄袭和提高原创性的目的。今天我们来聊聊传统伪原创工具和使用ChatGPT进行文章改写的优缺点。 一、传…

【ChatGLM-6B】清华开源的消费级显卡大语言模型,本地部署与测试

chatGLM-6B 官方代码:https://github.com/THUDM/ChatGLM-6B官方博客:https://chatglm.cn/blog论文: 2210.GLM-130B: An Open Bilingual Pre-trained Model (开源的双语预训练模型)2103.GLM: General Language Model Pr…