五年时间被引用3.8万次,Transformer宇宙发展成了这样
机器之心报道
编辑:袁铭怿、陈萍
关于 Transformer ,这是一篇很好的学习指南,可以帮助你熟悉最流行的 Transformer 模型。
自 2017 年提出至今,Transformer 模型已经在自然语言处理、计算机视觉等其他领域展现了前所未有的实力,并引发了 ChatGPT 这样的技术突破,人们也提出了各种各样基于原始模型的变体。
由于学界和业界不断提出基于 Transformer 注意力机制的新模型,我们有时很难对这一方向进行归纳总结。近日,领英 AI 产品战略负责人 Xavier Amatriain 的一篇综述性文章或许可以帮助我们解决这一问题。


在过去的几年里,陆续出现了数十个来自 Transformer 家族模型,所有这些都有有趣且易懂的名字。本文的目标是为最流行的 Transformer 模型提供一个比较全面但简单的目录和分类,此外本文还介绍了 Transformer 模型中最重要的方面和创新。
论文《Transformer models: an introduction and catalog》:

论文链接:
https://arxiv.org/abs/2302.07730
GitHub:https://github.com/xamat/TransformerCatalog
简介:什么是 Transformer
Transformer 是一类由一些架构特征定义的深度学习模型。首次出现在谷歌研究人员于 2017 年发表的著名论文《Attention is All you Need》中(这篇论文在短短 5 年就被引用了 3.8 万余次)以及相关的博客文章中。Transformer 架构是编码器 - 解码器模型 [2] 的一个特定实例,该模型在 2 - 3 年前开始流行起来。然而,在此之前,注意力只是这些模型使用的机制之一,这些模型主要基于 LSTM(长短期记忆)[3] 和其他 RNN(循环神经网络)[4] 变体。Transformers 论文的关键见解是,正如标题所暗示的那样,注意力可以被用作推导输入和输出之间依赖关系的唯一机制。讨论 Transformer 体系结构的所有细节超出了本博客的范围。为此,本文建议参考上面的原论文或 Transformers 的帖子,内容都十分精彩。话虽如此,本文将简要叙述最重要的方面,下面的目录中也会提到它们。本文将先从原始论文中的基本架构图开始,继而展开叙述相关内容。
编码器 / 解码器架构
通用编码器 / 解码器体系架构 (参见图 1) 由两个模型组成。编码器接受输入并将其编码为固定长度的向量。解码器获取该向量并将其解码为输出序列。编码器和解码器联合训练以最小化条件对数似然。一旦训练,编码器 / 解码器可以生成给定输入序列的输出,或者可以对输入 / 输出序列进行评分。在最初的 Transformer 架构中,编码器和解码器都有 6 个相同的层。在这 6 层中的每一层编码器都有两个子层:一个多头注意层和一个简单的前馈网络。每个子层都有一个残差连接和一个层归一化。编码器的输出大小是 512。解码器添加了第三个子层,这是编码器输出上的另一个多头注意层。此外,解码器中的另一个多头层被掩码。

图 1:Transformer 体系架构

图 2:注意力机制
注意力
从上面的描述可以清楚地看出,模型体系架构唯一的特别元素是多头注意力,但是,正如上面所描述的,这正是模型的全部力量所在。那么,注意力到底是什么?注意力函数是查询和一组键值对到输出之间的映射。输出是按值的加权和计算的,其中分配给每个值的权重是通过查询与相应键的兼容性函数计算的。Transformers 使用多头注意力,这是一个被称为缩放点积注意力的特定注意力函数的并行计算。关于注意力机制如何工作的更多细节,本文将再次参考《The Illustrated Transformer》的帖文,将在图 2 中再现原始论文中的图表,以便了解主要思想。与循环网络和卷积网络相比,注意力层有几个优势,最重要的两个是它们较低的计算复杂性和较高的连通性,特别是对于学习序列中的长期依赖关系非常有用。
Transformer 的用途是什么,为什么它们如此受欢迎
最初的 Transformer 是为语言翻译而设计的,特别是从英语到德语。但是,通过原先的研究论文就可以看出,该架构可以很好地推广到其他语言任务。这一特别的趋势很快就引起了研究界的注意。在接下来的几个月里,大多数与语言相关的 ML 任务排行榜完全被某个版本的 Transformer 架构所主导(比方说,著名的 SQUAD 排行榜,其中所有位于顶部的模型都是 Transformer 的集合)。Transformer 能够如此迅速地占据大多数 NLP 排行榜的关键原因之一是它们能够快速适应其他任务,也就是迁移学习。预训练的 Transformer 模型可以非常容易和快速地适应它们没有经过训练的任务,这具有巨大的优势。作为 ML 从业者,你不再需要在庞大的数据集上训练大型模型。你所需要做的就是在你的任务中重新使用预训练的模型,也许只是用一个小得多的数据集稍微调整它。一种用于使预训练的模型适应不同任务的特定技术被称为微调。
事实证明,Transformer 适应其他任务的能力是如此之强,以至于尽管它们最初是为与语言相关的任务而开发的,但它们很快就被用于其他任务,从视觉或音频和音乐应用程序,一直到下棋或做数学。
当然,如果不是因为有无数的工具,任何人都可以轻松地编写几行代码,那么所有这些应用程序都不可能实现。Transformer 不仅能被迅速整合到主要的人工智能框架(即 Pytorch8 和 TF9)中,甚至基于此创建起整个公司。Huggingface 是一家迄今为止已经筹集了 6000 多万美元的初创公司,几乎完全是围绕着将开源 Transformer 库商业化的想法建立的。
最后,有必要谈谈 Transformer 普及初期 GPT-3 对其的影响。GPT-3 是 OpenAI 在 2020 年 5 月推出的 Transformer 模型,是他们早期 GPT 和 GPT-2 的后续产品。该公司通过在预印本中介绍该模型而引起了很大的轰动,他们声称该模型非常强大,以至于他们无法向世界发布它。从那以后,该模型不仅发布了,而且还通过 OpenAI 和微软之间的大规模合作实现了商业化。GPT-3 支持 300 多个不同的应用程序,是 OpenAI 商业战略的基础 (对于一家已经获得超过 10 亿美元融资的公司来说,这是很有意义的)。
RLHF
最近,从人类反馈(或偏好)中强化学习(RLHF(也称作 RLHP)已成为人工智能工具包的一个巨大补充。这个概念已经在 2017 年的论文《Deep reinforcement learning from human preferences》中提出。最近,它被应用于 ChatGPT 和类似的对话智能体,如 BlenderBot 或 Sparrow。这个想法很简单:一旦语言模型被预先训练,用户就可以对对话生成不同的响应,并让人类对结果进行排序。人们可以在强化学习环境中使用这些排名(也就是偏好或反馈)来训练奖励(见图 3)。
扩散
扩散模型已经成为图像生成中的新 SOTA,显然将之前的方法如 GANs(生成对抗网络)推到了一边。什么是扩散模型?它们是一类经过变分推理训练的潜变量模型。以这种方式训练的网络实际上是在学习这些图像所代表的潜在空间(参见图 4)。
扩散模型与其他生成模型有关系,如著名的 [生成对抗网络 (GAN)] 16,它们在许多应用中已经被取代,特别是与(去噪)自动编码器。有些作者甚至说扩散模型只是自编码器的一个具体实例。然而,他们也承认,微小的差异确实改变了他们的应用,从 autoconder 的潜在表示到扩散模型的纯粹生成性质。

图 3:带有人类反馈的强化学习。

图 4:概率扩散模型架构摘自《Diffusion Models: A Comprehensive Survey of Methods and Applications》
本文介绍的模型包括:




大家都在看
-
玄武岩纤维为何能身价倍增?刘嘉麒院士科普解读 12月9日,由中国科协科普部、新疆科协联合主办的新疆科普专家报告团活动走进和田地区。中国科学院院士、中国科学院地质与地球物理研究所研究员刘嘉麒以《玄武岩纤维发展态势及应用前景》为题,带来一场干货满满的专 ... 机械之最12-12
-
地球上千公里深处可能存在重要原始水储库 记者从中国科学院广州地球化学研究所获悉,近日,该研究所科研团队通过构建国际领先的技术平台,首次通过高温高压实验,实现了对地下660公里的极端环境的模拟,发现地幔主要矿物布里奇曼石在高温下具有显著富水能力 ... 机械之最12-12
-
铁与血的羁绊——《战争机器5》通关有感 当凯的匕首刺入蜂拥族女王的核心,黎明之锤的光束撕裂天际,锡拉星的沙尘在胜利的余晖中缓缓沉降时,我握着控制器的手仍在微微颤抖。《战争机器5》的通关画面褪去后,留在心头的不是射击游戏常见的酣畅淋漓,而是一 ... 机械之最12-12
-
2400年前的“机械黑科技”让现代工程师直呼“内行”丨闪耀吧!中华宝藏 大河网讯(记者 赵檬 王怡潇)2400年前的古人如何运输千斤粮食?一枚静静躺在洛阳博物馆展柜里、直径仅4.2厘米的青铜齿轮,给出了超越想象的答案。这枚出土于战国粮仓遗址的“黑科技”文物,以其均匀分布的40个精密 ... 机械之最12-12
-
力学之父阿基米德:古希腊的科学奇才,流体静力学的开山鼻祖! 嘿,科学迷们!今天我们要聊的,是一位古希腊的超级大咖——阿基米德!他不仅是“力学之父”,还是“浮力定理”的发明者,更被誉为“数学界的高斯和牛顿的前辈”。这位古希腊的天才,究竟有多牛?让我们穿越时空,走 ... 机械之最12-11
-
“课本里的船政历史‘活’了!”(新视窗·培育服务消费新增长点) 图为中国船政文化园一景。福建船政文化管理委员会供图闽江潮起,马尾岸阔。清晨的阳光穿透百年榕树的虬枝,在锈迹斑斑的龙门吊上投下鎏金光影。中国船政文化园的大门刚开启,来自全国各地的游客已排起长队:福州八中 ... 机械之最12-11
-
会飞无人机、玩转短视频……这位82岁奶奶不一般 原标题:我奶奶是82岁无人机“飞手”(新媒视点)戴淑英正在操作植保无人机。新华社记者周牧、杜潇逸摄在安徽桐城新渡镇老梅村,如果你看到一位白发老人在田埂上操作农用无人机,从装电池、展开机翼、灌肥料,再到滑 ... 机械之最12-09
-
笔记本外接机械硬盘全攻略:老司机教你怎么选最划算! #笔记本能外接一个机械硬盘吗#最近看到今日头条上有人问 "笔记本能外接一个机械硬盘吗?" 这个问题,作为一个经常折腾电脑的老司机,我必须来好好跟大家聊聊这个话题。先给个明确的答案:当然可以! 而且现 ... 机械之最12-09
-
“五个高地”是怎样打造的?——来自通辽科尔沁大草原一线的调研报告 西辽河奔流不息,见证文明起源;科尔沁草原绿浪翻涌,激荡时代新声。在这片孕育了中华文明三大源头之一的沃土上,内蒙古自治区通辽市正以昂扬之姿,在祖国北疆筑起五个熠熠生辉的时代“高地”——从沙海变林海的生态 ... 机械之最12-09
-
外骨骼机器人怎样安全走入寻常百姓家? 泰山、黄山、长城等景区纷纷引入外骨骼设备,为游客提供登山助力;各类展会上,外骨骼替代拐杖帮助老年人行走的视频总能引发热议……今年以来,科技感十足的外骨骼机器人火爆出圈,万元以内的价格让很多消费者为之动 ... 机械之最12-09
相关文章
- 我们需要对AI“好好说话”吗
- 铁与血的羁绊——《战争机器5》通关有感
- 2400年前的“机械黑科技”让现代工程师直呼“内行”丨闪耀吧!中华宝藏
- 外骨骼机器人好用吗?
- 力学之父阿基米德:古希腊的科学奇才,流体静力学的开山鼻祖!
- “课本里的船政历史‘活’了!”(新视窗·培育服务消费新增长点)
- 中企承建非洲最长重载铁路桥顺利贯通
- 会飞无人机、玩转短视频……这位82岁奶奶不一般
- 笔记本外接机械硬盘全攻略:老司机教你怎么选最划算!
- 难忘工厂时光
- “项目式学习提升了我的工程思维”
- “五个高地”是怎样打造的?——来自通辽科尔沁大草原一线的调研报告
- 外骨骼机器人怎样安全走入寻常百姓家?
- 人民日报政策问答·回应关切:老旧小区电梯更新改造,有哪些新举措
- 《疯狂动物城》为什么好看?这里有我们爱看拟人化动物的科学解释
- 马斯克的脸装在机械犬上?这才是巴塞尔艺术节最“疯”的作品!
- 人在去世之前,为什么会“灵魂出窍”?
- 向未来生长——台州制造的跃迁与再造
- “羊圈超市”成“金子做的碗”!看玉树甘达的兴业密码
- A股工程机械板块谁是最具潜力的投资标的?
热门阅读
-
天下第一暗器暴雨梨花针,传说中的唐门暗器做出来了 07-13
-
世界十大大型船舶排名,第一能承重六十万吨! 07-13
