五年时间被引用3.8万次,Transformer宇宙发展成了这样
机器之心报道
编辑:袁铭怿、陈萍
关于 Transformer ,这是一篇很好的学习指南,可以帮助你熟悉最流行的 Transformer 模型。
自 2017 年提出至今,Transformer 模型已经在自然语言处理、计算机视觉等其他领域展现了前所未有的实力,并引发了 ChatGPT 这样的技术突破,人们也提出了各种各样基于原始模型的变体。
由于学界和业界不断提出基于 Transformer 注意力机制的新模型,我们有时很难对这一方向进行归纳总结。近日,领英 AI 产品战略负责人 Xavier Amatriain 的一篇综述性文章或许可以帮助我们解决这一问题。


在过去的几年里,陆续出现了数十个来自 Transformer 家族模型,所有这些都有有趣且易懂的名字。本文的目标是为最流行的 Transformer 模型提供一个比较全面但简单的目录和分类,此外本文还介绍了 Transformer 模型中最重要的方面和创新。
论文《Transformer models: an introduction and catalog》:

论文链接:
https://arxiv.org/abs/2302.07730
GitHub:https://github.com/xamat/TransformerCatalog
简介:什么是 Transformer
Transformer 是一类由一些架构特征定义的深度学习模型。首次出现在谷歌研究人员于 2017 年发表的著名论文《Attention is All you Need》中(这篇论文在短短 5 年就被引用了 3.8 万余次)以及相关的博客文章中。Transformer 架构是编码器 - 解码器模型 [2] 的一个特定实例,该模型在 2 - 3 年前开始流行起来。然而,在此之前,注意力只是这些模型使用的机制之一,这些模型主要基于 LSTM(长短期记忆)[3] 和其他 RNN(循环神经网络)[4] 变体。Transformers 论文的关键见解是,正如标题所暗示的那样,注意力可以被用作推导输入和输出之间依赖关系的唯一机制。讨论 Transformer 体系结构的所有细节超出了本博客的范围。为此,本文建议参考上面的原论文或 Transformers 的帖子,内容都十分精彩。话虽如此,本文将简要叙述最重要的方面,下面的目录中也会提到它们。本文将先从原始论文中的基本架构图开始,继而展开叙述相关内容。
编码器 / 解码器架构
通用编码器 / 解码器体系架构 (参见图 1) 由两个模型组成。编码器接受输入并将其编码为固定长度的向量。解码器获取该向量并将其解码为输出序列。编码器和解码器联合训练以最小化条件对数似然。一旦训练,编码器 / 解码器可以生成给定输入序列的输出,或者可以对输入 / 输出序列进行评分。在最初的 Transformer 架构中,编码器和解码器都有 6 个相同的层。在这 6 层中的每一层编码器都有两个子层:一个多头注意层和一个简单的前馈网络。每个子层都有一个残差连接和一个层归一化。编码器的输出大小是 512。解码器添加了第三个子层,这是编码器输出上的另一个多头注意层。此外,解码器中的另一个多头层被掩码。

图 1:Transformer 体系架构

图 2:注意力机制
注意力
从上面的描述可以清楚地看出,模型体系架构唯一的特别元素是多头注意力,但是,正如上面所描述的,这正是模型的全部力量所在。那么,注意力到底是什么?注意力函数是查询和一组键值对到输出之间的映射。输出是按值的加权和计算的,其中分配给每个值的权重是通过查询与相应键的兼容性函数计算的。Transformers 使用多头注意力,这是一个被称为缩放点积注意力的特定注意力函数的并行计算。关于注意力机制如何工作的更多细节,本文将再次参考《The Illustrated Transformer》的帖文,将在图 2 中再现原始论文中的图表,以便了解主要思想。与循环网络和卷积网络相比,注意力层有几个优势,最重要的两个是它们较低的计算复杂性和较高的连通性,特别是对于学习序列中的长期依赖关系非常有用。
Transformer 的用途是什么,为什么它们如此受欢迎
最初的 Transformer 是为语言翻译而设计的,特别是从英语到德语。但是,通过原先的研究论文就可以看出,该架构可以很好地推广到其他语言任务。这一特别的趋势很快就引起了研究界的注意。在接下来的几个月里,大多数与语言相关的 ML 任务排行榜完全被某个版本的 Transformer 架构所主导(比方说,著名的 SQUAD 排行榜,其中所有位于顶部的模型都是 Transformer 的集合)。Transformer 能够如此迅速地占据大多数 NLP 排行榜的关键原因之一是它们能够快速适应其他任务,也就是迁移学习。预训练的 Transformer 模型可以非常容易和快速地适应它们没有经过训练的任务,这具有巨大的优势。作为 ML 从业者,你不再需要在庞大的数据集上训练大型模型。你所需要做的就是在你的任务中重新使用预训练的模型,也许只是用一个小得多的数据集稍微调整它。一种用于使预训练的模型适应不同任务的特定技术被称为微调。
事实证明,Transformer 适应其他任务的能力是如此之强,以至于尽管它们最初是为与语言相关的任务而开发的,但它们很快就被用于其他任务,从视觉或音频和音乐应用程序,一直到下棋或做数学。
当然,如果不是因为有无数的工具,任何人都可以轻松地编写几行代码,那么所有这些应用程序都不可能实现。Transformer 不仅能被迅速整合到主要的人工智能框架(即 Pytorch8 和 TF9)中,甚至基于此创建起整个公司。Huggingface 是一家迄今为止已经筹集了 6000 多万美元的初创公司,几乎完全是围绕着将开源 Transformer 库商业化的想法建立的。
最后,有必要谈谈 Transformer 普及初期 GPT-3 对其的影响。GPT-3 是 OpenAI 在 2020 年 5 月推出的 Transformer 模型,是他们早期 GPT 和 GPT-2 的后续产品。该公司通过在预印本中介绍该模型而引起了很大的轰动,他们声称该模型非常强大,以至于他们无法向世界发布它。从那以后,该模型不仅发布了,而且还通过 OpenAI 和微软之间的大规模合作实现了商业化。GPT-3 支持 300 多个不同的应用程序,是 OpenAI 商业战略的基础 (对于一家已经获得超过 10 亿美元融资的公司来说,这是很有意义的)。
RLHF
最近,从人类反馈(或偏好)中强化学习(RLHF(也称作 RLHP)已成为人工智能工具包的一个巨大补充。这个概念已经在 2017 年的论文《Deep reinforcement learning from human preferences》中提出。最近,它被应用于 ChatGPT 和类似的对话智能体,如 BlenderBot 或 Sparrow。这个想法很简单:一旦语言模型被预先训练,用户就可以对对话生成不同的响应,并让人类对结果进行排序。人们可以在强化学习环境中使用这些排名(也就是偏好或反馈)来训练奖励(见图 3)。
扩散
扩散模型已经成为图像生成中的新 SOTA,显然将之前的方法如 GANs(生成对抗网络)推到了一边。什么是扩散模型?它们是一类经过变分推理训练的潜变量模型。以这种方式训练的网络实际上是在学习这些图像所代表的潜在空间(参见图 4)。
扩散模型与其他生成模型有关系,如著名的 [生成对抗网络 (GAN)] 16,它们在许多应用中已经被取代,特别是与(去噪)自动编码器。有些作者甚至说扩散模型只是自编码器的一个具体实例。然而,他们也承认,微小的差异确实改变了他们的应用,从 autoconder 的潜在表示到扩散模型的纯粹生成性质。

图 3:带有人类反馈的强化学习。

图 4:概率扩散模型架构摘自《Diffusion Models: A Comprehensive Survey of Methods and Applications》
本文介绍的模型包括:




大家都在看
-
说说我为什么不喜欢机械键盘? 机械键盘是不少人的心头好,特别是游戏玩家和文字工作者,他们就喜爱那种清脆手感、个性定制和结实耐用的感觉。但说实在的,不管我怎么尝试,这东西就是跟我合不来。原因嘛,听我慢慢道来。先说声音这事儿机械键盘最 ... 机械之最02-14
-
史上最牛“时间机器”!《资治通鉴》带你穿越16个朝代的风云变幻 嘿,朋友们!今天我要带你们玩一场“穿越大冒险”——不用穿奇怪的衣服,也不用买时光机,只要翻开一本书,就能穿越到几千年前的战国、汉唐、五代……对,就是那本超级“时间机器”——《资治通鉴》!它可是北宋大文 ... 机械之最02-14
-
认知的6个阶层,我在第三层,你在哪一层? 窦文涛在《圆桌派》中说过:一个人的认知,会引导出他的选择与行为,进而决定了人生上限。英国社会学家格雷戈里·贝特森就曾研究了数千人,涵盖了社会各个阶层。最终,他提出了一个“NLP思维逻辑层级”理论。在他看 ... 机械之最02-14
-
变速箱百年狂飙:从机械铁疙瘩到智能大脑,藏着汽车最硬核进化史 如果说发动机是汽车的心脏,那变速箱就是汽车的灵魂。很多车主只关心马力多大、油耗多少,却忽略了这个藏在底盘下的“动力管家”,才是决定开车顺不顺、省不省油、耐不耐用的关键。 从100多年前笨重的机械齿轮箱,到 ... 机械之最02-14
-
新华走笔·龙马精神丨奇骥奔腾的力量 马年新春将至,上海街头红红火火、“马力”全开。从外滩、南京路、淮海路,到东方明珠、世纪大道、中华艺术宫等,马年主题艺术花坛、赤马奔腾大型灯饰、骏马造型灯笼等流光溢彩,一派喜气洋洋。与全国各地的“马山马 ... 机械之最02-14
-
“好提案是用脚底板走出来的”,委员说:要为年轻工人鼓劲加油 原标题:卢跃富委员——“要为年轻工人鼓足劲、加好油”(实干显担当 同心启新程·代表委员履职故事)实验室的灯光下,摊开的不只是图纸和数据报告,还有两本记得密密麻麻的笔记本。一本记录着钣金实验的各类参数, ... 机械之最02-12
-
机械界公认“四小龙”:不是985/211最强,这4所也是王者! 在高考志愿里,机械类一直是理科生最稳妥、最实用的选择。但很多家长和考生都踩过坑:只看学校排名,不看行业实力;只知道报机械,却不知道该选什么方向;分数不低,最后报了个就业一般的学校。这篇文章,专门给大家 ... 机械之最02-12
-
天宫空间站机械臂 为何是最复杂智能制造系统? 天宫空间站机械臂之所以堪称最复杂智能制造系统,是因为它在极端太空环境中集成了轻量化高承载、智能自主控制和全生命周期管理的尖端技术。这个“全能大力士”不仅是空间站建造与运营的核心支撑,更代表了中国智能制 ... 机械之最02-12
-
机械专业怎么选?这5个方向就业不愁,选对薪资翻倍! 说到机械专业,很多人第一反应是“传统”“辛苦”。但你知道吗?机械其实是工科里的“就业压舱石”,几乎从不愁找工作。不过,机械也是个大家族,里面方向很多,有的稳,有的新,有的赚得还不少。今天,就给大家盘盘 ... 机械之最02-12
-
新春走基层丨方寸甲片闯世界 手工穿戴甲“出海”记 在我国,有许多看似寻常的小城,却蕴藏着推动全球经贸流转的蓬勃能量。在这里,世界不再是遥远的风景,而是朝夕可触的日常;家门口的每一次发货、每一次洽谈,都在为高质量发展写下生动的注脚。环球资讯广播2026新春 ... 机械之最02-10
相关文章
- 新春走基层丨方寸甲片闯世界 手工穿戴甲“出海”记
- 让老车间用上新技术的他,常把“技多不压身”这句话挂在嘴边
- 《张居正》:一个人强到可怕的8种生存能力
- 末代单反5D4、D850到底还有没有入手的价值?
- 别只盯着哈工大!隔壁这所双非,凭啥把电缆做到全国第一?
- 机械考研别瞎卷!7大方向真实就业对比,第5个年薪最高
- 墓碑纪念碑加工的“源头冠军”:大鲨鱼机械的石材绳锯机深度测评
- 工科生首选:机械五虎,五所顶尖985的实力对决
- 都在讲机械类,但其实最吃香的专业就3个
- 原来这些是牙齿的求救信号
- 我在德国打工发现机器异响,调了一下,三天后集团技术总监全来了
- 盾构机内藏乾坤
- 萧邦年度重头戏:品牌最复杂精密的大自鸣腕表
- 通讯丨草原上架起“银色动脉”——中企助力乌拉圭织就全国电力环网
- 考古实锤:木牛流马不是神话,竟是三国机械卷王
- 机械键盘怎么选?2026八款热销机械键盘推荐,别买错
- 新华网文化观察丨收音机:声波里的时光记忆
- 日本留学理工类专业详解(四)——机械学
- 2026双场景首选:科曼者87客制化机械键盘 新手友好游戏办公通吃
- 两宋科技何以取得“前所未有”成就
热门阅读
-
天下第一暗器暴雨梨花针,传说中的唐门暗器做出来了 07-13
-
汽车投诉排行榜前十名汽车 问题最多的就是这些车 07-13
-
世界最大核潜艇制造厂,产量远超中美法 11-20
