范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

NLP任务非Transformer不可?谷歌研究发现预训练卷积模型往往更优

  选自arXiv
  机器之心编译
  编辑:Panda
  在当前 NLP 领域,基于 Transformer 的模型可谓炙手可热,其采用的大规模预训练方法已经为多项自然语言任务的基准带来了实质性的提升,也已经在机器翻译等领域得到了实际应用。但之前却很少有研究者思考:预训练是否也能提升卷积在 NLP 任务上的效果?近日, 资源雄厚的 Google Research 的一项大规模实证研究填补了这一空白。结果发现,在许多 NLP 任务上,预训练卷积模型并不比预训练 Transformer 模型更差。本文将重点关注该研究的实验结果和相关讨论,具体实验设置请参阅论文。
  论文地址:https://arxiv.org/pdf/2105.03322.pdf
  在这个预训练已成为惯用方法的现代,Transformer 架构与预训练语言模型之间似乎已经有了密不可分的联系。BERT、RoBERTa 和 T5 等模型的底层架构都是 Transformer。事实上,近来的预训练语言模型很少有不是基于 Transformer 的。
  尽管基于上下文的表征学习历史丰富,但现代预训练语言建模却是始于 ELMo 和 CoVE 等基于循环架构的模型。尽管它们取得了巨大成功,但使用这些架构的研究已经减少了很多,因为 Transformer 已经偷走了 NLP 社区的心,而且 NLP 社区也已经将它(可能较为隐式地)看作是在前代架构上明确无疑的进步。
  近来有研究展现了全卷积模型的潜力并质疑了 Transformer 等自注意力架构的必要性。举个例子, 康奈尔大学博士 Felix Wu 等人在 2019 年提出的卷积式 seq2seq 模型在机器翻译和语言建模等一系列规范基准任务上都取得了优于 Transformer 的表现。在这些发现的基础上,我们自然会有疑问:我们是否应该考虑 Transformer 之外的预训练模型?
  尽管卷积模型早期取得了一些成功,但在预训练语言模型时代,卷积是否仍然重要还是一个有待解答的问题。研究者表示,之前尚未有研究工作在预训练 - 微调范式下对卷积架构进行严格评估。这正是本研究的主要目的。具体而言,这篇论文的目标是通过实证方式验证预训练卷积模型在一系列任务上是否能与预训练的 Transformer 相媲美。
  预训练方案与模型架构之间的交互关系这一主题所得到的研究仍旧不足。只有 Transformer 能从预训练大量获益吗?如果我们使用一种不同架构的归纳偏置(inductive bias),预训练是否也能带来显著增益?预训练的卷积模型能在某些情况中取得更优表现吗?这篇论文研究了这些问题。
  基于卷积的模型有一些明显的优势。第一,卷积不会有自注意力那种二次内存复杂度的问题—这是一个重大问题,甚至足以催生出一类全新的「高效」Transformer 架构;第二,卷积在本地执行,并不依赖位置编码作为模型的顺序信号。话说回来,卷积也有许多缺点。举个例子,卷积无法获取全局信息,这意味着这样的模型无法执行一种跨多个序列的跨注意力形式。
  本文将展示一种预训练的序列到序列模型,即 Seq2Seq。卷积模型的训练使用了基于跨度的序列到序列去噪目标,其类似于 T5 模型使用的目标。研究者在原始范式(无预训练)和预训练 - 微调范式下对多种卷积变体模型进行了评估,比如扩张模型、轻量模型和动态模型。这些评估的目标是理解在预训练时代卷积架构的真正竞争力究竟如何。
  实验结果表明,在毒性检测、情感分类、新闻分类、查询理解和语义解析 / 合成概括等一系列 NLP 任务上,预训练卷积能与预训练 Transformer 相媲美。此外,研究者发现在某些情况下,预训练的卷积模型在模型质量和训练速度方面可以胜过当前最佳的预训练 Transformer。而且为了平衡考虑,研究者也描述了预训练卷积并不更优或可能不适用的情况。
  本文的主要贡献包括: 在预训练 - 微调范式下对卷积式 Seq2Seq 模型进行了全面的实证评估。研究者表示,预训练卷积模型的竞争力和重要性仍还是一个仍待解答的问题。 研究者还得出了几项重要观察结果。具体包括:(1)预训练能给卷积模型和 Transformer 带来同等助益;(2)在某些情况下,预训练卷积在模型质量与训练速度方面与预训练 Transformer 相当。 研究者使用 8 个数据集在多个领域的许多任务上执行了广泛的实验。他们发现,在 8 项任务的 7 项上,预训练卷积模型优于当前最佳的 Transformer 模型(包括使用和未使用预训练的版本)。研究者比较了卷积和 Transformer 的速度和操作数(FLOPS),结果发现卷积不仅更快,而且还能更好地扩展用于更长的序列。
  研究问题和讨论
  研究者主要关注了以下研究问题(RQ): RQ1:预训练能否为卷积和 Transformer 带来同等助益? RQ2:卷积模型(不管是否使用预训练)能否与 Transformer 模型媲美?它们在什么时候表现较好? RQ3:相比于使用 Transformer 模型,使用预训练卷积模型是否有优势,又有哪些优势?相比于基于自注意力的 Transformer,卷积模型是否更快? RQ4:预训练卷积不适用于哪些情况?哪些情况需要警惕?原因是什么? RQ5:是否有某些卷积模型变体优于另一些模型?
  实验结果
  下表 2 是在毒性检测、情感分类、问题分类和新闻分类上,预训练卷积和预训练 Transformer 的表现比较。所有模型都是 12 层的 seq2seq 架构,都有大约 2.3 亿个参数。可以看到,预训练对卷积也有所助益,并且总是优于使用和没使用预训练的 Transformer 模型。
  结果总结
  实验发现,在多个领域的 7 项任务上,(1)相比于没使用预训练的 Transformer,没使用预训练的卷积是具有竞争力的,而且常常更优;(2)预训练卷积在 7 项任务中的 6 项上都优于预训练 Transformer。这是问题 RQ2 的答案。
  实验还发现预训练能给卷积带来助益,其产生助益的方式类似于助益基于自注意力的模型的方式。因此,预训练的优势并不是 Transformer 模型独占的。这是问题 RQ1 的答案。
  研究者还发现,在这些预训练卷积模型中,扩张卷积和动态卷积通常优于轻量卷积,这回答了问题 RQ5。
  最后,研究者观察到,使用预训练后,模型的相对性能(即排名)会改变。这说明使用预训练来构建架构肯定会有某种效果。这种效果的直接影响是不使用预训练时表现好(相对而言)的模型并不一定在使用预训练后表现最佳。因此,除了将架构与预训练方案组合到一起使用之外,我们也需要注意不同的架构在使用预训练后可能会有不同的行为。
  讨论和分析
  下面将通过详细的分析和讨论对结果进行扩展讨论。其中将讨论预训练卷积的优劣和预训练对性能的影响,并将为广大社区给出一些建议。
  1. 预训练卷积在哪些情况下不管用?
  根据实验结果,我们可以观察到卷积模型相较于完善的预训练 Transformer 的潜在优势,并且在某些情况下还能获得质量上的提升。但是,进一步理解卷积的缺陷可能会有所助益。
  预训练卷积的一个明显缺点是它们缺乏跨注意力的归纳偏置,而在 Transformer 编码器中,使用自注意力可以自然而然地获得这一能力。因为这个原因,对于需要建模两个或更多序列的关系的任务而言,不宜使用预训练卷积。为了验证这一点,研究者在 SQuAD 和 MultiNLI 上执行了实验,结果发现,正是由于缺少归纳偏置,预训练卷积的表现远远不及 Transformer。在检查和评估模型时,我们应该能清楚地区分这一点,就像早期的 SNLI 排行榜能清楚地区分使用和不使用跨注意力的模型一样。
  之前在 SQuAD/MNLI 等基准上的评估表明,预训练卷积模型确实乏善可陈。举个例子,在 MultiNLI 上,卷积仅能实现约 75% 的准确度,而 Transformer 能轻松达到约 84%。类似地,卷积在 SQuAd 上能达到 70% 左右,而 Transformer 则可达约 90%。这完全在意料之中,因为前提 / 问题无法与假设 / 上下文交互(RQ4)。但是,研究者通过实验发现,这种现象的原因只是单纯地缺乏这种跨注意力属性。当在编码器中使用单层跨注意力增强卷积时,结果发现预训练卷积能在 MultiNLI 等数据集上达到与预训练 Transformer 非常相近的水平,实现约 83% 的准确度。
  话虽如此,跨注意力归纳偏置是否真的重要,还需要实践者进一步证明。研究者强调,在扩大规模时,连接句子对的模式并不一定是必要的,因为这需要对句子对的每种排列进行推理。因为这个原因,在实践中,使用双编码器设置来执行快速嵌入空间查找是更为实际和可行的做法。鉴于卷积在一系列编码任务上的强劲表现,可以期待预训练卷积在双编码器设置中的出色效果。
  2. 相比于预训练 Transformer,预训练卷积有何优势?
  基于实验结果可知,相比于使用 Transformer,使用卷积能获得一些质量提升。下面讨论其它优势。 在处理长序列时,卷积速度更快,扩展更好。
  图 1:在一个 seq2seq 掩码语言建模任务上,序列长度对处理速度的影响。结果是使用 16 块 TPUv3 芯片在 C4 预训练上通过基准测试得到的。结果以对数标度展示。
  上图 1 展示了在一个序列到序列任务上,卷积(LightConvs)与 Transformer 的训练速度。输入长度的取值为 {64, 128, 256, 512, 1024, 2048, 4096}。结果发现,卷积不仅速度总是更快(序列更短时也更快),而且扩展性能也更好。卷积会线性扩展到更长的序列,而 Transformer 无法扩展。 卷积的 FLOPs 效率更高
  研究者测算了当序列长度增大时卷积与 Transformer 的 FLOPs 的数量。下图 2 展示了不同序列长度下的结果。总体而言,在所有序列长度上,卷积在浮点运算数量上都比 Transformer 更加高效。
  图 2:在一个 seq2seq 掩码语言建模任务上,序列长度对 FLOPs 数量(爱因斯坦求和的操作数)的影响。结果是使用 16 块 TPUv3 芯片在 C4 预训练上通过基准测试得到的。结果以对数标度展示。
  整体而言,不管是时钟,还是 FLOPs,卷积都更快一些,这解答了问题 RQ3。此外,研究者还发现卷积的 FLOPs 效率在不同序列长度上延展得也更好。
  3. 是否建议用卷积完全替代 Transformer?
  尽管 Transformer 已经主导了 NLP 研究社区,但这篇论文认为卷积的一些优势被忽视了,比如模型质量、速度、FLOPs 和扩展性。此外,此前我们并不知道预训练是否能助益卷积。这篇论文表明,在某些任务上,预训练能给卷积模型带来与给 Transformer 模型带来的类似增益。但是,研究者也着重指出,卷积难以应付需要跨注意力的任务,也难以建模在同一序列中有多个句子或文档的情况。研究者认为这是一个值得实践者探索的研究方向,并有望发掘出 Transformer 之外的新架构。
  4. 不要将预训练与架构的发展进步混为一谈
  这篇论文还表明,轻量、动态和扩张卷积都能从预训练获益,其带来的增益程度不比给 Transformer 带来的增益少。
  在当前的研究图景中,预训练总是与 Transformer 架构紧密相关。因此,人们总是将 BERT 的成功、Transformer 和大规模语言模型这三者混为一谈。尽管到目前为止确实只有 Transformer 会使用大规模预训练,但可以相信其它架构也可能有类似潜力。
  基于实验结果,研究者相信在架构和预训练的组合效果方面还有进一步的研究空间。这项研究本身也有望提升卷积模型在 NLP 领域的竞争力。他们表示,在探索解决 NLP 任务时,不要总是局限于当前最佳的 Transformer,也应积极地探索其它替代框架。

济南和青岛,谁才是山东第一?青岛会成为第5个直辖市吗?我国第5个直辖市会是山东青岛吗?济南和青岛到底谁更强?说起山东省,多数人都不陌生。山东省是我国东部一个沿海省份,总面积约15万平方千米,常住人口1亿多人,自南相北分别与江苏安徽河南青岛输给济南3个方面?谁才是山东第一城?看济青5个方面比拼济南有3个方面比青岛强,你认同吗?谁才是山东第一城?山东有两个比较强的城市,一个是省会济南,一个是中国青岛。是的,你没看错,就是中国青岛。不管中国青岛是个梗,还是青岛实力的表现。反济南是世界上最大的泉水城市,你知道么?说起山东的省会,很多外省小伙伴可能都不知道,有印象的可能也觉得是青岛,济南的存在感确实比较低。但要说起大明湖,很多小伙伴可能会想到大明湖畔的容嬷嬷,因为琼瑶阿姨的那部还珠格格,大明今天河北唐山江苏盐城山东济南新疆库车等地接连发生地震据中国地震局测定2021年6月25日03时59分在河北省唐山市丰南区发生2。0级地震,震源深度为10千米。据江苏省地震局测定2021年6月25日04时08分在江苏省盐城市射阳县发生聊聊山东的大学(二)哈工大威海曲阜师大青科大济南大学哈尔滨工业大学威海校区上一篇写的是山东本省的985211大学,除了这三所大学外,还有一些985和211大学也在山东建设了校区。最有名的是哈尔滨工业大学威海校区。哈工大属于C9联盟之济南大学李绘一种MoO3片状结构的静电纺丝合成方法易丝帮讯近日,济南大学李绘等人发明公开了一种MoO3片状结构的静电纺丝合成方法,步骤包括将钼盐盐酸羟胺盐酸多巴胺PVP加入到乙醇DMF和1,5戊二醇的混合溶剂中,搅拌得到纺丝液,通葡萄牙奇迹无脸婴儿,打破医生预言,度过了他的2岁生日在葡萄牙有一个奇迹宝宝,人们把他叫作bebesemrostro,即没有脸的宝宝。这个神奇的宝宝已经度过了他的2岁生日,然而,人们曾告知他只有几个小时的生命。罗德里格(Rodrigo2022QS毕业生就业竞争力排名RMIT毕业生就业率全澳第一2022年QS毕业生就业力排名最新发布,RMIT皇家墨尔本理工大学在全球大学毕业生就业力排名中的表现突出,在全球顶尖大学中的地位也得到进一步巩固,毕业生的就业率更是排名全澳第一!全2022QS毕业生就业竞争力排名发布,麦考瑞大学排名再上升世界高等教育研究机构QSQuacquarelliSymonds发布最新年度排名2022QS毕业生就业竞争力排名。本次排名包含了550所高校,是目前为止QS历史上规模最大的一次毕业生2022QS毕业生就业竞争力排名发布!澳洲大学表现亮眼世界高等教育研究机构QSQuacquarelliSymonds于近日发布最新年度排名2022QS毕业生就业竞争力排名。本次排名包含了550所高校,较去年多出50所,成为QS历史上规在澳洲留学要花多少钱?这份从申请到入学的账单详细告诉你越来越多的学生选择去澳洲留学,但随之而来的留学消费也是一大问题。澳洲留学到底要准备多少钱呢?都有哪些花钱的地方呢?今天这篇就为大家分析了从申请到入学的花费。学费在澳洲,学校排名靠前
核污染引发物种变异,32条腿八爪鱼被发现,还是另有隐情?众所周知,章鱼有八只脚,所以这叫做八爪鱼,但是近日在韩国庆尚南道泗川地区有渔民捕获到一只三十二爪鱼。到底是基因突变还是发现新物种?引起了许多专家的关注,到底是什么原因导致了一条普通核辐射产生新物种?日本福岛出现杂交野猪,事情可没那么简单据英国广播公司1日消息,英国皇家学会学报于当地时间6月30日发表了一项研究,内容称在日本福岛核事故后,当地出现了一种新的放射性杂交野猪。2011年日本福岛发生核泄漏事故,当时这场核物种灭绝保护基地我曾经想弄这么个基地,但是只能停留在想象中。为何我想要建立这么一个基地呢?一个是为了挣钱,另一个也是为了科学。特别是仿生学和生物学。如今我们地球上的物种开始加速消亡,我们遇见到的,中国应从西方经济学的衍生物金融学里吸取什么经验和教训。昨天在回答钱印多少不会贬值的问题时,许下一个心愿,今天来谈我们应从西方经济学中吸取什么经验和教训。要谈清这个问题,就必须回答径济学是干什么的。马克期的经济学在最初翻译为中文时,叫政鼎阳科技SDS1104XU超级荧光示波器售价2808元2020年9月16日,深圳市鼎阳科技股份有限公司发布SDS1104XU超级荧光示波器。该示波器为4通道机型,具有100MHz带宽和1GSas采样率支持多种测量数学运算及串行解码功能美国毅力号火星车成功登陆火星,携带七大关键科学仪器北京时间2021年2月19日4点55分左右,美国毅力号火星车成功在火星着陆。此前,阿联酋的希望号探测器和中国的天问一号探测器已经抵达火星。但阿联酋的希望号探测器是一颗火星人造卫星,巴菲特今年在美国运通获80亿美元收益,该股的整体收益250亿美元WarrenBuffettsBerkshireHathawayhasmadea8billiongainonAmericanExpressthisyear。沃伦巴菲特的伯克希尔哈撒韦乔治恩宗戈拉恩塔拉贾历史上最致命的国王1904年,隆图卢酋长在一个外国委员会面前铺设了110根树枝。每根树枝都代表他村子里因利奥波德国王在刚果的残暴政权而死亡的人。他的证词与数百人一道帮助结束了人类历史上最大的暴行之一卢卡斯里佩尔骨战历史上最臭名昭著的科学恩怨1848年加州淘金热之后,定居者涌向西部致富。除了贵金属,他们还出土了另一件珍宝恐龙骨骼。特别是两位富有的科学家奥斯尼尔查尔斯马什和爱德华科佩争先恐后地发现了这些史前怪物。卢卡斯里上海技物所在中波红外偏振操控超表面功能器件方面取得进展上海技物所李冠海副研究员陈效双和陆卫研究员团队与澳大利亚新南威尔士大学AndreyE。Miroshnichenko教授团队合作,利用超表面对中波红外光子偏振相位和色散等维度的独特操拥抱变化与新趋势,盘点2020年仪器仪表行业关键词时光荏苒,白驹过隙。2020年迎来了尾声,新的一年即将到来。在2020年这一特殊的一年里,变化无处不在,受疫情影响,全球供应链格局发生剧变,仪器仪表市场也同样发生着巨大变化。面对疫