2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > Bert 论文中文翻译

Bert 论文中文翻译

时间:2023-01-14 18:45:42

相关推荐

Bert 论文中文翻译

BERT:预训练的深度双向 Transformer 语言模型

Jacob Devlin;Ming-Wei Chang;Kenton Lee;Kristina Toutanova Google AI Language {jacobdevlin,mingweichang,kentonl,kristout}@

摘要

我们提出了一种新的称为 BERT 的语言表示模型,BERT 代表来自 Transformer 的双向编码器表示(BidirectionalEncoderRepresentations fromTransformers)。不同于最近的语言表示模型(Peters et al., ,Radford et al., ), BERT 旨在通过联合调节所有层中的左右上下文来预训练深度双向表示。因此,只需要一个额外的输出层,就可以对预训练的 BERT 表示进行微调,从而为广泛的任务(比如回答问题和语言推断任务)创建最先进的模型,而无需对特定于任务进行大量模型结构的修改。

BERT 的概念很简单,但实验效果很强大。它刷新了 11 个 NLP 任务的当前最优结果,包括将 GLUE 基准提升至 80.4%(7.6% 的绝对改进)、将 MultiNLI 的准确率提高到 86.7%(5.6% 的绝对改进),以及将 SQuAD v1.1 的问答测试 F1 得分提高至 93.2 分(提高 1.5 分)——比人类表现还高出 2 分。

1. 介绍

语言模型预训练可以显著提高许多自然语言处理任务的效果(Dai and Le, ;Peters et al., ;Radford et al., ;Howard and Ruder, )。这些任务包括句子级任务,如自然语言推理(Bow-man et al., ;Williams et al., )和释义(Dolan and Brockett, ),目的是通过对句子的整体分析来预测句子之间的关系,以及标记级任务,如命名实体识别(Tjong Kim Sang and De Meulder, )和 SQuAD 问答(Rajpurkar et al., ),模型需要在标记级生成细粒度的输出。

现有的两种方法可以将预训练好的语言模型表示应用到下游任务中:基于特征的和微调。基于特征的方法,如 ELMo (Peters et al., ),使用特定于任务的模型结构,其中包含预训练的表示作为附加特特征。微调方法,如生成预训练 Transformer (OpenAI GPT) (Radford et al., )模型,然后引入最小的特定于任务的参数,并通过简单地微调预训练模型的参数对下游任务进行训练。在之前的工作中,两种方法在预训练任务中都具有相同的目标函数,即使用单向的语言模型来学习通用的语言表达。

我们认为,当前的技术严重地限制了预训练表示的效果,特别是对于微调方法。主要的局限性是标准语言模型是单向的,这就限制了可以在预训练期间可以使用的模型结构的选择。例如,在 OpenAI GPT 中,作者使用了从左到右的模型结构,其中每个标记只能关注 Transformer 的自注意层中该标记前面的标记(Williams et al., )。这些限制对于句子级别的任务来说是次优的(还可以接受),但当把基于微调的方法用来处理标记级别的任务(如 SQuAD 问答)时可能会造成不良的影响(Rajpurkar et al., ),因为在标记级别的任务下,从两个方向分析上下文是至关重要的。

在本文中,我们通过提出 BERT 改进了基于微调的方法:来自 Transformer 的双向编码器表示。受完形填空任务的启发,BERT 通过提出一个新的预训练任务来解决前面提到的单向约束:“遮蔽语言模型”(MLM masked language model)(Tay-lor, 1953)。遮蔽语言模型从输入中随机遮蔽一些标记,目的是仅根据被遮蔽标记的上下文来预测它对应的原始词汇的 id。与从左到右的语言模型预训练不同,MLM 目标允许表示融合左右上下文,这允许我们预训练一个深层双向 Transformer。除了遮蔽语言模型之外,我们还提出了一个联合预训练文本对来进行“下一个句子预测”的任务。

本文的贡献如下:

我们论证了双向预训练对语言表征的重要性。与Radford et al., 使用单向语言模型进行预训练不同,BERT 使用遮蔽语言模型来实现预训练深层双向表示。这也与Peters et al., 的研究形成了对比,他们使用了一个由左到右和由右到左的独立训练语言模型的浅层连接。我们表明,预训练的表示消除了许多特定于任务的高度工程化的的模型结构的需求。BERT 是第一个基于微调的表示模型,它在大量的句子级和标记级任务上实现了最先进的性能,优于许多特定于任务的结构的模型。BERT 为 11 个 NLP 任务提供了最先进的技术。我们还进行大量的消融研究,证明了我们模型的双向本质是最重要的新贡献。代码和预训练模型将可在goo.gl/language/bert获取。

2 相关工作

预训练通用语言表示有很长的历史,我们将在本节简要回顾最流行的方法。

2.1 基于特征的方法

几十年来,学习广泛适用的词语表示一直是一个活跃的研究领域,包括非神经网络学领域(Brown et al., 1992;;Blitzer et al., )和神经网络领域(Collobert and Weston, ;Mikolov et al., ;Pennington et al., )方法。经过预训练的词嵌入被认为是现代 NLP 系统的一个不可分割的部分,词嵌入提供了比从头开始学习的显著改进(Turian et al., )。

这些方法已被推广到更粗的粒度,如句子嵌入(Kiros et al., ;Logeswaran and Lee, )或段落嵌入(Le and Mikolov, )。与传统的单词嵌入一样,这些学习到的表示通常也用作下游模型的输入特征。

ELMo(Peters et al., )从不同的维度对传统的词嵌入研究进行了概括。他们建议从语言模型中提取上下文敏感的特征。在将上下文嵌入与特定于任务的架构集成时,ELMo 为几个主要的 NLP 标准提供了最先进的技术(Peters et al., ),包括在 SQuAD 上的问答(Rajpurkar et al., ),情感分析(Socher et al., ),和命名实体识别(jong Kim Sang and De Meul-der, )。

2.2 基于微调的方法

语言模型迁移学习(LMs)的一个最新趋势是,在对受监督的下游任务的模型进行微调之前,先对 LM 目标上的一些模型构造进行预训练(Dai and Le, ;Howard and Ruder, ;Radford et al., )。这些方法的优点是只有很少的参数需要从头开始学习。至少部分得益于这一优势,OpenAI GPT (Radford et al., )在 GLUE 基准测试的许多句子级任务上取得了此前最先进的结果(Wang et al.())。

2.3 从有监督的数据中迁移学习

虽然无监督预训练的优点是可用的数据量几乎是无限的,但也有研究表明,从具有大数据集的监督任务中可以进行有效的迁移,如自然语言推理(Con-neau et al., )和机器翻译(McCann et al., )。在NLP之外,计算机视觉研究也证明了从大型预训练模型中进行迁移学习的重要性,有一个有效的方法可以微调在 ImageNet 上预训练的模型(Deng et al., ;Yosinski et al., )

3 BERT

本节将介绍 BERT 及其具体实现。首先介绍了 BERT 模型结构和输入表示。然后我们在 3.3 节介绍本文的核心创新——预训练任务。在 3.4 和 3.5 节中分别详细介绍了预训练过程和微调模型过程。最后,在 3.6 节中讨论了 BERT 和 OpenAI GPT 之间的区别。

3.1 模型结构

BERT 的模型结构是一个基于Vaswani et al.()描述的原始实现的多层双向 Transformer 编码器,并且 Transformer 编码器发布在tensor2tensor代码库中。由于最近 Transformer 的使用已经非常普遍,而且我们的实现与最初的实现实际上是相同的,所以我们将省略对模型结构的详尽的背景描述,并向读者推荐Vaswani et al.()以及优秀的指南,如“带注释的 Transformer”。

在这项工作中,我们表示层的数量(即,Transformer 块)为 $L$,隐藏尺寸为 $H$,自注意头的个数为 $A$。在所有例子中,我们将前馈/过滤器的大小设置为 $4H$,即当 $H = 768$ 时是 $3072$;当 $H = 1024$ 是 $4096$。我们主要分析两个模型大小的结果:

$BERT_{BASE}: L=12, H=768, A=12, Total Parameters=110M$$BERT_{LARGE}: L=24, H=1024, A=16, Total Parameters=340M$

为了方便比较,$BERT_{BASE}$ 选择了与 OpenAI GPT 一样的模型大小。然而,重要的是,BERT Transformer 使用的是双向的自注意力,而 GPT Transformer 使用的是受限的自注意力,每个标记只能关注其左边的语境。我们注意到,在文献中,双向 Transformer 通常被称为“Transformer 编码器”,而只有标记左侧语境的版本由于可以用于文本生成而被重新定义为“Transformer 解码器”。BERT、OpenAI GPT 和 ELMo 之间的比较如图 1 所示。

3.2 输入表示

我们的输入表示能够在一个标记序列中清楚地表示单个文本句子或一对文本句子(例如,[Question, Answer])。(注释:在整个工作中,“句子”可以是连续的任意跨度的文本,而不是实际语言意义上的句子。“序列”是指输入到 BERT 的标记序列,它可以是单个句子,也可以是两个句子组合在一起。)通过把给定标记对应的标记嵌入、句子嵌入和位置嵌入求和来构造其输入表示。图 2 给出了输入表示的可视化表示。 细节是:

我们使用含 3 万个标记词语的 WordPiece 嵌入(Wu et al., )。我们用 ## 表示拆分的单词片段。我们使用学习到的位置嵌入,支持的序列长度最长可达 512 个标记。每个序列的第一个标记始终是特殊分类嵌入([CLS])。该特殊标记对应的最终隐藏状态(即,Transformer 的输出)被用作分类任务中该序列的总表示。对于非分类任务,这个最终隐藏状态将被忽略。句子对被打包在一起形成一个单独的序列。我们用两种方法区分这些句子。方法一,我们用一个特殊标记([SEP])将它们分开。方法二,我们给第一个句子的每个标记添加一个可训练的句子 A 嵌入,给第二个句子的每个标记添加一个可训练的句子 B 嵌入。对于单句输入,我们只使用句子 A 嵌入。

图 2:BERT 的输入表示。输入嵌入是标记嵌入(词嵌入)、句子嵌入和位置嵌入的总和。

3.3.1 任务一#:遮蔽语言模型

直觉上,我们有理由相信,深度双向模型严格来说比从左到右模型或从左到右模型结合从右到左模型的浅层连接更强大。不幸的是,标准条件语言模型只能从左到右或从右到左进行训练,因为双向条件作用将允许每个单词在多层上下文中间接地“看到自己”。

为了训练深度双向表示,我们采用了一种简单的方法,即随机遮蔽一定比例的输入标记,然后仅预测那些被遮蔽的标记。我们将这个过程称为“遮蔽语言模型”(MLM),尽管在文献中它通常被称为完形填词任务(Taylor, 1953)。在这种情况下,就像在标准语言模型中一样,与遮蔽标记相对应的最终隐藏向量被输入到与词汇表对应的输出 softmax 中(也就是要把被遮蔽的标记对应为词汇表中的一个词语)。在我们所有的实验中,我们在每个序列中随机遮蔽 15% 的标记。与去噪的自动编码器(Vincent et al., )不同的是,我们只是让模型预测被遮蔽的标记,而不是要求模型重建整个输入。

虽然这确实允许我们获得一个双向预训练模型,但这种方法有两个缺点。第一个缺点是,我们在预训练和微调之间造成了不匹配,因为 [MASK] 标记在微调期间从未出现过。为了缓和这种情况,我们并不总是用真的用 [MASK] 标记替换被选择的单词。而是,训练数据生成器随机选择 15% 的标记,例如,在my dog is hairy 这句话中,它选择 hairy。然后执行以下步骤:

数据生成不会总是用 [MASK] 替换被选择的单词,而是执行以下操作:80% 的情况下:用 [MASK] 替换被选择的单词,例如,my dog is hairy → my dog is [MASK]10% 的情况下:用一个随机单词替换被选择的单词,例如,my dog is hairy → my dog is apple10% 的情况下:保持被选择的单词不变,例如,my dog is hairy → my dog is hairy。这样做的目的是使表示偏向于实际观察到的词。

Transformer 编码器不知道它将被要求预测哪些单词,或者哪些单词已经被随机单词替换,因此它被迫保持每个输入标记的分布的上下文表示。另外,因为随机替换只发生在 1.5% 的标记(即,15% 的 10%)这似乎不会损害模型的语言理解能力。

第二个缺点是,使用 Transformer 的每批次数据中只有 15% 的标记被预测,这意味着模型可能需要更多的预训练步骤来收敛。在 5.3 节中,我们证明了 Transformer 确实比从左到右的模型(预测每个标记)稍微慢一点,但是 Transformer 模型的实验效果远远超过了它增加的预训练模型的成本。

3.3.2 任务2#:下一句预测

许多重要的下游任务,如问题回答(QA)和自然语言推理(NLI),都是建立在理解两个文本句子之间的关系的基础上的,而这并不是语言建模直接捕捉到的。为了训练一个理解句子关系的模型,我们预训练了一个下一句预测的二元分类任务,这个任务可以从任何单语语料库中简单地归纳出来。具体来说,在为每个训练前的例子选择句子 A 和 B 时,50% 的情况下 B 是真的在 A 后面的下一个句子,50% 的情况下是来自语料库的随机句子。比如说:

我们完全随机选择不是下一句的句子,最终的预训练模型在这个任务中达到了 97%-98% 的准确率。尽管这个任务很简单,但是我们在 5.1 节中展示了针对此任务的预训练对 QA 和 NLI 都非常有益。

3.4 预训练过程

预训练过程大体上遵循以往文献中语言模型预训练过程。对于预训练语料库,我们使用 BooksCorpus(800M 单词)(Zhu et al., )和英语维基百科(2,500M 单词)。对于维基百科,我们只提取文本段落,而忽略列表、表格和标题。为了提取长的连续序列,使用文档级别的语料库,而不是使用像 Billion Word Benchmark (Chelba et al., )那样使用打乱顺序的句子级别语料库是至关重要的。

为了生成每个训练输入序列,我们从语料库中采样两段文本,我们将其称为“句子”,尽管它们通常比单个句子长得多(但也可以短一些)。第一个句子添加 A 嵌入,第二个句子添加 B 嵌入。50% 的情况下 B 确实是 A 后面的实际下一句,50% 的情况下它是随机选取的一个的句子,这是为“下一句预测”任务所做的。两句话合起来的长度要小于等于 512 个标记。语言模型遮蔽过程是在使用 WordPiece 序列化句子后,以均匀的 15% 的概率遮蔽标记,不考虑部分词片的影响(那些含有被 WordPiece 拆分,以##为前缀的标记)。

我们使用 256 个序列(256 个序列 * 512 个标记= 128,000 个标记/批次)的批大小进行 1,000,000 步的训练,这大约是在 33 亿词的语料库中训练 40 个周期。我们用Adam 优化算法并设置其学习率为 $1e-4$,$β1 = 0.9,β2 = 0.999$,$L2$ 的权重衰减是 0.01,并且在前 10000 步学习率热身(learning rate warmup),然后学习率开始线性衰减。我们在所有层上使用 0.1 概率的 dropout。像 OpenAI GPT 一样,我们使用 gelu 激活(Hendrycks and Gimpel, )而不是标准 relu。训练损失是遮蔽语言模型似然值与下一句预测似然值的平均值。

在 4 块Cloud TPU(共含有 16 块 TPU)上训练 $BERT_{BASE}$。在 16 块 Cloud TPU(共含有 64 块 TPU)训练 $BERT_{LARGE}$。每次训练前需要 4 天的时间。

3.5 微调过程

对于序列级别的分类任务,BERT 微调非常简单。为了获得输入序列的固定维度的表示,我们取特殊标记([CLS])构造相关的嵌入对应的最终的隐藏状态(即,为 Transformer 的输出)的池化后输出。我们把这个向量表示为 $C \in \mathbb{R}^H$,在微调期间唯一需要的新增加的参数是分类层的参数矩阵 $W \in \mathbb{R}^{K \times H}$,其中 $K$ 是要分类标签的数量。分类标签的概率$P \in \mathbb{R}^K$ 由一个标准的 softmax 来计算,$P=softmax(CW^T)$。对 BERT 的参数矩阵 $W$ 的所有参数进行了联合微调,使正确标签的对数概率最大化。对于区间级和标记级预测任务,必须以特定于任务的方式稍微修改上述过程。具体过程见第 4 节的相关内容。

对于微调,除了批量大小、学习率和训练次数外,大多数模型超参数与预训练期间相同。Dropout 概率总是使用 0.1。最优超参数值是特定于任务的,但我们发现以下可能值的范围可以很好地在所有任务中工作:

Batch size: 16, 32Learning rate (Adam): 5e-5, 3e-5, 2e-5Number of epochs: 3, 4

我们还观察到大数据集(例如 100k+ 标记的训练集)对超参数选择的敏感性远远低于小数据集。微调通常非常快,因此只需对上述参数进行完全搜索,并选择在验证集上性能最好的模型即可。

3.6 BERT 和 OpenAI GPT 的比较

在现有预训练方法中,与 BERT 最相似的是 OpenAI GPT,它在一个大的文本语料库中训练从左到右的 Transformer 语言模型。事实上,BERT 中的许多设计决策都是有意选择尽可能接近 GPT 的,这样两种方法就可以更加直接地进行比较。我们工作的核心论点是,在 3.3 节中提出的两项新的预训练语言模型任务占了实验效果改进的大部分,但是我们注意到 BERT 和 GPT 在如何训练方面还有其他几个不同之处:

GPT 是在 BooksCorpus(800M 词)上训练出来的;BERT 是在 BooksCor-pus(800M 词)和 Wikipedia(2,500M 词)上训练出来的。GPT 仅在微调时使用句子分隔符([SEP])和分类标记([CLS]);BERT 在预训练时使用 [SEP], [CLS] 和 A/B 句嵌入。GPT 在每批次含 32,000 词上训练了 1M 步;BERT 在每批次含 128,000 词上训练了 1M 步。GPT 在所有微调实验中学习速率均为 5e-5;BERT 选择特定于任务的在验证集中表现最好的微调学习率。

为了分清楚这些差异的带来的影响,我们在 5.1 节中的进行每一种差异的消融实验表明,大多数的实验效果的改善实际上来自新的预训练任务(遮蔽语言模型和下一句预测任务)。

图 3:我们具体于特定任务的模型是通过给 BERT 加一个额外的输出层构成,所以仅需要从头学习最小数量的参数。其中(a)和(b)是序列级任务,(c)和(d)是标记级任务。图中 $E$ 表示嵌入的输入,$Ti$ 表示第 $i$ 个标记的上下文表示,[CLS] 是分类输出的特殊符号,[SEP] 是分离非连续标记(分离两个句子)序列的特殊符号。

4. 实验

在这一节,我们将展示 BERT 在 11 项自然语言处理任务中的微调结果。

4.1 GLUE 数据集

通用语言理解评价 (GLUE General Language Understanding Evaluation) 基准(Wang et al.())是对多种自然语言理解任务的集合。大多数 GLUE 数据集已经存在多年,但 GLUE 的用途是(1)以分离的训练集、验证集和测试集的标准形式发布这些数据集;并且(2)建立一个评估服务器来缓解评估不一致和过度拟合测试集的问题。GLUE 不发布测试集的标签,用户必须将他们的预测上传到 GLUE 服务器进行评估,并对提交的数量进行限制。

GLUE 基准包括以下数据集,其描述最初在Wang et al.()中总结:

MNLI多类型的自然语言推理(Multi-Genre Natural Language Inference)是一项大规模的、众包的蕴含分类任务(Williams et al., )。给定一对句子,目的是预测第二个句子相对于第一个句子是暗含的、矛盾的还是中立的关系。

QQPQuora问题对(Quora Question Pairs)是一个二元分类任务,目的是确定两个问题在Quora上问的语义是否相等 (Chen et al., )。

QNLI问题自然语言推理(Question Natural Language Inference)是斯坦福问题回答数据集(Rajpurkar et al., )已经转换为二进制分类任务的一个版本Wang et al.()。正类的例子是(问题,句子)对,句子中包含正确的答案,和负类的例子是来自同一段的(问题,句子)对,句子中不包含正确的答案。

SST-2斯坦福情感语义树(Stanford Sentiment Treebank)数据集是一个二元单句分类任务,数据由电影评论中提取的句子组成,并对由人工对这些句子进行标注(Socher et al., )。

CoLA语言可接受性单句二元分类任务语料库(Corpus of Linguistic Acceptability),它的目的是预测一个英语句子在语言学上是否 “可接受”(Warstadt et al., )。

STS-B文本语义相似度基准(Semantic Textual Similarity Bench-mark )是从新闻标题中和其它来源里提取的句子对的集合(Cer et al., )。他们用从 1 到 5 的分数标注,表示这两个句子在语义上是多么相似。

MRPC微软研究释义语料库(Microsoft Research Paraphrase Corpus)从在线新闻中自动提取的句子对组成,并用人工注解来说明这两个句子在语义上是否相等(Dolan and Brockett, .)。

RTE识别文本蕴含(Recognizing Textual Entailment)是一个与 MNLI 相似的二元蕴含任务,只是 RTE 的训练数据更少Bentivogli et al., 。

WNLI威诺格拉德自然语言推理(Winograd NLI)是一个来自(Levesque et al., ))的小型自然语言推理数据集。GLUE网页提示到这个数据集的构造存在问题,每一个被提交给 GLUE 的经过训练的系统在预测多数类时都低于 65.1 这个基线准确度。因此,出于对 OpenAI GPT 的公平考虑,我们排除了这一数据集。对于我们的 GLUE 提交,我们总是预测多数类。

4.1.1 GLUE 结果

为了在 GLUE 上微调模型,我们按照本文第 3 节中描述的那样表示输入的句子或者句子对,并且使用最后一层的隐藏向量 $C \in \mathbb{R}^H$ 中的第一个输入标记([CLS])作为句子总的表示。如图3 (a)和(b)所示。在微调期间唯一引入的新的参数是一个分类层参数矩阵 $W \in \mathbb{R}^{K \times H}$,其中 $K$ 是要分类的数量。我们用 $C$ 和 $W$ 计算一个标准的分类损失,换句话说是 $log(softmax(CW^T))$。

我们在 GLUE 所有的任务中使用 32 的批次大小和 3 个周期。对于每个任务我们使用 $5e-5, 4e-5, 3e-5, 2e-5$ 的学习率来微调,然后在验证集中选择表现最好的学习率。此外,对于 $BERT_{LARGE}$ 我们发现它有时在小数据集上微调时不稳定(换句话说是,有时运行时会使结果更差),因此,我们进行了几次随机重启,并选择了在验证集上表现最好的模型。对于随机重启,我们使用相同的预训练检查点,但执行不同的数据打乱和分类器层初始化来微调模型。我们注意到,GLUE 发布的数据集不包括测试的标签,所以我们分别将 $BERT_{BASE}$ 和 $BERT_{LARGE}$ 向 GLUE 评估服务器提交结果。

结果如表 1 所示。在所有的任务上,$BERT_{BASE}$ 和 $BERT_{LARGE}$ 都比现有的系统更加出色 ,与先进水平相比,分别取得 4.4% 及 6.7% 的平均改善。请注意,除了 $BERT_{BASE}$ 含有注意力屏蔽(attention masking),$BERT_{BASE}$ 和 OpenAI GPT 的模型结构方面几乎是相同的。对于最大和最广泛使用的 GLUE 任务 MNLI,BERT 比当前最优模型获得了 4.7% 的绝对提升。在 GLUE 官方的排行榜上, $BERT_{LARGE}$ 获得了 80.4 的分数,与原榜首的 OpenAI GPT 相比截止本文写作时只获得了 72.8 分。

有趣的是, $BERT_{LARGE}$ 在所有任务中都显著优于 $BERT_{BASE}$,即使是在那些只有很少训练数据的任务上。BERT 模型大小的影响在本文 5.2 节有更深入的探讨。

表 1:GLUE 测试结果,由 GLUE 评估服务器评分。每个任务下面的数字表示训练示例的数量。“Average”列与官方 GLUE 评分略有不同,因为我们排除了有问题的 WNLI 数据集。OpenAI GPT = (L=12, H=768, A=12); BERTBASE = (L=12, H=768, A=12); BERTLARGE = (L=24, H=1024, A=16)。BERT 和 OpenAI GPT 都是单模型,单任务。所有结果可以从/leaderboard和/language-unsupervised/获得。

4.2 SQuAD v1.1

斯坦福问答数据集(SQuAD Standford Question Answering Dataset)是一个由 100k 个众包的问题/答案对组成的集合(Rajpurkar et al., )。给出一个问题和一段来自维基百科包含这个问题答案的段落,我们的任务是预测这段答案文字的区间。例如:

输入问题: Where do water droplets collide with ice crystals to form precipitation?输入段落 ... Precipitation forms as smaller droplets coalesce via collision with other rain drops or ice crystals within a cloud. ...输出答案 within a cloud

这种区间预测任务与 GLUE 的序列分类任务有很大的区别,但是我们能够让 BERT 以一种直接的方式在 SQuAD 上运行。就像在 GLUE 中,我们将输入问题和段落表示为一个单一打包序列(packed sequence),其中问题使用 A 嵌入,段落使用 B 嵌入。在微调模型期间唯一需要学习的新参数是区间开始向量 $S \in \mathbb{R}^H$ 和区间结束向量 $E \in \mathbb{R}^H$。让 BERT 模型最后一层的隐藏向量的第 $i^{th}$ 输入标记被表示为 $T_i \in \mathbb{R}^H$。如图 3(c)可视化的表示。然后,计算单词 $i$ 作为答案区间开始的概率,它是 $T_i$ 和 $S$ 之间的点积并除以该段落所有单词的结果之后再 softmax:

$$P_i=\dfrac{e^{S \cdot T_i}}{\sum_j e^{S \cdot T_j}}$$

同样的式子用来计算单词作为答案区间的结束的概率,并采用得分最高的区间作为预测结果。训练目标是正确的开始和结束位置的对数可能性。

我们使用 $5e-5$ 的学习率,32 的批次大小训练模型 3 个周期。在模型推断期间,因为结束位置与开始位置没有条件关系,我们增加了结束位置必须在开始位置之后的条件,但没有使用其他启发式。为了方便评估,把序列化后的标记区间对齐回原始未序列化的输入。

结果如表 2 中描述那样。SQuAD 使用一个高度严格的测试过程,其中提交者必须手动联系小组组织人员,然后在一个隐藏的测试集上运行他们的系统,所以我们只提交了最好的模型来测试。表中显示的结果是我们提交给小组的第一个也是唯一一个测试。我们注意到上面的结果在小组排行榜上没有最新的公共模型描述,并被允许在训练他们的模型时使用任何的公共数据。因此,我们在提交的模型中使用非常有限的数据增强,通过在 SQuAD 和 TriviaQA(Joshi et al., )联合训练。

我们表现最好的模型在集成模型排名中上比排名第一模型高出 1.5 个 F1 值,在一个单模型排行榜中比排名第一的模型高出 1.7(译者注:原文是 1.3) 个 F1 值。实际上,我们的单模型 BERT 就比最优的集成模型表现更优。即使只在 SQuAD 数据集上(不用 TriviaQA 数据集)我们只损失 0.1-0.4 个 F1 值,而且我们的模型输出结果仍然比现有模型的表现好很多。

表 2:SQuAD 结果。Ensemble BERT 是使用不同的预训练模型检查点和微调种子的 7x 模型。

4.3 命名实体识别

为了评估标记任务的性能,我们在 CoNLL 命名实体识别数据集(NER Named Entity Recognition)上微调 BERT 模型。该数据集由 200k 个训练单词组成,这些训练词被标注为人员、组织、地点、杂项或其他(无命名实体)。

为了微调,我们将最后一层每个单词的隐藏表示 $T_i \in \mathbb{R}^H$ 送入一个在 NER 标签集合的分类层。每个单词的分类不以周围预测为条件(换句话说,没有自回归和没有 CRF)。为了与词块(WordPiece)序列化相适应,我们把 CoNLI-序列化的(CoNLL-tokenized)的输入词输入我们的 WordPiece 序列化器,然后使用这些隐藏状态相对应的第一个块而不用预测标记为 X的块。例如:

由于单词块序列化边界是输入中已知的一部分,因此对训练和测试都要这样做。 结果如表 3 所示。$BERT_{LARGE}$ 优于现存的最优模型,使用多任务学习的交叉视野训练(Clark et al., ),CoNLL- 命名实体识别测试集上高 0.2 F1 值。

表 3:CoNLL- 命名实体识别。模型超参数使用验证集进行选择,报告的验证集和测试分数使用这些超参数进行随机五次以上的实验然后取实验的平均结果。

4.4 SWAG

Adversarial Generations(SWAG)数据集由 113k 个句子对组合而成,用于评估基于常识的推理(Zellers et al., )。

给出一个来自视频字幕数据集的句子,任务是在四个选项中选择最合理的延续。例如:

为 SWAG 数据集调整 BERT 模型的方式与为 GLUE 数据集调整的方式相似。对于每个例子,我们构造四个输入序列,每一个都连接给定的句子(句子A)和一个可能的延续(句子B)。唯一的特定于任务的参数是我们引入向量 $V \in \mathbb{R}^{H}$,然后它点乘最后层的句子总表示 $C_i \in \mathbb{R}^H$ 为每一个选择 $i$ 产生一个分数。概率分布为 softmax 这四个选择:

$$P_i=\dfrac{e^{V \cdot C_i}}{\sum_j^4 e^{S \cdot C_j}}$$

我们使用 $2e-5$ 的学习率,16 的批次大小训练模型 3 个周期。结果如表 4 所示。$BERT_{LARGE}$ 优于作者的 ESIM+ELMo 的基线标准模型的 27.1% 。

表 4:SWAG 验证集和测试集准确率。测试结果由 SWAG 作者对隐藏的标签进行评分。人类的表现是用 100 个样本来衡量的,正如 SWAG 论文中描述的那样。

5. 消融研究(Ablation Studies)

虽然我们已经证明了非常强有力的实证结果,但到目前为止提出的结果并没有提现出 BERT 框架的每个部分具体的贡献。在本节中,我们对 BERT 的许多方面进行了消融实验,以便更好地理解每个部分的相对重要性。

5.1 预训练任务的影响

我们的核心观点之一是,与之前的工作相比,BERT 的深层双向性(通过遮蔽语言模型预训练)是最重要的改进。为了证明这一观点,我们评估了两个新模型,它们使用与 $BERT_{BASE}$ 完全相同的预训练数据、微调方案和 Transformer 超参数:

No NSP:模型使用“遮蔽语言模型”(MLM)但是没有“预测下一句任务”(NSP)。LTR & No NSP:模型使用一个从左到右(LTR)的语言模型,而不是遮蔽语言模型。在这种情况下,我们预测每个输入词,不应用任何遮蔽。在微调中也应用了仅限左的约束,因为我们发现使用仅限左的上下文进行预训练和使用双向上下文进行微调总是比较糟糕。此外,该模型未经预测下一句任务的预训练。这与OpenAI GPT有直接的可比性,但是使用更大的训练数据集、输入表示和微调方案。

结果如表 5 所示。我们首先分析了 NSP 任务所带来的影响。我们可以看到去除 NSP 对 QNLI、MNLI 和 SQuAD 的表现造成了显著的伤害。这些结果表明,我们的预训练方法对于获得先前提出的强有力的实证结果是至关重要的。

接着我们通过对比 “No NSP” 与 “LTR & No NSP” 来评估训练双向表示的影响。LTR 模型在所有任务上的表现都比 MLM 模型差,在 MRPC 和 SQuAD 上的下降特别大。对于SQuAD来说,很明显 LTR 模型在区间和标记预测方面表现很差,因为标记级别的隐藏状态没有右侧上下文。因为 MRPC 不清楚性能差是由于小的数据大小还是任务的性质,但是我们发现这种性能差是在一个完全超参数扫描和许多次随机重启之间保持一致的。

为了增强 LTR 系统,我们尝试在其上添加一个随机初始化的 BiLSTM 来进行微调。这确实大大提高了 SQuAD 的成绩,但是结果仍然比预训练的双向模型表现差得多。它还会损害所有四个 GLUE 任务的性能。

我们注意到,也可以培训单独的 LTR 和 RTL 模型,并将每个标记表示为两个模型表示的连接,就像 ELMo 所做的那样。但是:(a)这是单个双向模型参数的两倍大小;(b)这对于像 QA 这样的任务来说是不直观的,因为 RTL 模型无法以问题为条件确定答案;(c)这比深层双向模型的功能要弱得多,因为深层双向模型可以选择使用左上下文或右上下文。

表 5:在预训练任务中使用 $BERT_{BASE}$ 模型进行消融实验。“No NSP”表示不进行下一句预测任务来训练模型。“LTR & No NSP”表示就像 OpenAI GPT 一样,使用从左到右的语言模型不进行下一句预测任务来训练模型。“+ BiLSTM”表示在“LTR & No NSP”模型微调时添加一个随机初始化的 BiLSTM 层。

5.2 模型大小的影响

在本节中,我们将探讨模型大小对微调任务准确度的影响。我们用不同的层数、隐藏单位和注意力头个数训练了许多 BERT 模型,同时使用了与前面描述的相同的超参数和训练过程。

选定 GLUE 任务的结果如表 6 所示。在这个表中,我们报告了 5 次在验证集上的微调的随机重启的平均模型准确度。我们可以看到,更大的模型在所选 4 个数据集上都带来了明显的准确率上升,甚至对于只有 3600 个训练数据的 MRPC 来说也是如此,并且与预训练任务有很大的不同。也许令人惊讶的是,相对于现有文献,我们能够在现有的模型基础上实现如此显著的改进。例如,Vaswani et al.()研究的最大 Transformer 为(L=6, H=1024, A=16),编码器参数为 100M,我们所知的文献中的最大 Transformer 为(L=64, H=512, A=2),参数为235M(Al-Rfou et al., )。相比之下,$BERT_{BASE}$ 含有 110M 参数而 $BERT_{LARGE}$ 含有 340M 参数。

多年来人们都知道,增加模型的大小将持续提升在大型任务(如机器转换和语言建模)上的的表现,表 6 所示的由留存训练数据(held-out traing data)计算的语言模型的困惑度(perplexity)。然而,我们相信,这是第一次证明,如果模型得到了足够的预训练,那么将模型扩展到极端的规模也可以在非常小的任务中带来巨大的改进。

表 6:调整 BERT 的模型大小。#L = 层数;#H = 隐藏维度大小;#A = 注意力头的个数。“LM (ppl)”表示遮蔽语言模型在预留训练数据上的困惑度。

5.3 训练步数的影响

图 4 显示了经过 K 步预训练模型的检查点再模型微调之后在 MNLI 验证集上的准确率。这让我们能够回答下列问题:

问:BERT真的需要这么多的预训练 (128,000 words/batch * 1,000,000 steps) 来实现高的微调精度吗? 答:是的,$BERT_{BASE}$ 在 MNLI 上进行 1M 步预训练时的准确率比 500k 步提高了近 1.0%。问:遮蔽语言模型的预训练是否比 LTR 模型预训练训收敛得慢,因为每批只预测 15% 的单词,而不是每个单词? 答:遮蔽语言模型的收敛速度确实比 LTR 模型稍慢。然而,在绝对准确性方面,遮蔽语言模型几乎在训练一开始就超越 LTR 模型。

图 4:调整模型的训练步数。图中展示了已经预训练了 k 步后的模型参数在 MNLI 数据集上的再经过微调后的准确率。x 轴的值就是 k。

5.4 使用 BERT 基于特征的方法

到目前为止,所有的 BERT 结果都使用了微调方法,将一个简单的分类层添加到预训练的模型中,并在一个下行任务中对所有参数进行联合微调。然而,基于特征的方法,即从预训练模型中提取固定的特征,具有一定的优势。首先,并不是所有 NLP 任务都可以通过 Transformer 编码器体系结构轻松地表示,因此需要添加特定于任务的模型体系结构。其次,能够一次性耗费大量计算预先计算训练数据的表示,然后在这种表示的基础上使用更节省计算的模型进行许多实验,这有很大的计算优势。

在本节中,我们通过在 CoNLL- 命名实体识别任务上生成类似于 elmo 的预训练的上下文表示来评估基于特征的方法中的 BERT 表现有多好。为此,我们使用与第 4.3 节相同的输入表示,但是使用来自一个或多个层的激活输出,而不需要对BERT的任何参数进行微调。在分类层之前,这些上下文嵌入被用作对一个初始化的两层 768 维 Bi-LSTM 的输入。

结果如表 7 所示。最佳的执行方法是从预训练的转换器的前 4 个隐藏层串联符号表示,这只比整个模型的微调落后 0.3 F1 值。这说明 BERT 对于微调和基于特征的方法都是有效的。

表 7:在 CoNLL- 命名实体识别上使用基于特征的方法,并调整 BERT 层数。来自指定层的激活输出被组合起来,并被送到一个两层的 BiLSTM 中,而不需要反向传播到 BERT。

6. 结论

最近,由于使用语言模型进行迁移学习而取得的实验提升表明,丰富的、无监督的预训练是许多语言理解系统不可或缺的组成部分。特别是,这些结果使得即使是低资源(少量标签的数据集)的任务也能从非常深的单向结构模型中受益。我们的主要贡献是将这些发现进一步推广到深层的双向结构,使同样的预训练模型能够成功地广泛地处理 NLP 任务。

虽然这些实证结果很有说服力,在某些情况下甚至超过了人类的表现,但未来重要的工作是研究 BERT 可能捕捉到的或不捕捉到的语言现象。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。