您当前的位置: 大良门户网站-> 财经-> 澳门葡京娱乐pj8-华为诺亚方舟开源预训练模型“哪吒”,4项任务均达到SOTA
澳门葡京娱乐pj8-华为诺亚方舟开源预训练模型“哪吒”,4项任务均达到SOTA
大良门户网站 2020-01-10 12:53:19

澳门葡京娱乐pj8-华为诺亚方舟开源预训练模型“哪吒”,4项任务均达到SOTA

澳门葡京娱乐pj8,出品 | ai科技大本营(id:rgznai100)

bert之后,新的预训练语言模型xlnet、roberta、ernie不断推出,这次,华为诺亚方舟实验室开源了基于bert的中文预训练语言模型nezha(哪吒),寓意模型能像哪吒那样三头六臂、大力出奇迹,可以处理很多不同的自然语言任务。

据介绍,当前版本的nezha基于bert模型,并进行了多处优化,能够在一系列中文自然语言理解任务达到先进水平。

nezha模型的实验中采用了5个中文自然语言理解任务,即cmrc(中文阅读理解)、xnli(自然语言推断)、lcqmc(句义匹配)、pd-ner (命名实体识别任务)、chnsenti(情感分类)。

研究人员在中文维基百科、中文新闻、百度百科数据上训练nezha模型,并且和谷歌发布的中文bert,以及哈工大和科大讯飞联合发布的bert-wwm,还有百度发布的ernie-baidu进行了比较。从下表可以看出,nezha在xnli,lcqmc,peoplesdaily ner,chnsenti任务上达到了先进水平(sota)。表中nezha,nezha-wwm和nezha-span分别代表由原始的bert预训练任务训练得到的,加入全词mask训练得到的以及加入span预测任务训练得到的nezha模型(三者均使用了全函数式相对位置编码)。

github链接:

https://github.com/huawei-noah/pretrained-language-model/blob/master/readme.md

论文链接:

https://arxiv.org/abs/1909.00204

此外,诺亚方舟实验室还开源了tinybert预训练语言模型。

尽管语言模型预训练(例如bert)大大改善了许多自然语言处理任务的性能。但是,预训练语言模型通常在计算上昂贵且占用了大量内存,因此很难在某些资源受限的设备上有效执行它们。为了加快推理速度、减小模型大小并同时保持精度,华为研究人员提出了一种新颖的transformer蒸馏方法,该方法是针对基于transformer模型专门设计的知识蒸馏(kd)方法。

通过利用这种新的知识蒸馏方法,可以将bert中编码的大量知识很好地转移到tinybert。此外,他们为tinybert引入了一个新的两阶段学习框架,该框架在预训练阶段和特定任务的学习阶段都执行transformer蒸馏方法。该框架确保tinybert可以捕获bert的一般领域知识和特定任务知识。在glue基准测试中,tinybert相比bert小7.5倍,比其推理的速度快9.4倍,并且在自然语言理解任务中具有竞争优势。

它在预训练和特定任务的学习阶段都运行了新型的transformer蒸馏方法。tinybert学习的概述如下所示:

论文链接:

https://arxiv.org/abs/1909.10351

nezha预训练语言模型的三大改进维度

据诺亚方舟实验室的官方资料,nezha(哪吒)基于bert在模型、预训练任务和训练算法三个维度进行了改进。

模型改进:bert的网络架构是一个多层的transformer网络,由于transformer并没有直接考虑输入的token的位置信息,原始的transformer模型和bert分别采用了函数式和参数式的绝对位置编码方式,即每一个位置上的输入的token会叠加一个与位置信息相关的一个embedding(这个embedding称为绝对位置编码:absolute position embedding,ape),前者的位置编码是一个与位置相关的函数,后者则是模型参数的一部分,在预训练过程中学到的。

此后,又有工作提出了相对位置编码方式,即在每一层计算隐状态的相互依赖的时候考虑他们之间的相对位置关系,这个相对位置信息表示为一个相对位置编码(relative position embedding,rpe),已有工作均在相对位置编码中加入了可学习的参数。本工作在bert模型中使用了完全函数式的相对位置编码(相对位置编码没有任何需要学习的参数),实验结果表明该位置编码方式使得模型在各个下游任务上的效果均得到明显提升。

预训练任务:本工作引入了全词mask技术,即不同于原始的bert模型mask单个中文字,该技术在mlm预训练任务中mask整个词而不是单个字(如下图全词mask方法mask了一整个词“华为”),进而提升了任务难度使得bert学到更多语义信息。

此外,借鉴spanbert ,nezha模型还引入了span预测任务,该任务mask一个连续的span(例如下图中“机”,“很”,“不”三个字),利用span前后的两个字的最上层表示(下图中的x3和x7)以及待预测字的位置信息来预测该字,如下图中,待预测字为“不”,span预测任务会使用x3,x7和“不“”这个字的位置信息(就是x3和x6还有x6和x7之间的相对位置编码)来预测该字,“机”和“很”的预测也是同样的方法。

该方法使得span前后的字的表示会包含span中字的语义信息,由于在训练过程中,一个句子会被随机mask很多次,所以句子中每个字都有机会成为span的前后字,进而使得各个字学到的表示都会包含周围span的信息,span预测任务能够有效提高模型在下游的span抽取任务(此任务的目标是获取一段文字中目标片段的开始和结束位置)的效果。

训练算法:在训练过程中,采用混合精度训练(mixed precision training)方式,在传统的深度学习训练过程中,所有的变量包括weight,activation和gradient都是用fp32(单精度浮点数)来表示。而在混合精度训练过程中,每一个step会为模型的所有weight维护一个fp32的copy,称为master weights,在做前向和后向传播过程中,master weights会转换成fp16(半精度浮点数)格式,权重,激活函数和梯度都是用fp16进行表示,最后梯度会转换成fp32格式去更新master weights。

优化器方面使用了lamb优化器,通常在深度神经网络训练的batch size很大的情况下(超过一定阈值)会给模型的泛化能力带来负面影响,而lamb优化器通过一个自适应式的方式为每个参数调整learning rate,能够在batch size很大的情况下不损失模型的效果,使得模型训练能够采用很大的batch size,进而极大提高训练速度。在训练bert的研究中,使用lamb优化器在不损失模型效果的前提下,batch size达到了超过30k,使得bert的训练时间从3天降到了76分钟。

浏览:4095