WMT 2019国际机器翻译大赛:微软亚洲研究院以7项第一成为冠军

栏目: 编程工具 · 发布时间: 5年前

内容简介:雷锋网图片来自大赛网站,横向为源语种,纵向为目标语种

雷锋网 (公众号:雷锋网) AI 科技评论按,近日,由国际计算语言学协会 ACL(The Association for Computational Linguistics)举办的 WMT 2019 国际机器翻译比赛的客观评测结果揭晓,微软亚洲研究院机器学习组在参加的 11 项机器翻译任务中,有 7 项获得了第一名,另外 4 项获得第二名。

WMT 2019国际机器翻译大赛:微软亚洲研究院以7项第一成为冠军

图片来自大赛网站,横向为源语种,纵向为目标语种

7项任务获第一,4项任务获第二

WMT 的全称为 Conference on Machine Translation (http://www.statmt.org/wmt19/),是全球学术界公认的国际顶级机器翻译比赛。自 2006 年至今,WMT 机器翻译比赛已经成功举办 14 届,每一次比赛都是全球各大高校、科技公司与学术机构展示自身机器翻译实力的较量,更是见证了机器翻译技术的不断进步。

在本届 WMT 2019 大赛中(http://www.statmt.org/wmt19/translation-task.html),共有来自全球的 50 多支队伍参加,包括微软、Facebook、百度、字节跳动、平安、日本情报通信研究机构(NICT)等企业、科研机构和高校。大赛共设置了 19 项不同语言之间的翻译任务,微软亚洲研究院参加了 11 项,其中 7 项翻译任务获第一,包括:德语-英语、德语-法语、法语-德语、中文-英语、英语-立陶宛语、英语-芬兰语、俄语-英语。另外 4 项任务获得第二,包括:英语-德语、立陶宛语-英语、芬兰语-英语、英语-哈萨克语。来自微软的另外一支团队则在英语-德语的任务上获得了第一名。

结果显示,此次大赛的亚军团队在 3 项任务中获得了第一,季军团队则有两项获得第一,来自微软亚洲研究院的神经网络机器翻译算法的表现遥遥领先于其他参赛队伍。

机器翻译算法改进

2018 年 3 月,由微软亚洲研究院与微软雷德蒙研究院共同研发的机器翻译系统便在 WMT 2017 大会上发布的通用新闻报道测试 newstest2017 机器翻译系统融合了微软亚洲研究院机器学习组的最近研究成果—— 对偶学习(Dual Learning)推敲网络(Deliberation Networks) ,以及自然语言计算组的最新技术—— 联合训练(Joint Training)和一致性规范(Agreement Regularization)

在 WMT 2019 的比赛中,微软亚洲研究院机器学习组再次将多个创新的算法运用在了机器翻译的任务中,从学习机制、预训练、网络架构优化、数据增强等方面,提升了机器翻译结果的质量。

此次使用的创新算法包括:

  • MADL:Multi-agent dual learning,多体对偶学习

  • MASS:Masked sequence to sequence pre-training,屏蔽序列到序列的预训练

  • NAO:Automatic neural architecture optimization,自动神经网络架构优化

  • SCA:Soft contextual data augmentation,软性上下文数据增强

其中,关于 NAO 的论文已被 NIPS 2018 收录,关于 MADL 的论文已被 ICLR 2019 收录,关于 MASS 的论文则被 ICML 2019 收录。

新的学习机制:MADL 多体对偶学习

在机器翻译中,训练数据的数据量越大、质量越高,其训练的翻译结果越好。基于对偶学习,创新的 MADL 算法利用正向与反向翻译的多个模型对单语数据进行前向和后向翻译并打分,然后将得分最高的数据放置到训练数据中从而获得更多高质量的数据,或者将单语数据的前向后向重建误差加入到损失函数里来增强学习过程。MADL 不局限于某个语种,可以在任何源语种和目标语种之间提供这样的对偶学习能力。

更好的预训练:MASS 屏蔽序列到序列的预训练

MASS 是针对序列生成设计的预训练算法,比 BERT 以及 GPT/2 更加通用。BERT 模型通常是屏蔽掉句子中的一个单词,然后通过分类来预测这个词;GPT 模型是给定前面的词,通过分类生成后面的词,直至一句话或整篇文档;两者都是预训练一个编码器。而翻译则是基于编码器-解码器-注意力框架,因此 BERT 和 GPT/2 并不能很好地适用于翻译任务。但 MASS 则能将句子中的部分连续片断随机屏蔽,然后训练一个编码器-解码器-注意力模型预测生成该片断,从而利用海量单语数据预训练然后初始化翻译模型。因此,MASS 比 BERT 和 GPT/2 都更适用于机器翻译这个应用场景。实验证明,MASS 屏蔽翻译句子中 50% 的片断效果最好。

网络架构优化: NAO 自动神经网络架构优化

NAO 是从神经网络结构优化的角度去提升机器翻译水平。不同的网络结构通常对于翻译结果有着较大影响,NAO 把离散的网络结构嵌入到连续的向量空间,从而通过连续优化找到更好的网络结构。与固定的 Transformer 相比,NAO 可以找到更多样的网络结构,和 Transformer 形成互补优势,使得机器翻译多模型集成的结果更佳。

数据增强:SCA 软性上下文数据增强

所谓 SCA 软性上下文数据增强,是在双语训练数据中随机屏蔽某个词,再基于语言模型利用上下文来预测这个词,随后选择概率最高的几个词,根据预测概率把这些预测的词线性组合到一起,替换原来被屏蔽的词。这样一个句子/句对可以生成多个句子/句对,同一个句子的翻译就可以出现多个合理的翻译结果,这也与实际翻译过程中翻译结果并不唯一这一事实相吻合。通过如此软性上下文数据增强,从而扩大训练数据的规模,增强数据质量,得到更好的翻译结果。

在此次的 11 项机器翻译任务中,微软亚洲研究院的研究员们在每个翻译任务上采用了上述不同的技术。未来,研究团队计划将这四个层面的创新技术整合,并且通过与微软翻译产品部门的合作,将新技术尽快转化到微软翻译产品中。

雷锋网版权文章,未经授权禁止转载。详情见 转载须知


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

淘宝技术这十年

淘宝技术这十年

子柳 / 电子工业出版社 / 2013-5 / 45.00元

《淘宝技术这十年》内容简介:任何网站的发展都不是一蹴而就的。它在发展过程中会遇到各种各样的问题和业务带来的压力。正是这些问题和压力推动着技术的进步和发展,而技术的发展反过来又会促进业务的更大提升。如今淘宝网的流量排名已是全球前15名、国内前3名,其系统服务器也从一台发展到万台以上。 《淘宝技术这十年》从工程师的角度讲述淘宝这个超大规模互联网系统的成长历程,及其所有主动和被动的技术变革的前因后......一起来看看 《淘宝技术这十年》 这本书的介绍吧!

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

MD5 加密
MD5 加密

MD5 加密工具

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换