微软最新通用预训练模型MASS,超越BERT、GPT!
图1/12
新智元推荐
来源:微软研究院AI头条(ID: MSRAsia)
作者:谭旭
【新智元导读】微软亚洲研究院的研究员在 ICML 2019 上提出了一个全新的通用预训练方法 MASS,在序列到序列的自然语言生成任务中全面超越 BERT 和 GPT。本文带来论文作者的技术解读。
从 2018 年开始,预训练(pre-train) 毫无疑问成为 NLP 领域最热的研究方向。
借助于 BERT 和 GPT 等预训练模型,人类在多个自然语言理解任务中取得了重大突破。然而,在序列到序列的自然语言生成任务中,目前主流预训练模型并没有取得显著效果。
为此,微软亚洲研究院的研究员在 ICML 2019 上提出了一个全新的通用预训练方法 MASS,在序列到序列的自然语言生成任务中全面超越 BERT 和 GPT。在微软参加的 WMT19 机器翻译比赛中,
推荐阅读
- 魔兽世界|魔兽世界:60版本赛季服最新消息,大家都跑过去体验,真香定律
- 微软|微软Xbox 20周岁了,但这些密辛你未必知道
- edg战队|外媒公布最新世界赛决赛含金量TOP10,EDG对DK这场登顶
- 上古卷轴6|B社画饼上瘾,《上古卷轴6》最新消息流出,玩家还要等20年
- 微软|热血传奇:54级巨战《恩比德》,5万的裁决用来挂机好吗?
- ig|UZI最新直播回复几个关键问题:加入IG,复出,训练赛?
- 微软|【多图杀猫?】IGN满分大作《极限竞速:地平线 5》今日正式发布
- |Angelababy晒最新COS照,蓝色麻花辫颇显俏皮,将在斗鱼直播首秀
- 艾琳|蓬勃向上,电竞+的持续上行
- 使命|三国杀:最新的送给你一个老武将,国战将进入基本场,终于做人了