微软最新通用预训练模型MASS,超越BERT、GPT!( 八 )

微软最新通用预训练模型MASS,超越BERT、GPT!

图10/12

对话生成

在对话生成(Cornell Movie Dialog Corpus)任务上,我们将 MASS 同 BERT+LM 进行了比较,结果如下表所示。MASS 的 PPL 低于 BERT+LM。

微软最新通用预训练模型MASS,超越BERT、GPT!

图11/12

在不同的序列到序列自然语言生成任务中,MASS 均取得了非常不错的效果。接下来,我们还将测试 MASS 在自然语言理解任务上的性能,并为该模型增加支持监督数据预训练的功能,以期望在更多自然语言任务中取得提升。未来,我们还希望将 MASS 的应用领域扩展到包含语音、视频等其它序列到序列的生成任务中。

论文地址:

https://arxiv.org/abs/1905.02450

本文经授权转载自微软研究院AI头条(ID: MSRAsia)

推荐阅读