微软最新通用预训练模型MASS,超越BERT、GPT!( 五 )
图5/12
MASS 在不同 K 下的概率形式如下表所示,其中 m 为序列长度,u 和 v 为屏蔽序列的开始和结束位置,x^u:v 表示从位置 u 到 v 的序列片段,x^\u:v 表示该序列从位置 u 到 v 被屏蔽掉。可以看到,当K=1 或者 m 时,MASS 的概率形式分别和 BERT 中的屏蔽语言模型以及 GPT 中的标准语言模型一致。
图6/12
我们通过实验分析了屏蔽 MASS 模型中不同的片段长度(k)进行预训练的效果,如下图所示。
图7/12
当 k 取大约句子长度一半时(50% m),下游任务能达到最优性能。屏蔽句子中一半的词可以很好地平衡编码器和解码器的预训练,过度偏向编码器(k=1,即 BERT)或者过度偏向解码器(k=m,即 LM/GPT)都不能在该任务中取得最优的效果,由此可以看出 MASS 在序列到序列的自然语言生成任务中的优势。
推荐阅读
- 魔兽世界|魔兽世界:60版本赛季服最新消息,大家都跑过去体验,真香定律
- 微软|微软Xbox 20周岁了,但这些密辛你未必知道
- edg战队|外媒公布最新世界赛决赛含金量TOP10,EDG对DK这场登顶
- 上古卷轴6|B社画饼上瘾,《上古卷轴6》最新消息流出,玩家还要等20年
- 微软|热血传奇:54级巨战《恩比德》,5万的裁决用来挂机好吗?
- ig|UZI最新直播回复几个关键问题:加入IG,复出,训练赛?
- 微软|【多图杀猫?】IGN满分大作《极限竞速:地平线 5》今日正式发布
- |Angelababy晒最新COS照,蓝色麻花辫颇显俏皮,将在斗鱼直播首秀
- 艾琳|蓬勃向上,电竞+的持续上行
- 使命|三国杀:最新的送给你一个老武将,国战将进入基本场,终于做人了