腾讯提出NumNet+模型,超越谷歌登DROP排行榜第一名( 六 )
图7/9
来自 DROP 数据集示例问题,涉及到数值比较。段落中突出的相关部分可用来推断答案。
除了最核心的 NumGNN 模块外,NumNet+还结合了预训练模型 RoBERTa。
具体来说,问题和文本进入模型后需要先进行 encoding,NumNet+ 中用预训练模型替换了 NumNet 中的未经过预训练的 Transformer 作为 encoder。
图8/9
从去年 10 月份到现在大家反复在证明的一件事情,即这种大规模的预训练模型是有能力从大规模的文本里面学到一定的语义和语法相关的知识的。同样的,通过把没有经过预训练的 encoder 换成经过预训练的 encoder,相当于它额外的以隐式方式注入了额外信息。所以,通过替换以后可以明显的进一步提升,这是它的主要好处。
推荐阅读
- 腾讯|腾讯49亿日元投资目标明确:3款新游明后年全球发行,强化主力IP
- 腾讯|LPL年度最佳选手,同队最多三人,选谁?
- 腾讯|LPL官方发新歌,JKL被吐槽累死调音师,网友:Lvmao努力在C了!
- 挂机|腾讯网易都不敢做的事,它却做到了!挂机烤火掉神装,能卖上千元
- 腾讯|腾讯Q3财报公布,青少年游戏时长仅占比0.7%,目标却远不止此
- 王者荣耀|《英雄联盟》大热 腾讯成大赢家
- 金铲铲之战|为了防腾讯米哈游抢人,游戏厂商也开始内卷,育碧竟被偷家?
- 腾讯|本来能更火的LOL动画,居然被腾讯耽误了?
- 腾讯|10月网吧热力排行榜公布,LOL第一原神第8,前20腾讯占据10款
- 阴阳师|为何崩坏3在Steam上差评如潮,在腾讯WeGame却有超8成好评?