华为开源预训练语言模型「哪吒」:编码、掩码升级,提升多项中文 NLP 任务性能( 三 )
http://
\n
作者 | 杨鲤萍
\n编辑 | 唐里
\n一个月前 , 在「AICon 全球人工智能与机器学习技术大会」上 , 华为诺亚方舟实验首席科学家刘群刚分享了新发布的中文预训练语言模型 NEZHA(哪吒);就在这两天 , NEZHA 已在 Github 上开源 , 同时开源的还有压缩 BERT 模型「TinyBERT」 , 它在推理时大小可缩小 7.5 倍 , 并且速度加快 9.4 倍 。
\n可以看到的是近两年预训练模型的发展非常快速 , 从 Word2Vec 到 ULMFiT、CoVe 再到 BERT、XLNET 等 , 都各有特点且在不断完善中 。 聚焦于「多项中文 NLP 任务性能」的 NEZHA 也有亮眼的性能升级 。 在此 , 我们将 NEZHA 详细内容及 TinyBERT 相关地址整理如下 。
\nNEZHA 开发背景 \n
推荐阅读
- ig|UZI最新直播回复几个关键问题:加入IG,复出,训练赛?
- |我想打训练赛!Uzi表达复出渴望:我还热爱英雄联盟,还打得动
- 原神|T1再次证实FPX训练赛强,队内语音迟迟未放出,LNG也意难平!
- 清融|SK:estar是谁强谁上,2位中单都有训练,但清融没给千世任何机会
- 超级机器人大战30|猫神重新跟AG一队训练,瓜主剧透:AG若打不赢狼队,最初首发不保
- fpx战队|FPX训练赛很强是真的!T1教练揭露世界赛真相:EDG要比想象中更强
- t1|Faker第四冠来了?T1教练:明年必夺冠,EDG训练赛最强
- dota2|LEC赛区全军覆没,C9教练吐槽赛制:LCK战队不和LEC打训练赛!
- 曹志顺|hero双子星回归?久诚与最初首发,麟羽透露训练赛已“无敌”
- t1|半决赛揭幕战倒计时,两位T1老将懈怠训练,Khan全力以赴