完全图解GPT-2:看完这篇就够了(二)(14)
图29/36
出于某些原因,该模型共计有 1 亿 2,400 万个参数而不是 1 亿 1,700 万个。我不确定这是为什么,但是这似乎就是发布的代码中的数目(如果本文统计有误,请读者指正)。
第三部分:语言建模之外
只包含解码器的 transformer 不断地表现出在语言建模之外的应用前景。在许多应用程序中,这类模型已经取得了成功,它可以用与上面类似的可视化图表来描述。在文章的最后,让我们一起来回顾一下其中的一些应用。
机器翻译
进行翻译时,模型不需要编码器。同样的任务可以通过一个只有解码器的 transformer 来解决:
图30/36
自动摘要生成
推荐阅读
- ez|《哈利波特:魔法觉醒》测试服关于《增强剂》的不完全测试说明书
- fpx战队|为什么同样是S赛夺冠,FPX的热度,完全没法跟IG与EDG相比?
- 大话西游|大话西游2这些召唤兽的天生技能是开发组拿来凑数的吗?实际效果完全没用
- 金庸群侠传|《金庸群侠传》丹药的效果完全超乎想象,极品丹药还能自己炼制
- ag战队|英雄联盟动画片出来了,这部剧完全可以满足一个lol老玩家的心愿
- 神角技巧|神回复:世界上有77亿人,有什么事情是完全没人在做的?
- edg战队|FPX世界赛失利被淘汰,舆论指向却从doinb完全去向小天,有点水军痕迹了
- edg战队|王者荣耀:一招鲜吃遍天?1个英雄想打5个位置?掌握这几个完全可以
- 明日方舟|明日方舟:六星近卫斯卡蒂现版本被完全撕卡 SP临光彻底让其失业
- 克里斯·诺斯|原神哥BeryL旧照曝光,颜值超高,和现在完全不是一个人