完全图解GPT-2:看完这篇就够了(二)( 五 )
我们通常使用注意力掩模矩阵来实现这种屏蔽操作。不妨想象一个由四个单词组成的序列(例如「robot must obey orders」(机器人必须服从命令))在语言建模场景中,这个序列被分成四步进行处理——每个单词一步(假设现在每个单词(word)都是一个词(token))。由于这些模型都是批量执行的,我们假设这个小型模型的批处理大小为 4,它将整个序列(包含 4 步)作为一个批处理。
图8/36
在矩阵形式中,我们通过将查询矩阵和键矩阵相乘来计算注意力得分。该过程的可视化结果如下所示,下图使用的是与单元格中该单词相关联的查询(或键)向量,而不是单词本身:
图9/36
在相乘之后,我们加上注意力掩模三角矩阵。它将我们想要屏蔽的单元格设置为负无穷或非常大的负数(例如,在 GPT2 中为 -10 亿):
推荐阅读
- ez|《哈利波特:魔法觉醒》测试服关于《增强剂》的不完全测试说明书
- fpx战队|为什么同样是S赛夺冠,FPX的热度,完全没法跟IG与EDG相比?
- 大话西游|大话西游2这些召唤兽的天生技能是开发组拿来凑数的吗?实际效果完全没用
- 金庸群侠传|《金庸群侠传》丹药的效果完全超乎想象,极品丹药还能自己炼制
- ag战队|英雄联盟动画片出来了,这部剧完全可以满足一个lol老玩家的心愿
- 神角技巧|神回复:世界上有77亿人,有什么事情是完全没人在做的?
- edg战队|FPX世界赛失利被淘汰,舆论指向却从doinb完全去向小天,有点水军痕迹了
- edg战队|王者荣耀:一招鲜吃遍天?1个英雄想打5个位置?掌握这几个完全可以
- 明日方舟|明日方舟:六星近卫斯卡蒂现版本被完全撕卡 SP临光彻底让其失业
- 克里斯·诺斯|原神哥BeryL旧照曝光,颜值超高,和现在完全不是一个人