不用看数学公式!图解谷歌神经机器翻译核心部分:注意力机制( 三 )
但这很难,灾难性的遗忘出现了。比如上面说的这两个段落的字,在看到这的时候,你还能记得多少?能把它们翻译成英语吗?
除此之外,还有一个问题。在基于RNN的模型中,不管原始文本的句子有多长,都会被压缩成一个固定长度的向量。
在解码的时候,会有各种麻烦事,也没办法确定准确的信息。特别是句子很长的时候,更麻烦。
怎么办?“注意力机制”登场
2014年,DeepMind团队发表Recurrent Models of Visual Attention,提出了注意力机制,并将其用于图像分类的任务中。
与CNN相比,使用注意力机制的RNN取得了非常好的效果,直接带起了一波研究注意力机制的热潮。
很快,注意力就出现在了神经机器翻译中。
在ICLR 2015上,蒙特利尔大学的Yoshua Bengio团队发表了一篇论文,在神经机器翻译中引入了注意力机制。(这篇论文在2014年9月,就已经提交到了arXiv上)
注意力,是编码器和解码器之间的接口。有了它,解码器接收到的,就不仅仅是一个统一的向量表征了,还有来自编码器每个时间步的向量表征,比如下图中的绿色节点。
推荐阅读
- ag战队|KPL:恭喜AG超玩会喜提A组名额,整个AG都是问题,锅都不用分了
- 猫神|AG野射换位置成败笔,久诚招牌尽出也没用,猫神终于不用背锅了
- 原神|DNF玩家RP爆发,合成2个JP辟邪玉,看到属性:一辈子不用买YXB了
- 余霜|EDG夺冠后美女翻译夏安爆火,网友:终于不用听余霜乱翻译了!
- 哈利波特魔法觉醒|《哈利波特:魔法觉醒》新版三书海格,快速上分不用愁!
- ag战队|AG局内语音曝光,一诺再也不用指挥了,最初一句话拯救队伍
- edg战队|原神:105万伤害!平民公子达成新成就,不用五星武器也能核爆!
- 王者荣耀|受众不一样,所以也不用说谁的皮肤更好看,自己玩的开心就行了
- 原神|原神:作为兵器就不用为放出魔神,水淹璃月负责?是不是太天真了
- 交易|剑网3:八级五行石获取攻略,绑定石头多可以不用去交易行购买