不用看数学公式!图解谷歌神经机器翻译核心部分:注意力机制
乾明 编译整理
量子位 出品 | 公众号 QbitAI
注意力(Attention)机制,是神经机器翻译模型中非常重要的一环,直接影响了翻译的准确度与否。
可以这么说,没有注意力机制,机器翻译的水平只有60-70分。有了注意力机制,翻译的水平就能够达到80-90分了。
它是如何发挥作用的呢?很多人一解释起来,就是铺天盖地的数学公式,让人还没来得及看,就直接懵逼了。
最近,有一篇文章用图解的方式,完整地介绍了“注意力机制”的原理逻辑,并以谷歌神经翻译为例,解释了它的运作机制。
作者说,写这篇文章的目的,是为了让大家在不去看数学公式的情况下,掌握注意力的概念。他也会以人类译者为例,将相关的概念形象化。
神经机器翻译为何需要注意力机制?
神经机器翻译方法诞生于2013年。那一年,牛津大学的研究团队发表了一篇题为Recurrent Continuous Translation Models的论文,提出了一个用于机器翻译的新模型。
推荐阅读
- ag战队|KPL:恭喜AG超玩会喜提A组名额,整个AG都是问题,锅都不用分了
- 猫神|AG野射换位置成败笔,久诚招牌尽出也没用,猫神终于不用背锅了
- 原神|DNF玩家RP爆发,合成2个JP辟邪玉,看到属性:一辈子不用买YXB了
- 余霜|EDG夺冠后美女翻译夏安爆火,网友:终于不用听余霜乱翻译了!
- 哈利波特魔法觉醒|《哈利波特:魔法觉醒》新版三书海格,快速上分不用愁!
- ag战队|AG局内语音曝光,一诺再也不用指挥了,最初一句话拯救队伍
- edg战队|原神:105万伤害!平民公子达成新成就,不用五星武器也能核爆!
- 王者荣耀|受众不一样,所以也不用说谁的皮肤更好看,自己玩的开心就行了
- 原神|原神:作为兵器就不用为放出魔神,水淹璃月负责?是不是太天真了
- 交易|剑网3:八级五行石获取攻略,绑定石头多可以不用去交易行购买