ACL 2018|墨尔本大学:基于门控图神经网络的图序列学习(12)

下表显示了这两种语言对在测试集上的结果 。 不考虑序列信息的G2S模型落后于我们的基线 。 另外 。 我们发现BNNN层是获得最佳结果的关键 。 然而 , 在相同的参数预算下 , 在单个模型和集成场景中 , g2s+模型在BLEU得分方面优于基线 。 这个结果表明 , 在不依赖于RN或体系结构中的任何其他修改的情况下 , 在我们的模型中合并顺序偏差是可能的 。

有趣的是 , 分析CHRF++数时我们发现了不同的趋势 。 这个度量在两种语言对上都展示了PB-SMT模型的优势 , 同时在En-Cs中还显示了s2s的改进性能 。 在两个语言对中 , 无论是在系统层面还是句子层面上 , CHRF++已经显示出更好的与人类判断相联系的BLEU 。

4 总结

我们提出一种新的用于图到序列学习的编码器-解码器结构 , 在两个NLP任务中的表现都优于基线:AMR图生成和基于语法的NMT 。 我们的方法解决了以前工作中的线性信息丢失、参数爆炸等缺点 。 我们还特别展示了图转换如何在不改变底层架构的情况下解决基于图的网络的问题 。 这就是所提出的Levi图转换的情况 , 它确保解码器可以关注边和节点 , 而且在NMT的情况下也可以关注添加到依赖树的顺序连接 。 总的来说 , 因为我们的体系结构可以处理一般的图 , 所以以额外的节点和/或边信息的形式添加语言偏差是很简单的 。 我们相信这在应用方面是一个有趣的研究方向 。

推荐阅读