ACL 2018|墨尔本大学:基于门控图神经网络的图序列学习( 六 )

墨尔本大学

University of Melbourne

本文是澳大利亚墨尔本大学发表于 ACL 2018 的工作 , 提出了一个在图中编码完整结构信息的新模型 , 将门控图神经网络与输入变换耦合 , 该输入变换允许节点和边缘具有它们自己的隐层表示 , 并解决了先前工作中存在的参数爆炸问题 。 实验结果表明 , 在AMR图和基于句法的神经机器翻译中 , 本文模型优于业内的最好方法 。

1 引言

图结构普遍存在于自然语言的表示中 。 尤其是 , 许多句子的语义框架使用有向无环图作为基础形式 , 而大多数基于树的句法表示也可以看作图 。 NLP应用的范围可以看作将图结构转换成序列的过程 。 例如 , 句法机器翻译需要将带树形标注的源语句转换为其翻译 。

前人工作大多依赖于基于语法的方法 , 如tree transducers和超边替换文法 。 这些方法的一个关键限制是需要在图形节点和tokens之间进行对齐 。 这些对齐通常是自动生成的 , 构建语法时会传播错误 。

推荐阅读