ACL 2018|墨尔本大学:基于门控图神经网络的图序列学习( 七 )

在本文中 , 我们提出了一个图到序列(g2s)学习模型 , 该模型利用神经编码器-解码器架构的最新进展 。 具体地说 , 我们采用了一种基于门控图神经网络的编码器 , 它能够在不损失信息的情况下生成完整的图结构 。 这样的网络用边的信息作为标注参数 , 即使对于小规模标注词汇(按几百的顺序)来说 , 这都可能是有问题的 。 为了解决这个问题 , 本文还引入了一个图形变换 , 将边改变到其他节点 , 解决了参数爆炸问题 。 这也确保了边具有特定于图的隐藏向量 , 给网络中的注意力和解码模块提供更多信息 。

我们将本文模型与两个图序列问题进行比较 , 即摘要意义表示(AMRS)和基于源依存的信息神经机器翻译(NMT) 。 与以前的工作相比 , 我们的方法在不依赖于标准RNN编码的情况下 , 优于两个任务中的强大的S2S基线 。 特别地 , 对于NMT , 我们发现 , 通过在依存树中添加相邻单词之间的连续边 , 避免了对RNNs的需要 。 这说明了我们的方法的适用性:可以通过简单的图形变换将语言偏差添加到输入 , 而不需要对模型体系结构进行改变 。

2 模型

推荐阅读