ACL 2018|墨尔本大学:基于门控图神经网络的图序列学习(11)

下图展示了在测试集上的结果 。 当使用相当数量的参数时 , 我们的方法在单个模型和集成中都显著优于s2s基线 。

在图3中 , 我们展示了一个例子 , 我们的模型优于基线 。 AMR图包含四个重新引用 , 谓词引用图中先前定义的概念 。 我们可以看到 , S2S预测超越了“India and China”这一短语 。 G2S预测避免了超生成 , 并且几乎完全匹配参考 。 虽然这只是一个示例 , 但是它提供了保留完整的图形结构对这个任务有益的证据 , 我们的定量结果证实了这一点 。

我们的第二个评价是NMT , 使用AS图源语言依赖句法树 。 在专注于一个媒体资源的情况下 , 额外的语言信息往往更有益 。 我们的实验包括两种语言对:英语德语和英语捷克语 。 下图显示了g2s+的输入图的示例 , 其中附加的顺序边连接单词(为了简单起见 , 省略了反向和自身边) 。 上部:具有相应的依赖树的句子 。 底部:转换后的树变成Levi图 , 在单词(虚线)之间有附加的顺序连接 。 完整的图还包含反向和自边缘 , 在图中省略 。

推荐阅读