ACL 2018|墨尔本大学:基于门控图神经网络的图序列学习( 八 )

本文架构图如下所示 , 以AMR图为例 , 并将其转换为其表面形式 。 与标准的S2S模型相比 , 主要的差别在于编码器 , 在这里我们使用GGNN来构建图形表示 。 在下文中 , 我们将详细解释该体系结构的组件 。

门控图神经网络

关于图的递归网络的早期方法假设参数的不动点表示并使用contraction maps学习 。 而这限制了模型的容量 , 使得学习节点间的长距离关系变得很困难 。 为了解决这些问题 , 提出了门控图神经网络 , 以与门控递归单元类似的方式用门控机制扩展了这些结构 。 这允许通过现代反向传播过程学习网络 。

给定有向图 , 是节点的集合 , 是边的集合 , 和分别代表节点和边的词汇表 。 给定一个输入图 , 节点嵌入为 , GGNN定义如下:

在注意力编码阶码模型中使用GGNNs

在S2S模型中 , 输入是tokens序列 , 其中每个token由嵌入向量表示 。 然后 , 编码器通过合并上下文(通常通过递归或卷积网络)将这些向量转换为隐藏状态表示 。 这些被馈送到注意力机制中 , 产生单个上下文向量 , 通知解码器中的下一步操作 。

推荐阅读