ACL 2018|墨尔本大学:基于门控图神经网络的图序列学习(13)

然而 , 我们的架构有两个主要的限制 。 第一种是GGN具有固定数量的层 , 即使图在节点和边的数量方面可以改变大小 。 更好的方法是允许编码器具有动态数量的层 , 可能基于输入图中的直径(最长路径) 。 第二个限制来自Levi图转换:因为边标签表示为节点 , 所以它们最终共享词汇表 , 因此共享相同的语义空间 。 但这是不理想的 , 因为节点和边是不同的实体 。 一个有趣的替代方案是Weave Module Networks , 它显式地解耦节点和边表示 , 而不会引起参数爆炸 。 未来工作中 , 我们考虑将这两种思想结合到我们的架构中 。

推荐阅读