ACL 2018|墨尔本大学:基于门控图神经网络的图序列学习(13)
然而 , 我们的架构有两个主要的限制 。 第一种是GGN具有固定数量的层 , 即使图在节点和边的数量方面可以改变大小 。 更好的方法是允许编码器具有动态数量的层 , 可能基于输入图中的直径(最长路径) 。 第二个限制来自Levi图转换:因为边标签表示为节点 , 所以它们最终共享词汇表 , 因此共享相同的语义空间 。 但这是不理想的 , 因为节点和边是不同的实体 。 一个有趣的替代方案是Weave Module Networks , 它显式地解耦节点和边表示 , 而不会引起参数爆炸 。 未来工作中 , 我们考虑将这两种思想结合到我们的架构中 。
推荐阅读
- 开罗|开罗游戏发表中文声明:识君代理属于侵权行为,2018年就已解约
- RNG|用数据说话 2018年与2021年的RNG谁更具统治力
- RNG|回应LCK的质疑?国服下血本庆祝RNG夺冠,力度远超2018年
- 王者荣耀|王者荣耀:冰锋战神买亏了?看到2018年先例,笑了
- 间接伤害|阴阳师:真正的SR一姐,2018年至今依然巅峰,恐怕难逃“下岗”
- 圣墟|我心中的2018年网文10大作品:《圣墟》《超神机械师》领衔
- 王者荣耀|新赛季上线1小时,王者玩家就突破2018人,只因策划一个改动
- 战神诸神的黄昏|战神诸神的黄昏对2021年度游戏志在必得
- 受疫情影响,Oracle认证考券延期声明
- 美国国防部要求增加5G投资