MPNN框架 消息生成与聚合 (公式 1)

张开发
2026/4/12 23:03:40 15 分钟阅读

分享文章

MPNN框架 消息生成与聚合 (公式 1)
【【图神经网络】入门到精通GCN、GAT、PyG、GTN、HAN、SDGNN、HGNN、TGAT…基础原理源码复现由浅入深通俗易懂】 https://www.bilibili.com/video/BV1fc411z7mx/?p18share_sourcecopy_webvd_source6b8044752c092314d4b426afb8ebd370这一步确实是整个MPNN框架的核心你可以把它想象成节点之间“交换信息”的过程。公式 (1) 具体描述了节点vvv在第t1t1t1轮是如何收集并汇总来自其邻居的信息的。公式 (1) 详解mvt1∑w∈N(v)Mt(hvt,hwt,evw)m_v^{t1} \sum_{w \in \mathcal{N}(v)} M_t(h_v^t, h_w^t, e_{vw})mvt1​w∈N(v)∑​Mt​(hvt​,hwt​,evw​)这个公式可以拆解为三个关键部分来理解消息函数MtM_tMt​—— “说什么”作用MtM_tMt​是一个可学习的函数通常是神经网络如多层感知机。它的作用是计算邻居节点www应该向中心节点vvv传递什么样的信息。输入它接收三个输入hvth_v^thvt​接收者中心节点vvv当前的状态。hwth_w^thwt​发送者邻居节点www当前的状态。evwe_{vw}evw​连接这两个节点的边的特征如果图没有边特征这一项可以忽略。含义这意味着消息的内容不仅取决于邻居是谁还取决于中心节点当前的状态以及它们之间的关系边。求和符号∑\sum∑—— “怎么听”作用这是一个聚合操作。它表示将节点vvv的所有邻居w∈N(v)w \in \mathcal{N}(v)w∈N(v)发来的消息加在一起。含义节点vvv不会只听某一个邻居的话而是把所有邻居的意见汇总起来形成一个综合的信息向量mvt1m_v^{t1}mvt1​。注虽然公式中写的是求和∑\sum∑但在不同的图神经网络变体中这个聚合操作也可以是均值、最大值或者LSTM聚合等。输出mvt1m_v^{t1}mvt1​—— “收到的汇总信息”这是计算出的结果代表在第t1t1t1时刻节点vvv从其周围邻居那里收集到的总消息。这个mvt1m_v^{t1}mvt1​随后会被带入公式 (2)用来更新节点vvv自身的状态。举个通俗的例子假设这是一个社交网络图我们要预测用户的兴趣www是你的朋友。vvv是你自己。MtM_tMt​决定了你的朋友www会根据他自己的兴趣hwth_w^thwt​和你目前的兴趣hvth_v^thvt​向你推荐什么东西。∑\sum∑意味着你会把所有朋友推荐给您的东西都收集起来打包成一个大包裹mvt1m_v^{t1}mvt1​。总结公式 (1) 的核心逻辑就是**“收集邻居信息”**。它定义了信息如何在图的边上传播以及如何将分散在邻居节点上的信息集中到中心节点上。

更多文章