您的位置:首页 > 房产 > 建筑 > SLOG An Inductive Spectral Graph Neural Network Beyond Polynomial Filter

SLOG An Inductive Spectral Graph Neural Network Beyond Polynomial Filter

2024/10/6 12:19:55 来源:https://blog.csdn.net/chairuilin/article/details/141095195  浏览:    关键词:SLOG An Inductive Spectral Graph Neural Network Beyond Polynomial Filter

推荐指数: #paper/⭐⭐ (二到三颗星.等作者开源代码,泡一下,在确定具体推荐分)
发表于: ICML 24

主要思路:

ω ( L s y m ) = ( I − 1 2 L s y m ) p ( I + ( L s y m − I ) 2 ) q \omega(\mathbf{L_{sym}})=(\mathbf{I}-\frac12\mathbf{L_{sym}})^p(\mathbf{I}+(\mathbf{L_{sym}}-\mathbf{I})^2)^q ω(Lsym)=(I21Lsym)p(I+(LsymI)2)q
这个式子是正定的.令 S 1 = 1 2 ( I + D − 1 2 A D − 1 2 ) , S 2 = I + ( D − 1 2 A D − 1 2 ) 2 \mathbf{S}_1=\frac12(\mathbf{I}+\mathbf{D}^{-\frac12}\mathbf{A}\mathbf{D}^{-\frac12}),\mathbf{S}_2=\mathbf{I}+(\mathbf{D}^{-\frac12}\mathbf{A}\mathbf{D}^{-\frac12})^2 S1=21(I+D21AD21),S2=I+(D21AD21)2,那么 ω ( L s y m ) = S 1 p ⋅ S 2 q \omega(\mathbf{L}_{\mathrm{sym}})=\mathbf{S}_1^p\cdot\mathbf{S}_2^q ω(Lsym)=S1pS2q.
其中,p和q是可学习的参数.
而p和q则影响了其是高通/低通/中通等
文章配图
但是,由于p和q可能是负数或者其他情况.当图变得很大的时候,计算量很大.因此,我们采用了采样系数,采样子图,让图变得小.这样,计算开销就会在可控的范围内.
主要公式:

Slog B

Z G v = ω ( L G v ) X G v W , \mathbf{Z}_{\mathcal{G}_v}=\omega(\mathbf{L}_{\mathcal{G}_v})\mathbf{X}_{\mathcal{G}_v}\mathbf{W}, ZGv=ω(LGv)XGvW,
其中, G v \mathcal{G}_{v} Gv是以v为中心,采样的子图.

Slog N

H G v ( l ) = σ ( ω ( l ) ( L G v ) H G v ( l − 1 ) W 1 ( l ) + H G v ( l − 1 ) W 2 ( l ) ) , \mathbf{H}_{\mathcal{G}_v}^{(l)}=\sigma(\omega^{(l)}(\mathbf{L}_{\mathcal{G}_v})\mathbf{H}_{\mathcal{G}_v}^{(l-1)}\mathbf{W}_1^{(l)}+\mathbf{H}_{\mathcal{G}_v}^{(l-1)}\mathbf{W}_2^{(l)}), HGv(l)=σ(ω(l)(LGv)HGv(l1)W1(l)+HGv(l1)W2(l)),
文章配图

由于子图有不同的频率,因此我们使用了自适应参数去让每个子图去适应自己的同配比

ω i ( L G v ) = ( I − 1 2 L G v ) p i ′ ( I + ( L G v − I ) 2 ) q i ′ \omega_i(\mathbf{L}_{\mathcal{G}_v})=(\mathbf{I}-\frac12\mathbf{L}_{\mathcal{G}_v})^{p_i^{\prime}}(\mathbf{I}+(\mathbf{L}_{\mathcal{G}_v}-\mathbf{I})^2)^{q_i^{\prime}} ωi(LGv)=(I21LGv)pi(I+(LGvI)2)qi
其中, p i ′ = β p g l o + ( 1 − β ) p i p_{i}^{\prime}=\beta p_{\mathbf{glo}}+(1-\beta)p_{i} pi=βpglo+(1β)pi, q i ′ = β q g l o + ( 1 − β ) q i q_i^{\prime}=\beta q_{\mathbf{glo}}+(1-\beta)q_i qi=βqglo+(1β)qi
β \beta β是超参. p g l o 和 q g l o p_{glo}和q_{glo} pgloqglo代表全局uniform filter. p i p_{i} pi q i q_{i} qi对应自适应i个子图
文章配图

结果分析:
Slog(B)Citeseer的结果比较不错.Squirrel fit,chameleon fit两个数据集没听过.minesweeper的正确率异常把?有好几个方法应该是在89左右.ratting的数据也不错…总体而言,常见的五个数据集(除去两个fit),cite和rate的效果不错.toker处于顶尖水平.看起来,slogN的效果并没有好的多少.这说明,gcn更多情况下还是由一阶和二阶决定的(以及其负阶).
大数据集结果和我之前看的论文,benchmark方法的结果不一样.(等作者公开代码后我跑一下,感觉和想的有点不一样)

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com