推荐指数: #paper/⭐⭐ (二到三颗星.等作者开源代码,泡一下,在确定具体推荐分)
发表于: ICML 24
主要思路:
ω ( L s y m ) = ( I − 1 2 L s y m ) p ( I + ( L s y m − I ) 2 ) q \omega(\mathbf{L_{sym}})=(\mathbf{I}-\frac12\mathbf{L_{sym}})^p(\mathbf{I}+(\mathbf{L_{sym}}-\mathbf{I})^2)^q ω(Lsym)=(I−21Lsym)p(I+(Lsym−I)2)q
这个式子是正定的.令 S 1 = 1 2 ( I + D − 1 2 A D − 1 2 ) , S 2 = I + ( D − 1 2 A D − 1 2 ) 2 \mathbf{S}_1=\frac12(\mathbf{I}+\mathbf{D}^{-\frac12}\mathbf{A}\mathbf{D}^{-\frac12}),\mathbf{S}_2=\mathbf{I}+(\mathbf{D}^{-\frac12}\mathbf{A}\mathbf{D}^{-\frac12})^2 S1=21(I+D−21AD−21),S2=I+(D−21AD−21)2,那么 ω ( L s y m ) = S 1 p ⋅ S 2 q \omega(\mathbf{L}_{\mathrm{sym}})=\mathbf{S}_1^p\cdot\mathbf{S}_2^q ω(Lsym)=S1p⋅S2q.
其中,p和q是可学习的参数.
而p和q则影响了其是高通/低通/中通等
但是,由于p和q可能是负数或者其他情况.当图变得很大的时候,计算量很大.因此,我们采用了采样系数,采样子图,让图变得小.这样,计算开销就会在可控的范围内.
主要公式:
Slog B
Z G v = ω ( L G v ) X G v W , \mathbf{Z}_{\mathcal{G}_v}=\omega(\mathbf{L}_{\mathcal{G}_v})\mathbf{X}_{\mathcal{G}_v}\mathbf{W}, ZGv=ω(LGv)XGvW,
其中, G v \mathcal{G}_{v} Gv是以v为中心,采样的子图.
Slog N
H G v ( l ) = σ ( ω ( l ) ( L G v ) H G v ( l − 1 ) W 1 ( l ) + H G v ( l − 1 ) W 2 ( l ) ) , \mathbf{H}_{\mathcal{G}_v}^{(l)}=\sigma(\omega^{(l)}(\mathbf{L}_{\mathcal{G}_v})\mathbf{H}_{\mathcal{G}_v}^{(l-1)}\mathbf{W}_1^{(l)}+\mathbf{H}_{\mathcal{G}_v}^{(l-1)}\mathbf{W}_2^{(l)}), HGv(l)=σ(ω(l)(LGv)HGv(l−1)W1(l)+HGv(l−1)W2(l)),
由于子图有不同的频率,因此我们使用了自适应参数去让每个子图去适应自己的同配比
ω i ( L G v ) = ( I − 1 2 L G v ) p i ′ ( I + ( L G v − I ) 2 ) q i ′ \omega_i(\mathbf{L}_{\mathcal{G}_v})=(\mathbf{I}-\frac12\mathbf{L}_{\mathcal{G}_v})^{p_i^{\prime}}(\mathbf{I}+(\mathbf{L}_{\mathcal{G}_v}-\mathbf{I})^2)^{q_i^{\prime}} ωi(LGv)=(I−21LGv)pi′(I+(LGv−I)2)qi′
其中, p i ′ = β p g l o + ( 1 − β ) p i p_{i}^{\prime}=\beta p_{\mathbf{glo}}+(1-\beta)p_{i} pi′=βpglo+(1−β)pi, q i ′ = β q g l o + ( 1 − β ) q i q_i^{\prime}=\beta q_{\mathbf{glo}}+(1-\beta)q_i qi′=βqglo+(1−β)qi
β \beta β是超参. p g l o 和 q g l o p_{glo}和q_{glo} pglo和qglo代表全局uniform filter. p i p_{i} pi和 q i q_{i} qi对应自适应i个子图
结果分析:
Slog(B)Citeseer的结果比较不错.Squirrel fit,chameleon fit两个数据集没听过.minesweeper的正确率异常把?有好几个方法应该是在89左右.ratting的数据也不错…总体而言,常见的五个数据集(除去两个fit),cite和rate的效果不错.toker处于顶尖水平.看起来,slogN的效果并没有好的多少.这说明,gcn更多情况下还是由一阶和二阶决定的(以及其负阶).
大数据集结果和我之前看的论文,benchmark方法的结果不一样.(等作者公开代码后我跑一下,感觉和想的有点不一样)