您的位置:首页 > 房产 > 建筑 > 《A Gentle Introduction to Graph Neural Networks》总结

《A Gentle Introduction to Graph Neural Networks》总结

2024/10/6 0:32:36 来源:https://blog.csdn.net/qq_43751506/article/details/142289121  浏览:    关键词:《A Gentle Introduction to Graph Neural Networks》总结

一、引言

  • 图结构广泛存在于各个领域,近年来图神经网络(GNN)在多个领域取得了显著进展。
  • 介绍了图的基本组成部分:顶点(V)、边(E)、以及节点特征(U)。
  • 图的应用领域广泛,包括图像处理、文本分析、分子结构建模、社交网络和引用网络等。
  • 图的存储和处理面临挑战,如矩阵规模庞大以及一个图对应多个邻接矩阵,解决方法是使用邻接表。

二丶正式介绍

  • 首先讨论了最简单的GNN模型,使用多层感知器(MLP)对顶点、边和节点特征进行迭代处理,最终通过分类器输出结果。
  • 当只有边信息没有点信息时,可以通过池化操作将周围点的信息汇聚到边上,反之亦然。
  • 简单的GNN模型未利用图的连通性信息。
  • 通过消息传递机制来利用图的连通性信息,介绍了图卷积网络(GCN),它首先聚合邻居节点的信息,然后更新节点状态。
  • 更复杂的GNN模型可能涉及图中节点、边和全局信息的处理,可以采用不同的汇聚策略,如边汇聚节点信息,节点汇聚边信息,或交替进行,最终更新节点信息。
  • 针对大规模图,节点传递可能耗时较长,可以引入一个虚拟的全局节点,与所有节点和边相连,并在汇聚时考虑该全局节点的信息。

三、实现了一个GNN模型

  • 介绍了一个可以调节参数的GNN模型,参数包括层数、汇聚方法(如sum, max,
    mean)、边的embedding大小、节点的embedding大小以及全局embedding大小。
  • 通过图示分析了不同参数对模型性能的影响,并论证了信息传递的重要性。

四、扩展知识(李沐说这里讲的不清楚)

  • 讨论了多重图、超图等结构在某些场景中的应用。
  • 针对大图的计算挑战,可以通过子图采样方法来解决,如随机采样节点及其邻居、随机游走、基于随机游走的邻居采样、以及从某个节点开始的k步广度优先搜索(BFS)。
  • 深度学习模型通常基于数据特性进行假设,例如图像模型假设平移不变性,文本模型假设自注意力机制处理序列依赖关系,而图神经网络(GNN)假设图结构中的对称性和节点间的关系。
  • max,sum,mean汇聚方法都存在的不足之处,没有哪个是好的。
  • GCN通过多层“卷积”来学习节点及其邻居的信息,每层卷积扩展视野,k层卷积后节点表示包含了k层距离内的所有节点信息。
  • 可以进行点和边的对偶操作,将节点和边互换构建新的图。
  • 讨论了如何通过矩阵乘法实现图卷积操作。
  • 引入图注意力网络(GAT),在聚合过程中使用加权策略而不是简单求和。
  • 关注图的可解释性问题。
  • 除了预测任务,图生成任务如新药设计也是GNN的应用场景之一。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com