本文围绕经典论文介绍GCN,解释其定义,即处理图结构数据的网络,输入为带特征的图,输出为节点特征。解析核心公式,通过添加自环、对称归一化邻接矩阵解决信息丢失和尺度问题,还提及在Cora数据集上的应用及数学证明参考。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜
本文讲的GCN理论知识来源于论文:
SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
这是在GCN领域最经典的论文之一
GCN结构图
我们可以根据这个GCN的图看到,一个拥有 C 个input channel的graph作为输入,经过中间的hidden layers,得到 F 个 output channel的输出。
图卷积网络主要可以由两个级别的作用变换组成:
注意本文讲的图都特指无向无权重的图。
例如说通过引入一些形式的pooling 操作. 然后改变图的结构。但是本次讲过GCN并没有进行这个级别的操作。所以看到上图我们的网络结构的输出和输出的graph的结构是一样的。
通
常说node level的作用是不改变graph的结构的,仅通过对graph的特征/信号(特征信号 X 作为输入:一个 N∗D 矩阵( N: 输入图的nodes的个数, D 输入的特征维度) ,得到输出 Z:一个 N∗F 的矩阵( F 输出的特征维度)。
a) 一个特征描述(feature description) xi : 指的是每个节点 i 的特征表示
b) 每一个graph 的结构都可以通过邻接矩阵 A 表示(或者其他根据它推导的矩阵)
举例:
我们可以很容易的根据一个邻接矩阵重构出一个graph。 例如下图: G=(V,E) 其中 V 代表节点, E 代表边
根据图,我们就可以得出下面的维度图和邻接矩阵
因为 A 可以确定唯一的一张图,这么重要的一个属性我们肯定是要把他放到神经网络传递函数里面去的,所以网络中间的每一个隐藏层可以写成以下的非线性函数:
其中输入层 H(0)=X , 输出层 H(L)=Z , L 是层数。 不同的GCN模型,采用不同 f(⋅,⋅)函数。
上面是我们理想中的函数的形式,论文中最终推导出来的函数是这样的:
每一个节点下一层的信息是由前一层本身的信息以及相邻的节点的信息加权加和得到,然后再经过线性变换 W 以及非线性变换 σ() 。
我们一步一步分解,我们要定义一个简单的f(H(l),A) 函数,作为基础的网络层。
可以很容易的采用最简单的层级传导(layer-wise propagation)规则:
f(H(l),A)=σ(AH(l)W(l))
我们直接将 AH 做矩阵相乘,然后再通过一个权重矩阵 W(l)做线性变换,之后再经过非线性激活函数 σ(⋅) , 比如说 ReLU,最后得到下一层的输入 Hl+1 。
In [ ]import paddle
A = paddle.to_tensor([
[0,1,0,0,1,0],
[1,0,1,0,1,0],
[0,1,0,1,0,0],
[0,0,1,0,1,1],
[1,1,0,1,0,0],
[0,0,0,1,0,0]],dtype='float32')print(A)
H_0 = paddle.to_tensor([[1],[2],[3],[4],[5],[6]],dtype='float32')print(H_0)
x = paddle.matmul(A,H_0)print(x)
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[0., 1., 0., 0., 1., 0.],
[1., 0., 1., 0., 1., 0.],
[0., 1., 0., 1., 0., 0.],
[0., 0., 1., 0., 1., 1.],
[1., 1., 0., 1., 0., 0.],
[0., 0., 0., 1., 0., 0.]])
Tensor(shape=[6, 1], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[1.],
[2.],
[3.],
[4.],
[5.],
[6.]])
Tensor(shape=[6, 1], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[7. ],
[9. ],
[6. ],
[14.],
[7. ],
[4. ]])
从上面输出可以看的出来:每个值保留了相邻节点的值
输入层的 x1=[1] , 根据矩阵的运算公式我们可以很容易地得到下一层的该节点的表示 X1′=[7], 也很容易发现 X1′(1)=x2+x5,而 x2,x5就是节点1的相邻节点。
就是可以看图:
[1] = 2 + 5
[2] = 1+ 3 + 5
······
[6] = 4
所以我们 AH 就是快速将相邻的节点的信息相加得到自己下一层的输入。
但是这样就出现了新的问题:
问题一
我们虽然获得了周围节点的信息了,但是自己本身的信息却没了
解决方案:
对每个节点手动增加一条self-loop 到每一个节点,即 A=A+I
其中 I是单位矩阵identity matrix。
问题二
从上面的结果也可以看出,在经过一次的AH 矩阵变换后,得到的输出会变大,即特征向量 X 的scale会改变,在经过多层的变化之后,将和输入的scale差距越来越大。
解决方案:
可以将邻接矩阵 A 做归一化使得最后的每一行的加和为1,使得 AH 获得的是weighted sum。
我们可以将 A 的每一行除以行的和,这就可以得到normalized的 A 。而其中每一行的和,就是每个节点的度degree。
用矩阵表示则为: A=D−1A ,对于Aij=diAij
代码展示:
In [8]import paddleimport numpy as np
A = paddle.to_tensor([
[0,1,0,0,1,0],
[1,0,1,0,1,0],
[0,1,0,1,0,0],
[0,0,1,0,1,1],
[1,1,0,1,0,0],
[0,0,0,1,0,0]],dtype='float32')print(A)
D = paddle.to_tensor([
[2,0,0,0,0,0],
[0,3,0,0,0,0],
[0,0,2,0,0,0],
[0,0,0,3,0,0],
[0,0,0,0,3,0],
[0,0,0,0,0,1]], dtype='float32')print(D)# 防止为0时取倒数变成无穷大D[D==0] = D.max() + 1e100DD = paddle.reciprocal(D)print(DD)
hat_A = paddle.matmul(DD,A)print(hat_A)
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[0., 1., 0., 0., 1., 0.],
[1., 0., 1., 0., 1., 0.],
[0., 1., 0., 1., 0., 0.],
[0., 0., 1., 0., 1., 1.],
[1., 1., 0., 1., 0., 0.],
[0., 0., 0., 1., 0., 0.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[2., 0., 0., 0., 0., 0.],
[0., 3., 0., 0., 0., 0.],
[0., 0., 2., 0., 0., 0.],
[0., 0., 0., 3., 0., 0.],
[0., 0., 0., 0., 3., 0.],
[0., 0., 0., 0., 0., 1.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[0.50000000, 0. , 0. , 0. , 0. , 0. ],
[0. , 0.33333334, 0. , 0. , 0. , 0. ],
[0. , 0. , 0.50000000, 0. , 0. , 0. ],
[0. , 0. , 0. , 0.33333334, 0. , 0. ],
[0. , 0. , 0. , 0. , 0.33333334, 0. ],
[0. , 0. , 0. , 0. , 0. , 1. ]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[0. , 0.50000000, 0. , 0. , 0.50000000, 0. ],
[0.33333334, 0. , 0.33333334, 0. , 0.33333334, 0. ],
[0. , 0.50000000, 0. , 0.50000000, 0. , 0. ],
[0. , 0. , 0.33333334, 0. , 0.33333334, 0.33333334],
[0.33333334, 0.33333334, 0. , 0.33333334, 0. , 0. ],
[0. , 0. , 0. , 1. , 0. , 0. ]])
但是在实际运用中采用的是对称的normalization:
用矩阵表示则为:
A=D−21AD−21
对于Aij=didjAij
这其实是跟Laplacian Matrix 有关,拉普拉斯算子是这样的:
L=IN−D−21AD−21
In [9]import paddleimport numpy as np
A = paddle.to_tensor([
[0,1,0,0,1,0],
[1,0,1,0,1,0],
[0,1,0,1,0,0],
[0,0,1,0,1,1],
[1,1,0,1,0,0],
[0,0,0,1,0,0]],dtype='float32')print(A)
D = paddle.to_tensor([
[2,0,0,0,0,0],
[0,3,0,0,0,0],
[0,0,2,0,0,0],
[0,0,0,3,0,0],
[0,0,0,0,3,0],
[0,0,0,0,0,1]], dtype='float32')print(D)# 取逆D[D==0] = D.max() + 1e100DD = paddle.reciprocal(D)print(DD)# 开方_DD = paddle.sqrt(DD)# 求积hat_A = paddle.matmul(paddle.matmul(_DD,A),_DD)print(hat_A)
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[0., 1., 0., 0., 1., 0.],
[1., 0., 1., 0., 1., 0.],
[0., 1., 0., 1., 0., 0.],
[0., 0., 1., 0., 1., 1.],
[1., 1., 0., 1., 0., 0.],
[0., 0., 0., 1., 0., 0.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[2., 0., 0., 0., 0., 0.],
[0., 3., 0., 0., 0., 0.],
[0., 0., 2., 0., 0., 0.],
[0., 0., 0., 3., 0., 0.],
[0., 0., 0., 0., 3., 0.],
[0., 0., 0., 0., 0., 1.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[0.50000000, 0. , 0. , 0. , 0. , 0. ],
[0. , 0.33333334, 0. , 0. , 0. , 0. ],
[0. , 0. , 0.50000000, 0. , 0. , 0. ],
[0. , 0. , 0. , 0.33333334, 0. , 0. ],
[0. , 0. , 0. , 0. , 0.33333334, 0. ],
[0. , 0. , 0. , 0. , 0. , 1. ]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
[[0. , 0.40824828, 0. , 0. , 0.40824828, 0. ],
[0.40824828, 0. , 0.40824828, 0. , 0.33333331, 0. ],
[0. , 0.40824828, 0. , 0.40824828, 0. , 0. ],
[0. , 0. , 0.40824828, 0. , 0.33333331, 0.57735026],
[0.40824828, 0.33333331, 0. , 0.33333331, 0. , 0. ],
[0. , 0. , 0. , 0.57735026, 0. , 0. ]])
A0,1=d0d1A0,1=231=0.4082
把这两个tricks结合起来,我们就可以原文的公式:
其中 A=A+I , D 是 A 的degree matrix。 而 D−21AD−21 是对 A 做了一个对称的归一化。
在Cora数据集上训练的两层GCN的隐藏层激活的可视化效果如下:
附上参考的视频:
https://www.bilibili.com/video/BV1Vw411R7Fj
# ai
# 征信
# channel
# input
# https
# 重构
# 很容易
# 我们可以
# 的是
# 下一层
# 是这样
# 然后再
# 则为
# 就可以
# 拉普拉斯
# 这是
相关栏目:
【
Google疑问12 】
【
Facebook疑问10 】
【
网络优化91478 】
【
技术知识72672 】
【
云计算0 】
【
GEO优化84317 】
【
优选文章0 】
【
营销推广36048 】
【
网络运营41350 】
【
案例网站102563 】
【
AI智能45237 】
相关推荐:
Replika AI:情感慰藉还是虚拟危机?深度剖析与用户反馈
普通人如何用DeepSeek月入过万?2026最新赚钱路径全解析!
豆包AI能否生成领导汇报版总结_豆包AI汇报版精简与结构调整【教程】
识别脱水警告信号:专家解读与健康指南
AI视频制作教程:从图像到病毒式Vlog全攻略
如何用ChatGPT准备面试 模拟面试问答与职场话术练习教程
Midjourney怎样用参数调色彩饱和度_Midjourney饱和度调整【方法】
Thesis AI:一键生成高质量学术论文的秘密武器
AI如何一键生成PPT大纲_利用AI工具制作演示文稿方法【教程】
AI赋能音频转录:SovereignAudio自托管解决方案
批改网ai检测工具怎么检测多语言作文_批改网ai检测工具多语言切换与检测支持【技巧】
2025年AI招聘大师班:初学者友好且功能强大
一键生成PPT工具怎么用_一键生成PPT工具使用方法详细指南【教程】
2025 YouTube自动化终极指南:利用AI实现高效内容创作和多平台发布
CallidusAI:提升合同起草效率的智能Word插件指南
提升企业效率:QR Platform管理后台功能全面解析
ClaudePC端怎么设主题色_ClaudePC端主题设置步骤【教程】
唐库AI拆书工具如何批量导出笔记_唐库AI拆书工具批量导出与格式转换【方法】
P&ID图全解析:工艺流程图解读与应用指南
tofai官网最新入口地址 tofai网页版免下载
稿定设计AI抠图怎样处理复杂边缘_稿定设计AI复杂边缘细化技巧【技巧】
怎么用AI帮你进行头脑风暴并分类?5分钟输出结构化创意清单
斑马AI怎么开启护眼模式_斑马AI护眼设置与使用时长限制【步骤】
Zapier MCP:AI赋能工作流,释放Claude强大潜能
QRCODE.AI深度评测:AI驱动的二维码生成器优缺点分析
AI QA 工程:通往人工智能质量保障工程师的职业道路
佐糖AI抠图如何免费使用_佐糖AI免费额度获取与消耗查看【指南】
ChatGPT 辅助自媒体博主进行选题与大纲策划
Descript vs. Wisecut:AI视频编辑工具深度测评与最佳选择
ChatGPT怎么用一键生成活动策划案_ChatGPT策划案生成教程【攻略】
批改网AI检测工具怎么生成评分报告_批改网AI检测工具报告生成与维度解读【指南】
百度AI搜索怎样搜索百科知识_百度AI搜索百科频道与词条跳转【技巧】
文心一言辅助学习方法 解决难题与知识点梳理使用指南
AI驱动SaaS增长:AppSumo $700万美金业务增长策略揭秘
AI邮件营销风险解析:如何规避客户触达的潜在陷阱
AI写作工具检测:学生如何避免学术不端行为
深度学习姿态估计:技术、应用与未来趋势全解析
Mootion AI视频生成器:一键创作动画故事!
苹果手机百度ai怎么关 iPhone百度输入法ai关闭
v0 Report深度测评:AI文档生成器的优缺点分析与实用指南
智行ai抢票如何查看抢票进度_智行ai抢票进度查询与状态解读【实操】
AI女友:时尚穿搭与美丽瞬间的完美融合
Wix AI:无需代码免费创建专业网站完整指南
AI电子书创作革命:AieBookSuite如何颠覆出版行业
AI猫咪视频创作指南:轻松打造百万级YouTube Shorts
软件测试进化史:从手动到AI,迎接测试新纪元
MAKA AI排版怎样设置动画效果_MAKA AI排版动画添加与参数调整【技巧】
教你用AI将长视频内容切片,并自动生成短视频文案
掌握解方程技巧:4.2家庭作业难题精讲与分数系数处理
机器学习赋能AI生产力工具:提升效率与智能决策
2025-07-22
南京市珐之弘网络技术有限公司专注海外推广十年,是谷歌推广.Facebook广告全球合作伙伴,我们精英化的技术团队为企业提供谷歌海外推广+外贸网站建设+网站维护运营+Google SEO优化+社交营销为您提供一站式海外营销服务。