ICML 2025 | 经典GNNs是强大的图级任务基线模型

admin 2025年6月4日13:07:56评论31 views字数 4159阅读13分51秒阅读模式

ICML 2025 | 经典GNNs是强大的图级任务基线模型

论文题目:

Can Classic GNNs Be Strong Baselines for Graph-level Tasks? 

Simple Architectures Meet Excellence

作者:罗元凯,时磊,吴晓明

单位:北京航空航天大学、香港理工大学 

日期:2025年5月17日

ICML 2025 | 经典GNNs是强大的图级任务基线模型

继作者团队此前对经典图神经网络(GNNs)在节点分类任务中的研究 [1],本研究进一步探讨了经典GNNs在图分类与图回归任务中的潜力。为此,本文通过提出GNN+框架,将六项常用超参数技术(边特征、归一化、Dropout、残差连接、FFN和位置编码)集成进经典GNNs架构中(包括 GCN、GIN 和 GatedGCN),以全面重估其性能表现。实验结果表明,在公平对比近三年提出的30个主流GTs和GSSMs时,经典GNNs在14个广泛使用的大规模图级任务数据集上整体性能优异,在全部数据集上进入前三,其中在8个任务中取得第一。值得强调的是,经典GNNs在保持高效性能的同时,在大多数数据集上显著快于GTs模型,最高可达10倍的加速。本研究挑战了“复杂全局建模架构在图级任务中天然优越”的主流观点,重新确认了经典GNNs在图级任务中的适用性与竞争力,强调其作为强大基线模型的现实潜力。

论文链接:

https://arxiv.org/abs/2502.09263

代码链接:

https://github.com/LUOyk1999/GNNPlus

重新评估经典GNNs系列工作:

Benchmarking系列
代码链接
Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification(NeurIPS 2024)
https://github.com/LUOyk1999/tunedGNN
Can Classic GNNs Be Strong Baselines for Graph-Level Tasks? Simple Architectures Meet Excellence(ICML 2025)
https://github.com/LUOyk1999/GNNPlus

1. 引言

图级任务(graph-level tasks)是图机器学习中最具挑战性的研究方向之一,涵盖了从小规模分子图的属性预测,到大规模蛋白质图与代码图的分类与回归。在这些任务中,整个图被视为基本学习单元,要求模型能够全面理解图结构与节点属性的联合模式。

近年来,随着Graph Transformer(GTs)和Graph State Space Models(GSSMs)等模型在多个公开排行榜上取得优异成绩,尤其是在小分子图领域,其全局序列建模机制被认为具备天然的表示优势。在这一趋势推动下,逐渐形成一种共识:相比基于局部消息传递机制的经典GNNs,此类复杂模型在图级任务中更具表现力和应用潜力。

然而,已有研究[1]显示,经典GNNs在节点任务中的表现被系统性低估,其原因在于以往超参数设置不合理、评估覆盖范围有限。本研究自然延伸出一个问题:经典GNNs在图级任务中是否也存在未被挖掘的性能潜力?

为此,本文构建了GNN+框架,在三类经典GNNs模型(GCN、GIN、GatedGCN)基础上,引入六项被广泛使用的超参数技术(边特征整合、归一化、Dropout、残差连接、前馈网络、位置编码),全面评估其在14个广泛使用的大规模图级任务数据集中的表现。主要发现如下:

  • 经典GNNs在全部数据集上进入前三,8个数据集取得第一,性能全面对标或超越当前SOTA GTs、GSSMs等架构
  • 经典GNNs有显著的训练效率优势,更适合大规模图学习场景
  • 通过消融实验,系统验证了GNN+框架中每个模块的有效性,揭示其对性能的独立与联合贡献

这些结果再次重申:经典GNNs在图表示学习中的核心地位不应被忽视,简单模型在合理设计与调优下,依然是图级任务中的强大竞争者

2. GNN+框架介绍

ICML 2025 | 经典GNNs是强大的图级任务基线模型

GNN+是一个统一增强框架,适用于经典GNNs。其核心在于在消息传递基础上,融入如下六项广泛使用的超参数技术,用以提升表示能力和训练稳定性:

  • 边特征整合:将边特征引入消息传递过程,有助于建模节点之间更丰富的结构关系,特别适用于分子图等边信息关键的任务
  • 归一化:对每层输出应用normalization,可缓解协变量偏移,提高训练稳定性与收敛速度
  • Dropout:在激活后对节点表示进行随机丢弃,有效抑制过拟合,并减少图中节点表示间的共适应性
  • 残差连接:在层间引入残差连接,有助于缓解深层GNNs中的梯度消失问题,使网络能够更有效地堆叠更多层
  • 前馈网络(FFN):在每层后追加前馈网络,增强非线性变换能力,从而提升模型的表达能力
  • 位置编码(PE):通过将节点的位置编码与其特征拼接,引入全图结构感知能力,弥补GNNs对全局信息建模的不足

3. 数据集与实验设置

ICML 2025 | 经典GNNs是强大的图级任务基线模型

本研究在三个广泛使用的图级任务基准上进行全面评估:

  • GNN Benchmark[2](ZINC, MNIST, CIFAR10, PATTERN, CLUSTER)
  • Long-Range Graph Benchmark (LRGB)[3,4](Peptides-func, Peptides-struct, PascalVOC-SP, COCO-SP, MalNet-Tiny)
  • Open Graph Benchmark (OGB)[5](ogbg-molhiv, ogbg-molpcba, ogbg-ppa, ogbg-code2)

基准包括图回归、图分类等多类任务,覆盖从小规模分子图到百万级大图,测试模型的广泛适应性。

所有经典GNNs和GTs、GSSMs等模型均在相同的超参数搜索空间下训练,并使用标准划分与评估指标进行对比。

4. 实验结果分析

4.1 主性能对比

ICML 2025 | 经典GNNs是强大的图级任务基线模型
ICML 2025 | 经典GNNs是强大的图级任务基线模型
ICML 2025 | 经典GNNs是强大的图级任务基线模型

结果显示GCN+、GIN+和GatedGCN+三者在所有数据集均进入前三,其中8项任务取得第一,整体性能全面对标甚至超越主流GTs与GSSMs:

  • 在GNN Benchmark中,GNN+在ZINC、PATTERN和CLUSTER任务上的性能提升尤为显著,GatedGCN+在MNIST与CIFAR10中超越GEAET与GRED等最新模型。
  • 在LRGB基准下,GCN+在Peptides-func与Peptides-struct上取得最佳表现,GatedGCN+在MalNet-Tiny中排名第一,并在PascalVOC-SP和COCO-SP中稳居前三。
  • OGB基准实验进一步验证了GNN+在大规模图任务中的优势,GatedGCN+在四个数据集中三次排名第一,在ogbg-ppa上提升约9%,性能超过多个预训练GTs模型。

4.2 消融研究

ICML 2025 | 经典GNNs是强大的图级任务基线模型
ICML 2025 | 经典GNNs是强大的图级任务基线模型

本研究对GNN+框架中的六个超参数模块(边特征、归一化、Dropout、残差连接、前馈网络、位置编码)进行逐一消融,结果表明各模块均为性能提升的关键组成:

消融观察1:边特征在分子图和图像超像素数据集中尤为重要

消融观察2:归一化在相对大规模数据集中影响更显著,而在小规模数据集中影响较小

消融观察3:Dropout对大多数数据集均有积极作用,且极低的dropout率已足够

消融观察4:残差连接通常是必要的,除非是在浅层GNNs处理小图时

消融观察5:FFN对GIN+和GCN+至关重要,显著影响其在各数据集上的表现

消融观察6:位置编码对相对小规模数据集尤为有效,而对大规模数据集影响较小

5. 总结

本文系统性重新审视了经典GNNs在图级任务中的表现,并提出统一增强框架GNN+。实验证明:经典GNNs在图级任务中不仅具备与最先进模型相媲美的能力,甚至在多个任务上取得最优结果,且训练效率更高。研究结果强烈挑战了“复杂图模型优于经典GNNs”的普遍认知,进一步强调合理设计与调优对于GNN性能释放的重要性。

参考文献

[1] Yuankai Luo, Lei Shi, and Xiao-Ming Wu. Classic GNNs are strong baselines: Reassessing GNNs for node classification. In The Thirty-eight Conference on Neural Information Processing Systems Datasets and Benchmarks Track, 2024.

[2] Vijay Prakash Dwivedi, Chaitanya K Joshi, Anh Tuan Luu, Thomas Laurent, Yoshua Bengio, and Xavier Bresson. Benchmarking graph neural networks. Journal of Machine Learning Research, 24(43):1–48, 2023.

[3] Vijay Prakash Dwivedi, Ladislav Rampášek, Mikhail Galkin, Ali Parviz, Guy Wolf, Anh Tuan Luu, and Dominique Beaini. Long range graph benchmark. Advances in neural information processing systems, 2022.

[4] Scott Freitas and Yuxiao Dong. A large-scale database for graph representation learning. Advances in neural information processing systems, 2021.

[5] Weihua Hu, Matthias Fey, Marinka Zitnik, Yuxiao Dong, Hongyu Ren, Bowen Liu, Michele Catasta, and Jure Leskovec. Open graph benchmark: Datasets for machine learning on graphs. Advances in neural information processing systems, 2020.

本期责任编辑:杨成
本期编辑:郭枫
北邮 GAMMA Lab 公众号
主编:石川
责任编辑:杨成
编辑:郭枫

原文始发于微信公众号(北邮 GAMMA Lab):ICML 2025 | 经典GNNs是强大的图级任务基线模型

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年6月4日13:07:56
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   ICML 2025 | 经典GNNs是强大的图级任务基线模型https://cn-sec.com/archives/4131108.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息