图神经网络(GNNs)在生物医药、知识图谱和AI4S等领域具备应用潜力。随着真实应用场景中图规模扩展至亿级边及以上,GNN训练面临通信开销与计算等问题。
近日,中国科学院计算机网络信息中心研发了TAC框架,融合数据亲和缓存填充算法、稀疏性感知的混合矩阵存储格式、多层次细粒度训练流水线三大技术,可提升缓存局部性有效降低全局通信开销,并借助Tensor Core实现稀疏矩阵计算加速。实验证明,该框架端到端性能优于其他框架。
相关研究成果已被第31届ACM SIGPLAN编程语言与并行实践原理年会录用。研究工作得到国家重点研发计划、中国科学院相关项目的支持。
供稿人:杨越
审核人:文成锋