您当前所在位置: 首页 > 首发论文
动态公开评议须知

1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

上传后印本

( 请提交PDF文档 )

* 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

发邮件给 王小芳 *

收件人:

收件人邮箱:

发件人邮箱:

发送内容:

0/300

论文收录信息

论文编号 202404-106
论文题目 一种基于信息熵的图神经网络推理加速方法
文献类型
收录
期刊

上传封面

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

编者.论文集名称(中文) [c].

出版地 出版社 出版年-

编者.论文集名称(英文) [c].

出版地出版社 出版年-

上传封面

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

英文作者写法:

中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

作者之间用逗号“,”分隔,最后为实心圆点“.”,

示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

示例3:YELLAND R L,JONES S C,EASTON K S,et al.

上传修改稿说明:

1.修改稿的作者顺序及单位须与原文一致;

2.修改稿上传成功后,请勿上传相同内容的论文;

3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

4.请选择DOC或Latex中的一种文件格式上传。

上传doc论文   请上传模板编辑的DOC文件

上传latex论文

* 上传模板导出的pdf论文文件(须含页眉)

* 上传模板编辑的tex文件

回复成功!


  • 0

一种基于信息熵的图神经网络推理加速方法

首发时间:2024-04-03

程宇松 1   

程宇松(1999-),男,安徽宣城人,硕士研究生,研究方向:边缘计算

方维维 1   

方维维(1981-),男,安徽芜湖人,教授,博士,研究方向:边缘计算,云计算与互联网

  • 1、北京交通大学计算机科学与技术学院,北京 100044

摘要:由于图数据规模的指数级增长以及大量的模型参数,图神经网络(Graph Neural Network, GNN)通常面临着高昂的计算成本,这在实际应用中构成了重大限制。近期的研究工作开始聚焦于应用彩票假设(Lottery Ticket Hypothesis, LTH)来进行GNN的稀疏化,目的是在不损害性能的前提下减少推理成本。这种方法通过精简图结构和模型参数来实现,旨在提高GNN的计算效率和实用性。然而,基于LTH存在两个主要缺点:1)它们需要对密集模型进行详尽的迭代训练,导致训练计算成本极大;2)它们对模型参数采用非结构化剪枝,在目前无法得到良好的实际加速效果。为了克服上述限制,本文提出了一种基于信息熵的图神经网络剪枝方法,称为EBP。本方法识别并去除对最终预测影响最小的边连接和模型参数通道,实现模型的加速,保证了剪枝过程不会对模型性能产生显著的负面影响。实验结果表明,该剪枝方法能够模型性能和运算效率之间达到较好的平衡。结论显示,基于信息熵的剪枝策略为GNN模型提供了一种有效的加速手段,有助于提高GNN在实际应用中的可行性和效率。

关键词: 人工智能 图神经网络 图稀疏 模型剪枝

For information in English, please click here

An Information Entropy based Inference Acceleration Method for Graph Neural Networks

Cheng Yusong 1   

程宇松(1999-),男,安徽宣城人,硕士研究生,研究方向:边缘计算

Fang Weiwei 1   

方维维(1981-),男,安徽芜湖人,教授,博士,研究方向:边缘计算,云计算与互联网

  • 1、School of Computer Science and Technology, Beijing 100044

Abstract:Due to the exponential growth of graph data and the large number of model parameters, Graph Neural Networks (GNNs) often face high computational costs, which significantly limit their practical application. Recent research has focused on applying the Lottery Ticket Hypothesis (LTH) for the sparsification of GNNs, with the aim of reducing inference costs without compromising performance. This approach, achieved by streamlining the graph structure and model parameters, is designed to enhance the computational efficiency and practicality of GNNs. However, LTH-based methods have two main drawbacks: 1) they require exhaustive iterative training of dense models, leading to substantial training computational costs; and 2) they employ unstructured pruning of model parameters, which currently fails to achieve satisfactory practical acceleration. To overcome these limitations, this paper proposes an information entropy based pruning method for Graph Neural Networks, termed EBP. This method identifies and removes the least impactful edges and model parameter channels for final predictions, accelerating the model while ensuring that the pruning process does not adversely affect model performance. Experimental results show that this pruning method can achieve a good balance between model performance and computational efficiency. The conclusion demonstrates that the entropy-based pruning strategy provides an effective means of accelerating GNN models, facilitating the improvement of GNNs\' feasibility and efficiency in practical applications.

Keywords: artificial intelligence graph neural network graph sparsification model pruning

Click to fold

点击收起

基金:

论文图表:

引用

导出参考文献

.txt .ris .doc
程宇松,方维维. 一种基于信息熵的图神经网络推理加速方法[EB/OL]. 北京:中国科技论文在线 [2024-04-03]. https://www.paper.edu.cn/releasepaper/content/202404-106.

No.****

动态公开评议

共计0人参与

动态评论进行中

评论

全部评论

0/1000

勘误表

一种基于信息熵的图神经网络推理加速方法