您当前的位置: 首页 > 

静静喜欢大白

暂无认证

  • 1浏览

    0关注

    521博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

【KD】相关KD论文简读汇总

静静喜欢大白 发布时间:2022-10-04 17:38:57 ,浏览量:1

2022 王灿 在线s-s迭代蒸馏 Online Cross-Layer Knowledge Extraction on Graph Neural Networks

 

 

 论文:https://arxiv.org/pdf/2205.02468.pdf

代码:GitHub - GuoJY-eatsTG/Alignahead

现有的图神经网络(GNNs)知识蒸馏方法几乎都是离线的,学生模型从强大的教师模型中提取知识以提高其性能。然而,由于培训成本、隐私等原因,预培训的教师模型并不总是可用的。在本文中,我们提出了一个新的在线知识蒸馏框架来解决这个问题。具体来说,每个学生GNN模型在交替训练过程中从另一个同时训练的对应对象学习提取的局部结构。我们进一步开发了一种跨层蒸馏策略,通过将一个学生层与另一个学生模型的不同深度的层对齐,这在理论上使结构信息扩散到所有

关注
打赏
1510642601
查看更多评论
立即登录/注册

微信扫码登录

0.2889s