原文:Feature Fusion for Online Mutual Knowledge Distillation (CVPR 2019)

一 解决问题 如何将特征融合与知识蒸馏结合起来,提高模型性能 二 创新点 支持多子网络分支的在线互学习 子网络可以是相同结构也可以是不同结构 应用特征拼接 depthwise pointwise,将特征融合和知识蒸馏结合起来 三 实验方法和理论 .Motivation DML Deep Mutual Learning 算法思想: 用两个子网络 可以是不同的网络结构 进行在线互学习,得到比单独训练性 ...

2019-10-31 20:30 0 435 推荐指数:

查看详情

知识蒸馏(Knowledge Distillation

知识蒸馏(Knowledge Distillation) 2018年06月04日 16:55:38 Law-Yao 阅读数 22009更多 分类专栏: 深度学习 模型压缩 优化加速 ...

Fri Sep 13 04:46:00 CST 2019 0 1539
Awesome Knowledge-Distillation

Awesome Knowledge-Distillation 2019-11-26 19:02:16 Source: https://github.com/FLHonker/Awesome-Knowledge-Distillation Awesome ...

Wed Nov 27 03:03:00 CST 2019 0 986
(转)Awesome Knowledge Distillation

Awesome Knowledge Distillation 2018-07-19 10:38:40 Reference:https://github.com/dkozlov/awesome-knowledge-distillation Papers Combining ...

Thu Jul 19 18:39:00 CST 2018 0 1165
[RoarCTF 2019]Online Proxy

/RoarCTF-Writeup-some-Source-Code/blob/master/Web/online_proxy/wri ...

Wed Feb 12 03:59:00 CST 2020 0 211
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM