论文地址:https://arxiv.org/abs/1608.08710 主要思想 这篇文章主要讲了对filters的裁剪,裁剪方法是计算L1范数,然后裁剪掉较少的,多少取决于加速比。 实现效果 VGG-16 34%加速 ResNet-110 38%加速 具体 ...
前言 这篇论文主要讲的是知识图谱正确率的评估,将知识图谱的正确率定义为知识图谱中三元组表述正确的比例。如果要计算知识图谱的正确率,可以用人力一一标注是否正确,计算比例。但是实际上,知识图谱往往很大,不可能耗费这么多的人力去标注,所以一般使用抽样检测的方法。这就好像调查一批商品合格率一样,不可能将所有的商品都检查一遍,采用抽样的方法可以估计出合格率。 抽样产生的样本,我们利用中心极限定理,可以推导出 ...
2020-08-02 17:38 4 375 推荐指数:
论文地址:https://arxiv.org/abs/1608.08710 主要思想 这篇文章主要讲了对filters的裁剪,裁剪方法是计算L1范数,然后裁剪掉较少的,多少取决于加速比。 实现效果 VGG-16 34%加速 ResNet-110 38%加速 具体 ...
Graph Attention Networks 2018-02-06 16:52:49 Abstract: 本文提出一种新颖的 graph attention networks (GATs), 可以处理 graph 结构的数据,利用 masked ...
Distilling the Knowledge in Neural Network Geoffrey Hinton, Oriol Vinyals, Jeff Dean preprint arXiv:1503.02531, 2015 NIPS 2014 Deep Learning Workshop ...
出处:CVPR2015 Motivation 本文描述了MSCoco标题数据集及评估服务器(Microsoft COCO Caption dataset and evaluation server),最终生成了超过330,000带标题的 images。训练集和验证集找了5个人力来标注,并且为 ...
论文地址:https://arxiv.org/abs/2105.15203 1 引言 文章提出了一种基于transformer的语义分割网络,不同于ViT模型,SegFormer使用一种分层特征表示的方法,每个transformer层的输出特征尺寸逐层递减,通过这种方式捕获不同尺度的特征信息 ...
Recommendations as Treatments: Debiasing Learning and Evaluation Authors: Tobias Schnabel, Adith Swaminathan, Ashudeep Singh, Navin Chandak ...
摘要 这篇文章提出了AKT模型, 使用了单调性注意力机制, 考虑过去的做题记录来决策未来的做题结果, 另外使用了Rasch 模型来正则化习题和概念的嵌入。 AKT方法 1上下文感知表示和知识检索 ...
论文地址:https://arxiv.org/abs/2004.10934v1 github地址:https://github.com/AlexeyAB/darknet 摘要: 有很多特征可以提高卷积神经网络(CNN)的准确性。需要在大型数据集上对这些特征的组合进行实际测试,并需 ...