原文:无监督-DEEP GRAPH INFOMAX

无监督 DEEP GRAPH INFOMAX 标签:图神经网络 无监督 动机 在真实世界中,图的标签是较少的,而现在图神经的高性能主要依赖于有标签的真是数据集 在无监督中,随机游走牺牲了图结构信息和强调的是邻域信息,并且性能高度依赖于超参数的选择 贡献 在无监督学习上,首次结合互信息提出了一个图节点表示学习方法 DGI 该方法不依赖随机游走目标,并且使用与直推式学习和归纳学习 DGI 依赖于最大限 ...

2021-11-29 12:21 1 753 推荐指数:

查看详情

论文解读(DGI)《DEEP GRAPH INFOMAX

  论文标题:DEEP GRAPH INFOMAX  论文方向:图像领域  论文来源:2019 ICLR  论文链接:https://arxiv.org/abs/1809.10341  论文代码:https://github.com/PetarV-/DGI 摘要 DGI ...

Mon Sep 20 03:51:00 CST 2021 0 459
Deep learning:二十一(随机初始化在监督特征学习中的作用)

  这又是Ng团队的一篇有趣的paper。Ng团队在上篇博客文章Deep learning:二十(监督特征学习中关于单层网络的分析)中给出的结论是:网络中隐含节点的个数,convolution尺寸和移动步伐等参数比网络的层次比网络参数的学习算法本身还要重要,也就是说即使是使用单层的网络 ...

Thu Apr 04 01:03:00 CST 2013 0 8435
监督和有监督算法的区别

参考网址:https://www.jianshu.com/p/9b2826ef8a28 1、有监督学习:通过已有的训练样本去训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现预测和分类的目的,也就具有了对未知数据进行预测和分类的能力 ...

Mon Nov 01 07:16:00 CST 2021 0 138
监督监督、自监督 理解和区别

监督(self-supervised)既可以认为是有监督(supervised)也可以认为是监督(unsupervised),主要取决于如何定义有监督。 自监督学习(Self-supervised Learning):是指直接从大规模的监督数据中挖掘自身监督信息来进行监督 ...

Fri Feb 11 22:14:00 CST 2022 0 5577
深度学习-监督

原:http://www.cnblogs.com/DjangoBlog/p/6476332.html 综述 如果已经有一个足够强大的机器学习算法,为了获得更好的性能,最靠谱的方法之一 ...

Fri Jun 15 04:47:00 CST 2018 0 1495
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM