本文来自《Wasserstein GAN》,时间线为2017年1月,本文可以算得上是GAN发展的一个里程碑文献了,其解决了以往GAN训练困难,结果不稳定等问题。 1 引言 本文主要思考的是半监督学习。当我们说学习概率分布,典型的思维是学习一个概率密度。这通常是通过定义一个概率密度的参数化族 ...
GAN Generative Adversarial Nets ,产生式对抗网络 存在问题: .无法表示数据分布 .速度慢 .resolution太小,大了无语义信息 .无reference .intend to generate same image .梯度消失 论文摘要: Goodfellow, Ian, et al. Generative adversarial nets. Advances ...
2016-10-21 15:51 0 3286 推荐指数:
本文来自《Wasserstein GAN》,时间线为2017年1月,本文可以算得上是GAN发展的一个里程碑文献了,其解决了以往GAN训练困难,结果不稳定等问题。 1 引言 本文主要思考的是半监督学习。当我们说学习概率分布,典型的思维是学习一个概率密度。这通常是通过定义一个概率密度的参数化族 ...
0.背景 Tim Salimans等人认为之前的GANs虽然可以生成很好的样本,然而训练GAN本质是找到一个基于连续的,高维参数空间上的非凸游戏上的纳什平衡。然而不幸的是,寻找纳什平衡是一个十分困难的问题。在现有的针对特定场景算法中,GAN的实现通常是使用梯度下降的方法去训练GAN网络的目标 ...
本文来自《Adversarial Autoencoders》,时间线为2015年11月。是大神Goodfellow的作品。本文还有些部分未能理解完全,不过代码在AAE_LabelInfo,这里实现了文中2.3小节,当然实现上有点差别,其中one-hot并不是11个类别,只是10个类别。 本文 ...
本文来自《Age Progression/Regression by Conditional Adversarial Autoencoder》,时间线为2017年2月。 该文很有意思,是如何通过当前图片生成你不同年龄时候的样子。 假设给你一张人脸(没有告诉你多少岁)和一堆网上爬取的人脸图像 ...
0. 背景 Junbo Zhao等人提出的“基于能量的GAN”网络,其将判别器视为一个能量函数而不需要明显的概率解释,该函数可以是一个可训练的损失函数。能量函数是将靠近真实数据流形的区域视为低能量区域,而远离的视为高能量区域。和“概率GAN”相似,训练中,生成器会尽可能生成最小能量时候的伪造 ...
0 背景 在这之前大家在训练GAN的时候,使用的loss函数都是sigmoid_cross_entropy_loss函数,然而xudon mao等人发现当使用伪造样本去更新生成器(且此时伪造样本也被判别器判为对的时候)会导致梯度消失的问题。虽然此时伪造样本仍然离真实样本分布距离还挺远。也就 ...
引言中已经较为详细的介绍了GAN的理论基础和模型本身的原理。这里主要是研读Goodfellow的第一篇GAN论文。 0. 对抗网络 如引言中所述,对抗网络其实就是一个零和游戏中的2人最小最大游戏,主要就是为了处理下面的函数\(V(G,D)\): 在实现过程中,如果将D和G都写入同一个循环 ...
0. Introduction 基于纳什平衡,零和游戏,最大最小策略等角度来作为GAN的引言 1. GAN GAN开山之作 图1.1 GAN的判别器和生成器的结构图及loss 2. Conditional GAN 图2.1 CGAN的目标函数 图2.2 CGAN ...