生成對抗網絡(GAN與W-GAN)


生成對抗網絡(GAN與W-GAN)

作者:凱魯嘎吉 - 博客園 http://www.cnblogs.com/kailugaji/

        通過閱讀《神經網絡與深度學習》,了解生成對抗網絡(Generative Adversarial Networks,GAN)的來龍去脈,並介紹GAN與Wasserstein GAN。

1. 基礎知識

KL散度 (Kullback–Leibler Divergence)、JS散度 (Jensen–Shannon Divergence)、推土機距離 (Wasserstein Distance, or Earth-Mover’s Distance)以及Lipschitz連續函數.

2. Vanilla GAN (標准GAN/原始GAN)

判別網絡,生成網絡,以及總體目標函數

最小化交叉熵就是極大似然估計,使其期望最大化。

Vanilla GAN訓練過程

Vanilla GAN進一步分析——梯度消失,分布不重疊時,JS散度恆為log2

Vanilla GAN進一步分析——逆向KL散度導致模型坍塌

3. Wasserstein GAN

拓展:由生成對抗網絡聯想到假設檢驗中的兩類錯誤

生成器:支持原假設,$p_{data}=p_{\theta}$,生成的圖像越真實越好;

判別器:支持備擇假設,$p_{data} \neq p_{\theta}$,越能判別出假圖像越好。

假設檢驗會出現兩類錯誤,本來圖像是真實的,原假設是正確的,但是卻拒絕原假設,認為圖像是假的,這是第一類錯誤;本來圖像是假的,原假設是錯誤的,卻接受原假設,認為圖像是真實的,這是第二類錯誤。統計學告訴我們這兩類錯誤都無法避免,也無法同時使兩者出現的概率都最小,一類錯誤的減少必然會使另一類錯誤增加。一種折中的方案是,只限制犯第一類錯誤的概率,這就是Fisher顯著性檢驗。對於GAN來說,生成器生成了一些重復但是很安全的樣本,缺乏多樣性。

4. 參考文獻

邱錫鵬,神經網絡與深度學習,機械工業出版社,https://nndl.github.io/, 2020.


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM