Python人工智能學習PyTorch實現(xiàn)WGAN示例詳解
1.GAN簡述
在GAN中,有兩個模型,一個是生成模型,用于生成樣本,一個是判別模型,用于判斷樣本是真還是假。但由于在GAN中,使用的JS散度去計算損失值,很容易導致梯度彌散的情況,從而無法進行梯度下降更新參數(shù),于是在WGAN中,引入了Wasserstein Distance,使得訓練變得穩(wěn)定。本文中我們以服從高斯分布的數(shù)據(jù)作為樣本。
2.生成器模塊
這里從2維數(shù)據(jù),最終生成2維,主要目的是為了可視化比較方便。也就是說,在生成模型中,我們輸入雜亂無章的2維的數(shù)據(jù),通過訓練之后,可以生成一個贗品,這個贗品在模仿高斯分布。

3.判別器模塊
判別器同樣輸入的是2維的數(shù)據(jù)。比如我們上面的生成器,生成了一個2維的贗品,輸入判別器之后,它能夠最終輸出一個sigmoid轉換后的結果,相當于是一個概率,從而判別,這個贗品到底能不能達到以假亂真的程度。

4.數(shù)據(jù)生成模塊
由于我們使用的是高斯模型,因此,直接生成我們需要的數(shù)據(jù)即可。我們在這個模塊中,生成8個服從高斯分布的數(shù)據(jù)。

5.判別器訓練
由于使用JS散度去計算損失的時候,會很容易出現(xiàn)梯度極小,接近于0的情況,會使得梯度下降無法進行,因此計算損失的時候,使用了Wasserstein Distance,去度量兩個分布之間的差異。因此我們假如了梯度懲罰的因子。

其中,梯度懲罰的模塊如下:

6.生成器訓練
這里的訓練是緊接著判別器訓練的。也就是說,在一個周期里面,先訓練判別器,再訓練生成器。

7.結果可視化
通過visdom可視化損失值,通過matplotlib可視化分布的預測結果。

以上就是人工智能學習PyTorch實現(xiàn)WGAN示例詳解的詳細內容,更多關于PyTorch實現(xiàn)WGAN的資料請關注本站其它相關文章!
版權聲明:本站文章來源標注為YINGSOO的內容版權均為本站所有,歡迎引用、轉載,請保持原文完整并注明來源及原文鏈接。禁止復制或仿造本網站,禁止在非maisonbaluchon.cn所屬的服務器上建立鏡像,否則將依法追究法律責任。本站部分內容來源于網友推薦、互聯(lián)網收集整理而來,僅供學習參考,不代表本站立場,如有內容涉嫌侵權,請聯(lián)系alex-e#qq.com處理。
關注官方微信