1. 程式人生 > >Transferring GANs: generating images from limited data 論文學習

Transferring GANs: generating images from limited data 論文學習

Transferring GANs: generating images from limited data
2018ECCV

論文連結:https://arxiv.org/pdf/1805.01677.pdf

Abstract
探究預訓練網路對GAN的影響相關的問題

1. Introduction
貢獻:

1. 研究了域自適應,評估了幾個模型

2. 研究了源域和目標域之間的關係如何影響結果,並討論選擇合適的預訓練模型的問題

3. 評估從GANS轉移到cGAN的兩種常用的方法

2. Related Work
Transfer learning/domain transfer:

巴拉巴拉很多其他的研究,看不懂~

與這些方法相比,作者不關注於傳遞鑑別特徵,而是傳遞用於影象生成的知識,就是關注生成影象的質量。

GAN  cGAN相關

3. Generative Adversarial Networks
3.1 Loss functions


3.2 Evaluation Metrics
作者選用兩種評估方法

Fr´echet Inception Distance:

Independent Wasserstein (IW) critic:

4. Transferring GAN representations
4.1 GAN adaptation
作者採用WGAN-GP的結構,說這是被實驗證明是唯一穩定並且不遭受模式崩潰的架構~

該生成器由一個全連線的層、四個resnet塊和一個卷積層組成,並且鑑別器具有相同的設定。相同的體系結構用於CGAN。

Implementation details:

生成64X64的圖片,還介紹了下學習速率設定和批訓練

4.2 Generator/discriminator transfer configuration
進行了四個實驗

用ImageNet預訓練G 和D(也就是轉移) ,用LSUN bedrooms做目標資料

我們可以發現轉移訓練D效果比轉移G更好。然後都轉移效果最好,所以後續作者說都採用對G,D都轉移

可以發現轉移GAN迭代時間短,且質量更好。

4.3 Size of the target dataset
又進行實驗

作者使用來自LSUN臥室資料集的1000張影象做目的資料集,並使用IMANET作為源資料集。請注意,一般來說,GAN 要使用全套300萬幅LSun臥室來做生成。

好了,看看結果吧~

在這個實驗中,我們發現根據預訓練模型自適應的GAN需要少於大約兩到五倍的影象,就可以獲得與從頭開始訓練的GAN相似的分數

 

可以發現預訓練網路可以在早期迭代中已經生成高質量的影象,特別是具有更清晰和更明確的形狀和更逼真的精細細節。

4.4 Source and target domains
作者開始研究原域與目標域的選取對實驗的影響,沒錯,又要開始實驗了

原域:ImageNet和Places都覆蓋了廣闊的領域,物件和場景分別具有很大的多樣性,而LSUN臥室和CelebA則覆蓋了更窄的領域。

目標域:作者使用了更小的資料集,包括Oxford Flowers、LSUN Kitchens(2M影象中的50K的子集)、Label Faces(LFW)和CityScapes

看看效果圖:

可以看出,各有千秋把~

4.5 Selecting the pretrained model
那麼怎麼選擇預訓練模型呢?

也許最簡單的方法是比較原源和目標域之間的距離,如下

與表4比,大致一致,還是有點差別

然後作者得出結論:

源資料和目標真實資料之間的FID是粗糙的指標,而不是精確度量。實驗小王子~~

4.6視覺化適應過程


這個過程還是比較有意思,可以看到圖片在慢慢的從原域轉換到目標域

5.轉移到條件GAN
5.1條件GAN適應
作者用AC-GAN的模型

損失函式為:

由甘到cGAN的兩種方法:

1. Cond Concat:將條件標籤和輸入噪聲連線作為輸入

2. Cond BNorm:將條件標記插入生成器的批歸一化層中(納尼?!)在這種情況下,每個類都有不同的批處理歸一化引數。我們通過複製從無條件的甘到所有類的值來初始化這些引數。

5.2結果


可以發現效果更好

還進行了和前面一樣的尺寸實驗:

 

6結論
1.從預訓練模型中轉移GAN效果比從0開始強,迭代的更快,質量更好,cGAN也是

2.結果還表明從窄而密集的資料集中傳遞知識更有效

(ps好吧,全篇都是實驗~~~~這也行)
--------------------- 
作者:眉間細雪 
來源:CSDN 
原文: https://blog.csdn.net/weixin_42445501/article/details/82757437 
版權宣告:本文為博主原創文章,轉載請附上博文連結!