與判別網路對抗的生成網路 (Generative Adversarial Nets)
Generative Adversarial Nets (GAN)
主線為 Ian J. Goodfellow 的論文 (“Generative Adversarial Nets”) 內容 1。之前一些人譯為“生成式對抗網路”。但從模型分類 (生成模型和判別模型) 的角度來看,更具體地,改為“與判別網路對抗的生成網路”會比較直觀。
另外,後面的“我們”並不指我,而指“Ian J. Goodfellow”等人~
摘要
通過對抗過程來估計生成模型,該過程中同時訓練兩個模型:生成模型
1. 簡介
人工智慧應用 (諸如自然影象,語音波形和自然語言的語料庫)中會遇到各種各樣的資料,深度學習的前景是發現代表這些資料的概率分佈的豐富的分層模型。目前,深度學習最大的成功是判別模型。判別模型通常將高維的豐富的感官輸入對映為
對抗的網路框架中,生成模型與它的對手對決:判別模型學習去決定某個樣本是否來自模型分佈或資料分佈。生成模型可認為類似一個造假團伙,該團伙試圖製造假幣,但使用前不檢驗。而判別模型類似警察,試圖檢驗假幣。遊戲中的競爭促使雙方改進方法,直到假幣與真幣不可分為止。
該框架可為許多模型和優化方法產生具體的訓練方法。本文中,生成模型通過一個多層感知機傳遞隨機噪聲,且判別模型也是一個多層感知機。這個特例稱為對抗的網路。這裡,僅用反向傳播和 Dropout 來訓練模型,生成模型通過前向傳播來生成樣本。不需要近似推理和 Markov 鏈。
2. 相關工作
直到最近,大多數深度生成模型的工作集中於為模型的概率分佈函式指定引數。然後可最大化對數似然來訓練模型。這類模型中最成功的可能是深度 Boltzmann 機。它們一般有難解的似然函式,因此要求對似然梯度的大量近似。這些困難推動了“生成機”的發展——不用顯式表示似然的模型仍能從期望的分佈中生成樣本。隨機的生成網路正是一個用反向傳播訓練 (而不是 Boltzmann 機要求的大量近似) 的生成機。該工作進一步消除了用於隨機的生成網路的 Markov 鏈。
注:“大量近似”的原文為 numerous approximations,“數值近似”的英文為 numerical approximation。不知為何想起了這個~
利用如下觀測的生成過程來反向傳播梯度:
我們開展工作的同時,Kingma,Welling 和 Rezende 等人提出更一般的隨機反向傳播規則,允許通過有限方差的高斯分佈來反向傳播,且對方差和均值反向傳播。這些反向傳播規則可學到生成器的條件方差 (條件方差視為我們工作的超引數) 。Kingma,Welling 和 Rezende 等人用隨機反向傳播來訓練變分自編碼器 (VAEs)。與對抗的生成網路相似,變分自編碼器為可微分的生成網路配對第
以前有工作用判別標準來訓練生成模型。這些方式的標準難以用於深度生成模型上。這些方法難以近似深度模型,因為用變分近似無法近似深度模型所涉及的概率的下界。當模型用於從固定的噪聲分佈中區分資料時,噪聲對比估計 (NCE) 通過學習該模型的權重來訓練生成模型。用之前訓練好的模型作為噪聲分佈,提高了訓練一系列模型的質量。NCE 是本質上與對抗的網路遊戲中的正式競爭相似的一種非正式競爭機制。NCE 關鍵的侷限為它的“判別器”是由噪聲分佈和模型分佈的概率密度比重來定義,從而要求評估和反向傳播兩個概率密度。
一些以前的工作已用到兩個網路競爭的一般概念。最相關的工作為可預見性最小化。其中,一個訓練好的神經網路中的每個隱含單元與第
對抗的生成網路有時曾與“對抗的例項”相混淆。對抗的例項是指為找出與誤分類的資料相似的例項,通過在分類網路的輸入上直接基於梯度優化,來獲得的例項。對抗的例項與當前工作是不同的,因為對抗的例項不是一個生成模型的訓練機制。相反,對抗的例項主要是顯示網路行為異常 (經常以高置信度將兩幅影象分為不同類,儘管兩幅影象對人來說是同類) 的分析工具。對抗的例項的存在確實表明訓練對抗的生成網路可能效率低,因為對抗的例項表明,在不模仿某類的人類感知屬性時,使目前的判別網路自信地識別該類是可能的。
3. 對抗的網路
當模型都為多層感知機時,可非常直接地應用對抗的模型框架。已知資料
對抗的網路的理論分析本質上證明,效能足夠好時 (即無引數限制) ,訓練標準可恢復生成資料的分佈來作為
訓練對抗的生成網路時,同時更新判別分佈 (
D ,藍色虛線) 使D 能區分資料生成分佈 (黑色虛線) 中的樣本和生成分佈pg (G ,綠色實線) 中的樣本。下面的水平線為均勻取樣z 的區間,上面的水平線為x 的部分割槽間。朝上的箭頭顯示對映x=G(z) 如何在轉換後的樣本上新增非均勻分佈pg 。G 在pg 高密度區域收縮,且在pg 的低密度區域擴散。
(a) 考慮一個接近收斂的對抗的模型對:pg 與pd