GAN(4)李巨集毅——理論
目錄
1:找出影象的分佈規律——生成器
1.1:之前的方法——最大似然估計
用Pdata的取樣,調整PG的引數,讓PG接近Pdata。
只考慮P(D | h)就是最大似然估計,即便一個猜測與資料非常符合,也並不代表這個猜測就是更好的猜測,因為這個猜測本身的可能性P(h)也許就非常低
產生的圖片非常非常模糊——這是由於高斯分佈本身的表達能力有限
1.2:genorator網路,看做是概率分佈——表達能力更高,判別器,看做KL優化
把D訓練到最好,輸出的loss就是判斷兩個分佈之間的差異
2:演算法
判別器是在測量差異,生成器是在減少差異
如果生成器訓練太多次,判別器就很難去測量差異
加快生成器的訓練
直觀上看起來就是這樣
相關推薦
GAN(4)李巨集毅——理論
目錄 1:找出影象的分佈規律——生成器 1.1:之前的方法——最大似然估計 用Pdata的取樣,調整PG的引數,讓PG接近Pdata。 只考慮P(D | h)就是最大似然估計,即便一個猜測與資料非常符合,也並不代表這個猜測就是更好的猜測,因
GAN李巨集毅(3)——無監督conditional GAN
目錄 存在的問題 從標籤得到圖片,然後用判別器更新生成器。如果標籤沒那麼精確,不是一對一的,計算判別器的時候就會出現問題,怎麼辦? 問題——如果判別器不仔細設計,而生成器又比較深的話,會導致生成影象與原始影象差
李巨集毅機器學習 P12 HW2 Winner or Loser 筆記(不使用框架實現使用MBGD優化方法和z_score標準化的logistic regression模型)
建立logistic迴歸模型: 根據ADULT資料集中一個人的age,workclass,fnlwgt,education,education_num,marital_status,occupation等資訊預測其income大於50K或者相反(收入)。 資料集: ADULT資料集。
【李巨集毅深度強化學習2018】P3 Q-learning(Basic Idea)
第三講 Q-learning(Basic Idea) 視訊地址:http
李巨集毅機器學習PTT的理解(1)深度學習的介紹
深度學習的介紹 機器學習就像是尋找一個合適的函式,我們輸入資料就可以得到想要的結果,比如: 在語音識別中,我們輸入一段語音,函式的輸出值就是識別的結果;在影象識別中,輸入一張照片,函式可以告訴我們分類
【機器學習(李巨集毅)】 三、Bias and Variance
本講核心問題:Where does the error come from? Review: 更復雜的模型不一定在測試集上有更好的表現 誤差由偏差“bias”導致 誤差由方差“variance”導致 Estimator: f^是計算poke
臺大李巨集毅--深度學習tip(模型優化)
訓練結果不好,並不總是因為過擬合 訓練結果不好,並不總是因為過擬合。有可能是你的training data都沒有訓練好,那最終結果一定不好 深度學習的層數越多,網路越複雜,並不一定模型會越複雜。有時會使得模型變簡單,變成欠擬合。 在機器學習中,要想
[機器學習入門] 李巨集毅機器學習筆記-1(Learning Map 課程導覽圖)
在此就不介紹機器學習的概念了。 Learning Map(學習導圖) PDF VIDEO 先來看一張李大大的總圖↓ 鑑於看起來不是很直觀,我“照虎
[機器學習入門] 李巨集毅機器學習筆記-5(Classification- Probabilistic Generative Model;分類:概率生成模型)
[機器學習] 李巨集毅機器學習筆記-5(Classification: Probabilistic Generative Model;分類:概率生成模型) Classification
[機器學習入門] 李巨集毅機器學習筆記-15 (Unsupervised Learning: Word Embedding;無監督學習:詞嵌入)
[機器學習入門] 李巨集毅機器學習筆記-15 (Unsupervised Learning: Word Embedding;無監督學習:詞嵌入) PDF VIDEO
2018-3-21李巨集毅機器學習視訊筆記(十三)--“Hello Wrold” of Deep learning
Keras:有關的介紹:總的來說就是一個深度學習框架keras - CSDN部落格https://blog.csdn.net/xiaomuworld/article/details/52076202軟體工程中的框架:一種可複用的設計構件(從巨集觀上大體結構的一種規定約束)軟體
[機器學習入門] 李巨集毅機器學習筆記-6 (Classification: Logistic Regression;邏輯迴歸)
[機器學習] 李巨集毅機器學習筆記-6 (Classification: Logistic Regression;Logistic迴歸) PDF VIDEO Three steps Step 1: Function Set
李巨集毅《機器學習(2017版)》課程筆記及心得 第1篇——Introduction of ML
1.首先,機器學習是什麼?機器學習,就是“根據所給資料,尋找一個函式,給出適當輸出”。通過這個函式,我們可以給它一個輸入,得到理想的、正確的輸出。我們通常需要給它資料,訓練一個機器的學習能力。例如:Speech Recognition就是我們給它一段音訊,它給我們識別,輸出這
[機器學習入門] 李巨集毅機器學習筆記-14 (Unsupervised Learning: Linear Dimension Reduction;無監督學習:線性降維)
[機器學習入門] 李巨集毅機器學習筆記-14 (Unsupervised Learning: Linear Dimension Reduction;線性降維) PDF VI
機器學習(臺灣李巨集毅版)學習筆記 gradient descent
梯度下降屬於線性迴歸的一個重要的部分。但是這種方法具有侷限性,在一般的情況下,並不能保證找到的區域性最小就是全域性最小。所以這種方法適用於目標函式是凸函式的情況(local minimum == global minimum)。即使是在凸函式中也不能保證最後找到
李巨集毅機器學習筆記-6 深度學習簡介(Brief Introduction of Deep Learning)
Brief Introduction of Deep Learning - 深度學習簡介 1. 前言 deep learning 在近些年非常熱門,從2012年開始,深度學習的應用數目幾乎是呈指數增長的。 深度學習的發展史如下圖:
國立臺灣大學-李巨集毅-2017年(秋)最新深度學習與機器學習應用及其深入和結構化研究課程分享
課程持續更新中,文末附分享目前已經release出來的視訊和ppt下載鏈接。 課程描述: 講解深度學習的基本理論,介紹深度學習各種實際應用。 期望和目標: 希望學習本門課程的學生學會: (1)、深度學習工作原理。 (2)、深度學習常用架構工作原理。
李巨集毅機器學習(2017full)-Lecture 2: Where does the error come from?
Where does the error come from? ML Lecture 2 Error的來源:Bias,Varience f^f^是計算pokemon真正的函式,只有Niantic公司知道 從訓練集上,我們得出的一個估計f∗f∗ 故像射擊
16、【李巨集毅機器學習(2017)】Unsupervised Learning: Deep Auto-encoder(無監督學習:深度自動編碼器)
本篇部落格將介紹無監督學習演算法中的 Deep Auto-encoder。 目錄 Deep Auto-encoder 輸入28*28維度的影象畫素,由NN encoder輸出code,code的維度往往小於784,但我們並不知道code的
讀《Deep Learning Tutorial》(臺灣大學 李宏毅 深度學習教學ppt)後雜記
sam min learning pos structure num 概念 獲得 any 原ppt下載:pan.baidu.com/s/1nv54p9R,密碼:3mty 需深入實踐並理解的重要概念: Deep Learning: SoftMax Fuction(輸出層