1. 程式人生 > >機器學習:LDA_數學基礎_5:變分推斷:變分推斷部分

機器學習:LDA_數學基礎_5:變分推斷:變分推斷部分

  • 最優化量是一個泛函時,需要研究所有的輸入函式,找到最大化或者最小化泛函的函式就是變分
  • 變分近似的過程:限制需要最優化演算法搜尋的函式的範圍(二次函式,或者,固定基曲線函式的線性組合)

變分推斷

  • 符號假設

    1. Z:所有的潛在變數和引數組成的集合
    2. X:所有的觀測變數的集合
    3. 確定了聯合分佈p(X,Z)
    4. 目標:找到後驗概率分佈 p(Z|X), 驗證模型證據p(X) 的近似
  • 公式

lnp(X)=L(q)+KL(q||p)
其中
L(q)=q(Z)ln{p(X,Z)q(Z)}dZ
KL(q||p)=q(Z)ln{p(Z|X)q(Z)}dZ

  • 常規思路:EM演算法
  • 新思路
    1. 在真實的概率分佈進行操作不可以行的情況下(q(Z))不可操作
    2. 考慮q(Z)的受限類別
    3. 尋找這個類別中,是的KL散度達到最小值的概率分佈

分解概率分佈

  • 限制q(Z)的範圍
    q(Z)=Mi=1qi(Zi)
    =>平均場論
    1. 在所有上述形式的q(Z)中尋找使得下屆 L(q)最大的概率分佈
    2. 將上式帶入 L(q)
    3. qj(Zj)qj

L(q)=iqi{lnp(X,Z)ilnqi}dZ

=qj{lnp(X,Z)ijqidZi}dZjqjlnqjdZj+

=qjlnp^(x,Zj)dZjqjlnqjdZj+

其中:

lnp^(X,Zj)=Eij[lnp(X,Z)]+

Eij[lnp

(X,Z)]=lnp(X,Z)ijqidZi

結論

  • 上式中的 , qj{lnp(X,Z)ijqidZi}dZjqjlnqjdZj+qj(Zj)p^(X,

    相關推薦

    機器學習LDA_數學基礎_5推斷推斷部分

    最優化量是一個泛函時,需要研究所有的輸入函式,找到最大化或者最小化泛函的函式就是變分 變分近似的過程:限制需要最優化演算法搜尋的函式的範圍(二次函式,或者,固定基曲線函式的線性組合) 變分

    【ML學習筆記】3機器學習中的數學基礎3(特徵值,特徵向量,認識SVD)

    矩陣乘以向量的幾何意義 實際上也就是 所以,它還可以寫成 那麼把原來的矩陣按照列檢視來看,也就是 而[x]和[y]作為1x1的矩陣,在剛剛那個式子裡可以看成一個標量,也就變成了 所以矩陣乘以一個列向量,可以看成把這個列向量的每一個分

    【ML學習筆記】5機器學習中的數學基礎5(張量,哈達瑪積,生成子空間,超平面,範數)

    向量/矩陣/張量 向量 向量可以表示成一維陣列,每個分量可以理解為向量所表示的點在空間中座標的分量。 矩陣 矩陣可以表示成二維陣列,上節理解了矩陣可以理解為線性對映在特定基下的一種定量描述。 張量 張量可以表示成任意維的陣列,張量是向量概

    機器學習之必備數學基礎

    一、微積分基礎知識 1、微積分 複習夾逼定理(兩邊夾定理) 複習極限存在定理:         單調有界數列必有極限:單增數列有上界,則其必有極限;單減數列有下限,則其必有極限。 2、導數 方向導數、梯度 3、Taylor公式 –

    機器學習人工智慧,數學基礎知識

           從3月份到目前為止,主要看了3本書《Python核心程式設計》,《利用Python進行資料分析》,《Python網路資料採集》,其實心裡想做資料分析,人工智慧這一塊,具體的裡面的哪塊,自己其實還沒決定下來的,但不管怎樣,這些基礎必須是要學的,有了基礎,才能去使

    機器學習必備的數學基礎有哪些?

    大家好,我是王天一。我是北京郵電大學博士畢業,目前在貴州大學大資料資訊工程學院任教,同時也是咱們極客時間《人工智慧基礎課》這個專欄的作者。今天我們分享的內容,主要是關於機器學習中的基礎數學,包括以下四個部分。第一,我們關注的是機器學習當中會用到哪些基礎數學。第二,這些數學在機

    機器學習中的數學一份新鮮出爐的熱門草稿

    近日,Marc Peter Deisenroth、A Aldo Faisal 和 Cheng Soon Ong 所著書籍《Mathematics for Machine Learning》的全部草稿已放出,我們整理了這本書的簡要概述。感興趣的讀者可從以下連結獲取全文(英文版)。 書籍地址:https://m

    機器學習中的數學洛必達法則(能力工場小馬哥)

    轉載 什麽 機器學習 數學 比賽 技術 函數 著作權 不存在 通俗地講,求極限的本質是分子與分母“比階”,比誰的速度快。 就像分子分母在跑道上進行趨於0或者無窮的賽跑,我們旁觀者想搞清楚他們1.誰贏了?(極限是大於一還是小於一?)2.他們是差不多同時撞線還是領先者領先

    機器學習實戰第8章預測數值型數據回歸

    矩陣 向量 from his sca ima 用戶 targe 不可 1.簡單的線性回歸 假定輸入數據存放在矩陣X中,而回歸系數存放在向量W中,則對於給定的數據X1,預測結果將會是                  這裏的向量都默認為列向量 現在的問題是手裏有一些x

    [機器學習入門] 李巨集毅機器學習筆記-5(Classification- Probabilistic Generative Model;分類概率生成模型)

    [機器學習] 李巨集毅機器學習筆記-5(Classification: Probabilistic Generative Model;分類:概率生成模型) Classification

    機器學習筆記(二)矩陣和線性代數 例用Python實現SVD分解進行圖片壓縮

    線性代數基本只要是理工科,都是必修的一門課。當時學習的時候總是有一個疑惑,這個東西到底是幹嘛用的?為什麼數學家發明出這麼一套方法呢,感覺除了解方程沒發現有什麼大用啊!但隨著學習的深入,慢慢發現矩陣的應

    機器學習(7)——支援向量機(二)線性可支援向量機到非線性支援向量機

    線性可分支援向量機 回顧 前面總結了線性可分支援向量機,知道了支援向量機的最終目的就是通過“間隔最大化” 得到最優分類器,能夠使最難區分的樣本點得到最大的分類確信度,而這些難區分的樣本就是支援向量。 還是如下圖所示,超平面H1 和 H2 支撐著中間的決

    人工智慧必備數學基礎高等數學基礎(1)

      我們知道機器學習的特點就是:以計算機為工具和平臺,以資料為研究物件,以學習為中心;是概率論,線性代數,數值計算,資訊理論,最優化理論和電腦科學等多個領域的交叉學科。所以這裡我打算補充一下機器學習涉及到的一些常用的知識點。   (注意:目前自己補充到的所有知識點,均按照自己網課視訊中老師課程知識點走的,同時

    人工智慧必備數學基礎高等數學基礎(2)

    如果需要小編其他數學基礎部落格,請移步小編的GitHub地址   傳送門:請點選我   如果點選有誤:https://github.com/LeBron-Jian/DeepLearningNote   這裡我打算補充一下機器學習涉及到的一些關於微積分的知識點。   微積分是高等數學中研究函式的微分,積分以及有

    人工智慧必備數學基礎高等數學基礎(3)

    如果需要小編其他數學基礎部落格,請移步小編的GitHub地址   傳送門:請點選我   如果點選有誤:https://github.com/LeBron-Jian/DeepLearningNote   這裡我打算補充一下機器學習涉及到的一些關於泰勒公式與拉格朗日的知識點。   (注意:目前自己補充到的所有知識

    Day1 機器學習(Machine Learning, ML)基礎

    向量 data testin 應用 k-近鄰算法 ldo 精度 風險 樸素 一、機器學習的簡介 定義   Tom Mitchell給出的機器學習定義: 對於某類任務T和性能度量P,如果計算機程序在T上以P衡量的性能隨著經驗E而自我完善,那麽就稱這個計算機程序從經驗E學習

    機器學習的9個基礎概念和10種基本算法總結

    分割 比例 ssi 進一步 erro 所有 方程 相互 區間 https://blog.csdn.net/libaqiangdeliba/article/details/41901387 1.基礎概念:   (1) 10折交叉驗證:英文名是10-fold cross-v

    機器學習中的數學-強大的矩陣奇異值分解(SVD)及其應用

    版權宣告:     本文由LeftNotEasy釋出於http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html 前言: &nb

    機器學習需要的數學總結

    數學知識 數學知識總括 微積分(高等數學) 線性代數 概率論與數理統計 凸優化 微積分 微積分學,數學中的基礎分支。內容主要包括函式、極限、微分學、積

    機器學習中的數學

    二、第二課時  1)極限:   通俗語言:函式f在\(x_0\)處的極限是L   數學符號:\(\lim_{x\rightarrow x_0} f(x) = L\)   無窮如何比較大小呢?如x趨近0的時候,\(sin(x)\)和\(tan(x)\)同樣都趨近0,哪個趨近0的速度更快呢?我們可以採用求