1. 程式人生 > >Machine Learning Series No.6 -- EM algorithm

Machine Learning Series No.6 -- EM algorithm

EM演算法

1.直觀理解

通俗的理解看出就是EM演算法由於不知道隱變數的分佈,先給出引數的隨機初始值,然後根據引數,去得到隱變數的分佈,然後根據隱變數和觀測變數的共同分佈基於最大似然去重新估計引數,知道引數穩定。

2.數學推導

極大似然估計:

L(θ)=ilogp(xi;θ)=ilog(jp(xi,zj;θ)) L(θ)=ilog(jp(xi,zj;θ)Qj(zj)Qj(zj)) =ilog(EzjQj(zj)(p(xi,zj;θ)Qj(zj)))

由於log函式是凹函式,有f(E(x))E(f(x)),則上式可化為:

L(θ)ijQj(zj)logp(xi,zj;θ)Qj(zj)
p(xi,zj;θ)Qj(zj)=c(常數)時,取等號。

因此以當前點構造的下界為:

p(xi,zj;θ)Qj(zj)=c
因為zj的分佈為Qj,同時他們的概率和應為1。
jQj(zj)=1
所以,可得:
jp(xi,zj;θ)c=1