線性迴歸與貝葉斯推理——漫談機器學習
阿新 • • 發佈:2019-01-07
1. 從觀察出發——迴歸問題
在統計學中,我們認為一個變數是服從某種理想分佈的,稱為理想變數。而為了獲得理想變數的值,我們需要去觀察這個世界,並得到觀察資料,稱為觀察變數。觀察變數與理想變數之間的函式關係被稱為觀察模型。
設觀察資料為
其中
上面的觀察模型可以引出兩個問題:
1. 已知理想和觀察變數
2. 已知觀察變數 i
迴歸的概念非常寬泛,它泛指研究一組變數和另一組變數之間的關係的統計分析方法。考慮變數和引數之間的對稱性,不難發現,引數估計也是迴歸問題。
2. 引數估計——也是迴歸問題
在統計學習中,引數估計是一個學習樣本所蘊含資訊的過程。而學習的結果,就是觀察模型(包括最優引數)。
2.1 從物理直觀出發
先考慮模型(1)下如何求解引數
寫成矩陣形式,就是
其中矩陣
其中
值得注意的是,當
2.2 從貝葉斯推理的角度看
上面是從物理直觀出發求解引數估計問題,下面我們從貝葉斯推理的角度看同樣的問題。
貝葉斯推理的核心是三個概念:
- 先驗。對應前面的觀察資料
X (注意:不同於第1、3節先驗的概念)。 - 條件概率。對應觀察模型。
- 後驗(posterior)。對應理想資料
y 。
貝葉斯三要素與前面說的觀察變數、觀察模型、理想變數是一致的。但是觀察模型是概率密度函式(p.d.f.)的形式:
這是一個略去了常數係數的多元高斯分佈的概率密度函式。也就是說,貝葉斯理論假設觀察變數