【深度學習】線性迴歸(一)原理及python從0開始實現
阿新 • • 發佈:2018-12-15
文章目錄
線性迴歸
線性模型(linear model)通過屬性的線性組合來進行預測,形如
. 線性迴歸可以看成是單層的神經網路,包含了機器學習中模型的最基本的思想。
當定資料集
,線性迴歸(linear regression)試圖得到一個線性函式來預測實值輸出,如下所示:
其中
,
是一個矩陣,
實際上就是預測物件的屬性個數。 當
和
確定之後,線性模型就確定了。
單個屬性的情況
一種最簡單的場景就是需要預測的物件僅有一個屬性來描述,上述資料集退化為: . 此時線性迴歸試圖學習到一個函式: 問題的關鍵在於如何確定 和 的值!
在迴歸任務中,通常使用均方誤差(mean squared error)來衡量
和
的差別,即我們通常所說的損失函式。我們需要得到當
最小時,
和
的值,我們記為:
很容易可以發現,均方誤差在幾何上對應的是歐式距離,具有非常良好的幾何意義。
觀察上述問題,可以很容易地聯想到“利用直線擬合平面上若干點”的問題,由此,可以採用“最小二乘法(least square method)”,其試圖得到一條直線使得所有的點到直線的歐式距離之和最小,這裡稱之為線性迴歸模型的最小二乘引數估計。
將 和 看成未知數,記