1. 程式人生 > >吳恩達機器學習(第二章)----線性迴歸

吳恩達機器學習(第二章)----線性迴歸

線性迴歸要做的主要包含代價函式梯度下降。

一、基本解釋

線性迴歸的過程其實就是我們在選擇好某個型別的函式之後去不斷的擬合現有的資料,那麼什麼情況下我們這個函式是最符合,最貼近我們這些資料的呢?就是在代價函式的值最小的時候。

二、代價函式

假設要擬合的函式是h(x)=h(x)=\Theta _0x_0+\Theta_1x_1... 

x0固定是1因此第一項表示常數。

\frac1{2m}\sum_{i=1}^{m}{(h(x^i )-y^i)^2}(m為資料的條數)

代價指的就是h(x)與真實的y相差得多少。即求與真實值之間的差別的和的平均值。所以求代價函式的最小值就是求上面式子的最小值。

三、梯度下降 

梯度下降是求代價函式最小值的一種方法。

\Theta_j=\Theta_j-\alpha \frac{ \partial} {\partial \Theta_j}J(\Theta_1...\Theta_n)j=(1..n),α為梯度下降的速率,α越大,下降的幅度就越大(太大會導致無法得到最小值,太小又會收斂的太慢,所以要找合適的值)

J(Θ...Θn)表示的是代價函式。

對每一個θ做這樣的運算。

第一幅為正常收斂,第二幅就是α太大導致無法收斂