Lesson2 Liner Regression with multiple variables(多變數的線性迴歸)
阿新 • • 發佈:2018-12-14
Multiple Features(多特徵)
是指訓練集中第i個訓練樣本的第j個特徵(標量);是訓練集中第i個輸入特徵(向量)。
Example:
Hypothesis:
以前:
現在:
定義
代價函式(cost function):
梯隊下降法(Gradient descent):
以前:(n=1)
現在:(n>=1) -->多元線性迴歸的梯度下降演算法
特徵縮放(feature scaling):
idea(實現思想):使不同特徵縮小至相近範圍
讓每一個特徵縮小至統一相近範圍:一般減去平均值然後除以標準差或最大最小值之差(均值歸一化)
均值歸一化(mean normalization):
用替代,這樣特徵值就具有為0的平均值(tips:不將此實施在)
學習率:
在選擇取值:...,0.001,0.003,0.01,0.03,0.1,0.3,1,...
Polynomial regression(多項式迴歸):
tips:注意歸一化
normal equation(正規方程):
這是一個求解的解析演算法,對比梯度下降法,可以一次性求解的最優值。
注意不一定可逆(奇異或退化矩陣),matlab/octave使用pvin()函式可能求解的是偽逆矩陣。
對不可逆情況的處理:找到無關的多餘特徵並刪除,這將解決不可逆問題。