7.【基礎】波士頓房價預測--LinearRegression
阿新 • • 發佈:2019-02-20
本文所有實現程式碼均來自《Python機器學習及實戰》
#-*- coding:UTF-8 -*-
#第一步:讀取波士頓房價資料
from sklearn.datasets import load_boston
boston = load_boston()
print boston.DESCR
#從輸出結果來看,該資料共有506條波士頓房價的資料,每條資料包括對指定房屋的13項數值型特徵和目標房價
#此外,該資料中沒有缺失的屬性/特徵值,更加方便了後續的分析
#第二步:波士頓房價資料分割
from sklearn.cross_validation import train_test_split
import numpy as np
X_train,X_test,y_train,y_test = train_test_split(boston.data,boston.target,test_size=0.25,random_state=33)
#分析迴歸目標值的差異
print 'The max target value is ',np.max(boston.target)
print 'The min target value is ',np.min(boston.target)
print 'The average target value is ',np.mean(boston.target)
#第三步:訓練資料和測試資料標準化處理
from sklearn.preprocessing import StandardScaler
#分別初始化對特徵值和目標值的標準化器
ss_X = StandardScaler()
ss_y = StandardScaler()
#訓練資料都是數值型,所以要標準化處理
X_train = ss_X.fit_transform(X_train)
X_test = ss_X.transform(X_test)
#目標資料(房價預測值)也是數值型,所以也要標準化處理
#說明一下:fit_transform與transform都要求操作2D資料,而此時的y_train與y_test都是1D的,因此需要呼叫reshape(-1,1),例如:[1,2,3]變成[[1],[2],[3]]
y_train = ss_y.fit_transform(y_train.reshape(-1,1))
y_test = ss_y.transform(y_test.reshape(-1,1))
#第四步:使用線性迴歸模型LinearRegression和SGDRegressor分別對美國房價進行預測
#不要搞混了,這裡用的是LinearRegression而不是線性分類的LogisticRegression
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
lr.fit(X_train,y_train)
lr_y_predict = lr.predict(X_test)
from sklearn.linear_model import SGDRegressor
sgdr = SGDRegressor()
sgdr.fit(X_train,y_train)
sgdr_y_predict = sgdr.predict(X_test)
#第五步:效能測評
#主要是判斷預測值與真實值之間的差距,比較直觀的評價指標有
#平均絕對值誤差MAE(mean absolute error)
#均方誤差MSE(mean squared error)
#R-squared評價函式
#使用LinearRegression模型自帶的評估模組,並輸出評估結果
print 'the value of default measurement of LR:',lr.score(X_test,y_test)
from sklearn.metrics import r2_score,mean_squared_error,mean_absolute_error
print 'the value of R-squared of LR is',r2_score(y_test,lr_y_predict)
#可以使用標準化器中的inverse_transform函式還原轉換前的真實值
print 'the MSE of LR is',mean_squared_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(lr_y_predict))
print 'the MAE of LR is',mean_absolute_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(lr_y_predict))
#使用SGDRegressor自帶的評估模組,並輸出評估結果
print 'the value of default measurement of SGDR:',sgdr.score(X_test,y_test)
from sklearn.metrics import r2_score,mean_squared_error,mean_absolute_error
print 'the value of R-squared of SGDR is',r2_score(y_test,sgdr_y_predict)
print 'the MSE of SGDR is',mean_squared_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(sgdr_y_predict))
print 'the MAE of SGDR is',mean_absolute_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(sgdr_y_predict))
#總結:
#從輸出結果來看,迴歸模型自帶的評估結果與r2_score的值是一樣的,推薦使用第一種方式
#SGDRegressor在效能上表現略遜於LinearRegression,前者是隨機梯度下降的方式估計引數,後者是精確解析引數
#在資料量十分龐大(10W+)的時候,推薦使用SGDRegressor