機器學習技法筆記總結(一)SVM系列總結及實戰
機器學技法筆記總結(一)SVM系列總結及實戰
1、原理總結
在機器學習課程的第1-6課,主要學習了SVM支援向量機。 SVM是一種二類分類模型。它的基本模型是在特徵空間中尋找間隔最大化的分離超平面的線性分類器。 (1)當訓練樣本線性可分時,通過硬間隔最大化,學習一個線性分類器,即線性可分支援向量機; 這也就是機器學習技法筆記1中學習的內容。機器學習技法筆記1:線性SVM,在這篇筆記的第1.1節中,首先從直觀上說明了最大間隔超平面的好處,也就是容忍噪聲性比較好,不易發生過擬合。接著在第1.2節中,將第一節中的描述通過公式進行了描述,得到了SVM的原始形式。在第1.3節中,採用二次規劃的方法說明可以對SVM進行求解。在第1.4節
後面的兩部分內容機器學習技法筆記5:kernel 邏輯迴歸和機器學習技法筆記6:SVR 中,是對SVM思想的一些擴充。在kernel 邏輯迴歸部分,首先第5-1節對比了soft-margin SVM和L2正則化的loss function,發現兩者形式相同,那麼large-margin也就對應於正則化,起到了防止過擬合的作用。第5-2節中對比了SVM和logistics regression的loss function,發現兩者相似,第5-3節中,將SVM的結果應用在Soft Binary Classification中,得到是正類的概率值,也就是將SVM得到的結果看成非線性變換得到的分數,代入logistics regression的式子中,第5-4節
2、sklearn.svm實戰
- 最簡單的線性SVM 裡面的繪圖函式直接用即可,在這裡隨機生成了50個樣本點,樣本點的分佈為兩個簇,採用線性SVM對其進行分類
import numpy as np
import matplotlib.pyplot as plt
from scipy import stats
# 資料點的生成器
from sklearn.datasets.samples_generator import make_blobs
from sklearn.svm import SVC # "Support vector classifier"
# 繪圖函式,直接用即可
def plot_svc_decision_function(model, ax=None, plot_support=True):
"""Plot the decision function for a 2D SVC"""
if ax is None:
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
# create grid to evaluate model
x = np.linspace(xlim[0], xlim[1], 30)
y = np.linspace(ylim[0], ylim[1], 30)
Y, X = np.meshgrid(y, x)
xy = np.vstack([X.ravel(), Y.ravel()]).T
P = model.decision_function(xy).reshape(X.shape)
# plot decision boundary and margins
ax.contour(X, Y, P, colors='k',
levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.set_xlim(xlim)
ax.set_ylim(ylim)
if __name__ == '__main__':
#隨機生成50個點,有兩簇,cluster_std表示簇的離散程度
X, y = make_blobs(n_samples=50, centers=2,
random_state=0, cluster_std=0.60)
model = SVC(kernel='linear')
model.fit(X, y)
plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap='autumn')
plot_svc_decision_function(model)
plt.show()
結果: 2. 當資料是非線性的時候,線性SVM無法分割,應該採用RBF 其中,引數C特別大的時候,分類要求很嚴格,不能有分類錯誤,C比較小的時候,可以容忍一些錯誤
import numpy as np
import matplotlib.pyplot as plt
from scipy import stats
# 資料點的生成器
from sklearn.datasets.samples_generator import make_blobs
from sklearn.svm import SVC # "Support vector classifier"
from sklearn.datasets.samples_generator import make_circles
# 繪圖函式,直接用即可
def plot_svc_decision_function(model, ax=None, plot_support=True):
"""Plot the decision function for a 2D SVC"""
if ax is None:
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
# create grid to evaluate model
x = np.linspace(xlim[0], xlim[1], 30)
y = np.linspace(ylim[0], ylim[1], 30)
Y, X = np.meshgrid(y, x)
xy = np.vstack([X.ravel(), Y.ravel()]).T
P = model.decision_function(xy).reshape(X.shape)
# plot decision boundary and margins
ax.contour(X, Y, P, colors='k',
levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.set_xlim(xlim)
ax.set_ylim(ylim)
if __name__ == '__main__':
#隨機生成100個點
X, y = make_circles(100, factor=.1, noise=.1)
model = SVC(kernel='rbf', C=1E6)
model.fit(X, y)
plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap='autumn')
plot_svc_decision_function(model)
plt.show()
結果:
- soft-margin的SVM 通過選擇不同的引數C可以控制分類錯誤的大小。引數C無窮大的時候,分類要求很嚴格,不能有分類錯誤,C比較小的時候,可以容忍一些錯誤。在機器學習技法筆記4中,機器學習技法筆記4:soft-margin SVM中,詳細介紹了這部分內容。 (1)C=0.1時
import numpy as np
import matplotlib.pyplot as plt
from scipy import stats
# 資料點的生成器
from sklearn.datasets.samples_generator import make_blobs
from sklearn.svm import SVC # "Support vector classifier"
from sklearn.datasets.samples_generator import make_circles
# 繪圖函式,直接用即可
def plot_svc_decision_function(model, ax=None, plot_support=True):
"""Plot the decision function for a 2D SVC"""
if ax is None:
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
# create grid to evaluate model
x = np.linspace(xlim[0], xlim[1], 30)
y = np.linspace(ylim[0], ylim[1], 30)
Y, X = np.meshgrid(y, x)
xy = np.vstack([X.ravel(), Y.ravel()]).T
P = model.decision_function(xy).reshape(X.shape)
# plot decision boundary and margins
ax.contour(X, Y, P, colors='k',
levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.set_xlim(xlim)
ax.set_ylim(ylim)
if __name__ == '__main__':
#隨機生成100個點
X, y = make_blobs(n_samples=100, centers=2,
random_state=0, cluster_std=0.9)
model = SVC(kernel='linear', C=0.1)
model.fit(X, y)
plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap='autumn')
plot_svc_decision_function(model)
plt.show()
結果: 存在錯誤點,且margin比較大 (2)C=10時,也就是將上面程式碼中C變為10 錯誤點變少,margin比較小
- RBF中的gamma引數
import numpy as np
import matplotlib.pyplot as plt
from scipy import stats
# 資料點的生成器
from sklearn.datasets.samples_generator import make_blobs
from sklearn.svm import SVC # "Support vector classifier"
from sklearn.datasets.samples_generator import make_circles
# 繪圖函式,直接用即可
def plot_svc_decision_function(model, ax=None, plot_support=True):
"""Plot the decision function for a 2D SVC"""
if ax is None:
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
# create grid to evaluate model
x = np.linspace(xlim[0], xlim[1], 30)
y = np.linspace(ylim[0], ylim[1], 30)
Y, X = np.meshgrid(y, x)
xy = np.vstack([X.ravel(), Y.ravel()]).T
P = model.decision_function(xy).reshape(X.shape)
# plot decision boundary and margins
ax.contour(X, Y, P, colors='k',
levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.set_xlim(xlim)
ax.set_ylim(ylim)
if __name__ == '__main__':
#隨機生成100個點
X, y = make_blobs(n_samples=100, centers=2,
random_state=0, cluster_std=0.9)
fig, ax = plt.subplots(1, 2, figsize=(16, 6))
for axi, gamma in zip(ax, [10.0, 0.1]):
model = SVC(kernel='rbf', gamma=gamma)
model.fit(X, y)
axi.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap='autumn')
plot_svc_decision_function(model,axi)
plt.show()
結果: 左圖的gamma=10,右圖gamma=0.1,可見gamma過大易出現過擬合現象。 這在機器學習技法3:kernel SVM中學習過
- 人臉識別例子
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import fetch_lfw_people
from sklearn.svm import SVC
from sklearn.decomposition import PCA
from sklearn.pipeline import make_pipeline
from sklearn.model_selection import train_test_split
from sklearn.model_selection import GridSearchCV
from sklearn.metrics import classification_report
import seaborn as sns
from sklearn.metrics import confusion_matrix
# 繪圖函式,直接用即可
def plot_svc_decision_function(model, ax=None, plot_support=True):
"""Plot the decision function for a 2D SVC"""
if ax is None:
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
# create grid to evaluate model
x = np.linspace(xlim[0], xlim[1], 30)
y = np.linspace(ylim[0], ylim[1], 30)
Y, X = np.meshgrid(y, x)
xy = np.vstack([X.ravel(), Y.ravel()]).T
P = model.decision_function(xy).reshape(X.shape)
# plot decision boundary and margins
ax.contour(X, Y, P, colors='k',
levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.set_xlim(xlim)
ax.set_ylim(ylim)
if __name__ == '__main__':
faces = fetch_lfw_people(min_faces_per_person=60)
# 由於特徵維數過大,可以先採用PCA進行降維,將其降到150維
pca = PCA(n_components=150, whiten=True, random_state=42)
# 對兩個類別按照樣本數目設定懲罰項
svc = SVC(kernel='rbf', class_weight='balanced')
model = make_pipeline(pca, svc)
# 劃分訓練集和測試集
Xtrain, Xtest, ytrain, ytest = train_test_split(faces.data, faces.target,
random_state=40)
# 使用GridSearchCV選擇引數
param_grid = {'svc__C': [1, 5, 10],
'svc__gamma': [0.0001, 0.0005, 0.001]}
grid = GridSearchCV(model, param_grid)
grid.fit(Xtrain, ytrain)
print("最優引數為:",grid.best_params_)
model = grid.best_estimator_
yfit = model.predict(Xtest)
# 顯示出一部分預測結果,紅色部分為預測錯誤的
fig, ax = plt.subplots(4, 6)
for i, axi in enumerate(ax.flat):
axi.imshow(Xtest[i].reshape(62, 47), cmap='bone')
axi.set(xticks=[], yticks=[])
axi.set_ylabel(faces.target_names[yfit[i]].split()[-1],
color='black' if yfit[i] == ytest[i] else 'red')
fig.suptitle('Predicted Names; Incorrect Labels in Red', size=14)
# 給出預測值的相關結果
print(classification_report(ytest, yfit,
target_names=faces.target_names))
plt.show()
# 給出混淆矩陣,並作出熱度圖,對角線上元素表示了預測正確的概率
mat = confusion_matrix(ytest, yfit)
sns.heatmap(mat.T, square=True, annot=True, fmt='d', cbar=False,
xticklabels=faces.target_names,
yticklabels=faces.target_names)
plt.xlabel('true label')
plt.ylabel('predicted label')
plt.show()
結果:
最優引數為: {'svc__C': 5, 'svc__gamma': 0.0005}
precision recall f1-score support
Ariel Sharon 0.71 0.75 0.73 20
Colin Powell 0.76 0.77 0.76 44
Donald Rumsfeld 0.76 0.73 0.75 30
George W Bush 0.92 0.92 0.92 148
Gerhard Schroeder 0.76 0.79 0.78 24
Junichiro Koizumi 1.00 0.82 0.90 11
Tony Blair 0.88 0.88 0.88 24
avg / total 0.85 0.85 0.85 301