[機器學習]機器學習筆記整理09- 基於SVM影象識別
阿新 • • 發佈:2018-12-30
前言
前面介紹了SVM的基本概念和一般操作步驟,若如不理解請參考:
[機器學習]機器學習筆記整理08- SVM演算法原理及實現
下面來介紹一下,利用SVM進行影象識別.
影象識別
PCA降維
PCA 主要 用於資料降維,對於一系列例子的特徵組成的多維向量,多維向量裡的某些元素本身沒有區分性,比如某個元素在所有的例子中都為1,或者與1差距不大,那麼這個元素本身就沒有區分性,用它做特徵來區分,貢獻會非常小。所以我們的目的是找那些變化大的元素,即方差大的那些維,而去除掉那些變化不大的維,從而使特徵留下的都是精品,而且計算量也變小了。
SVM叫做支援向量機,之前的部落格有所涉及有。SVM方法是通過一個非線性對映p,把樣本空間對映到一個高維乃至無窮維的特徵空間中,使得在原來的樣本空間中非線性可分的問題轉化為在特徵空間中的線性可分的問題。
實驗資料採集
再看看實驗採用的資料集,資料集叫做Labeled Faces in the Wild。大約200M左右。整個有10000張圖片,5700個人,1700人有兩張或以上的照片。相關的網址:http://vis-www.cs.umass.edu/lfw/index.html
具體實現
1.匯入模組
from __future__ import print_function
from time import time
import logging
import matplotlib.pyplot as plt
from sklearn.cross_validation import train_test_split
from sklearn.datasets import fetch_lfw_people
from sklearn.grid_search import GridSearchCV
from sklearn.metrics import classification_report
from sklearn.metrics import confusion_matrix
from sklearn.decomposition import RandomizedPCA
from sklearn.svm import SVC
# 顯示進度和錯誤資訊
logging.basicConfig(level=logging.INFO, format='%(asctime)s %(message)s' )
###############################################################################
lfw_people = fetch_lfw_people(min_faces_per_person=70, resize=0.4)
# 轉換為陣列
n_samples, h, w = lfw_people.images.shape
# 對於機器學習,我們直接使用2個數據(由於該模型忽略了相對畫素位置資訊)
X = lfw_people.data
n_features = X.shape[1]
# 預測的標籤是該人的身份
y = lfw_people.target
target_names = lfw_people.target_names
n_classes = target_names.shape[0]
print("Total dataset size:")
print("n_samples: %d" % n_samples)
print("n_features: %d" % n_features)
print("n_classes: %d" % n_classes)
###############################################################################
# 分為訓練集和使用分層k折的測試集
# 分為培訓和測試集
X_train, X_test, y_train, y_test = train_test_split(
X, y, test_size=0.25)
###############################################################################
# 在面部資料集上計算PCA(特徵面)(被視為未標記的資料集):無監督特徵提取/維數降低
n_components = 150
print("Extracting the top %d eigenfaces from %d faces"
% (n_components, X_train.shape[0]))
t0 = time()
pca = RandomizedPCA(n_components=n_components, whiten=True).fit(X_train)
print("done in %0.3fs" % (time() - t0))
eigenfaces = pca.components_.reshape((n_components, h, w))
print("Projecting the input data on the eigenfaces orthonormal basis")
t0 = time()
X_train_pca = pca.transform(X_train)
X_test_pca = pca.transform(X_test)
print("done in %0.3fs" % (time() - t0))
###############################################################################
# 訓練SVM分類模型
print("Fitting the classifier to the training set")
t0 = time()
param_grid = {'C': [1e3, 5e3, 1e4, 5e4, 1e5],
'gamma': [0.0001, 0.0005, 0.001, 0.005, 0.01, 0.1], }
clf = GridSearchCV(SVC(kernel='rbf', class_weight='auto'), param_grid)
clf = clf.fit(X_train_pca, y_train)
print("done in %0.3fs" % (time() - t0))
print("Best estimator found by grid search:")
print(clf.best_estimator_)
###############################################################################
# 測試集上的模型質量的定量評估
print("Predicting people's names on the test set")
t0 = time()
y_pred = clf.predict(X_test_pca)
print("done in %0.3fs" % (time() - t0))
print(classification_report(y_test, y_pred, target_names=target_names))
print(confusion_matrix(y_test, y_pred, labels=range(n_classes)))
###############################################################################
# 使用matplotlib進行定性評估
def plot_gallery(images, titles, h, w, n_row=3, n_col=4):
"""Helper function to plot a gallery of portraits"""
plt.figure(figsize=(1.8 * n_col, 2.4 * n_row))
plt.subplots_adjust(bottom=0, left=.01, right=.99, top=.90, hspace=.35)
for i in range(n_row * n_col):
plt.subplot(n_row, n_col, i + 1)
plt.imshow(images[i].reshape((h, w)), cmap=plt.cm.gray)
plt.title(titles[i], size=12)
plt.xticks(())
plt.yticks(())
# 在測試集的一部分繪製預測結果
def title(y_pred, y_test, target_names, i):
pred_name = target_names[y_pred[i]].rsplit(' ', 1)[-1]
true_name = target_names[y_test[i]].rsplit(' ', 1)[-1]
return 'predicted: %s\ntrue: %s' % (pred_name, true_name)
prediction_titles = [title(y_pred, y_test, target_names, i)
for i in range(y_pred.shape[0])]
plot_gallery(X_test, prediction_titles, h, w)
# 繪製最有意義的特徵面的畫廊
eigenface_titles = ["eigenface %d" % i for i in range(eigenfaces.shape[0])]
plot_gallery(eigenfaces, eigenface_titles, h, w)
plt.show()