【sklearn】SVM用於分類(SVC)
API說明:
API使用:(SVC)(Support Vector Classification.)
from sklearn import svm X = [[0, 0], [1, 1]] y = [0, 1] clf = svm.SVC() clf.fit(X, y) #預測 clf.predict([[2., 2.]])
# 獲得支援向量 clf.support_vectors_ # 獲得支援向量的索引get indices of support vectors clf.support_ # 為每一個類別獲得支援向量的數量 clf.n_support_
用於多分類:
X = [[0], [1], [2], [3]] Y = [0, 1, 2, 3] clf = svm.SVC(decision_function_shape='ovo')#一對一 clf.fit(X, Y) dec = clf.decision_function([[1]]) dec.shape[1] # 4 classes: 4*3/2 = 6 clf.decision_function_shape = "ovr"#一對多 dec = clf.decision_function([[1]]) dec.shape[1] # 4 classes
引數說明:
https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
class
sklearn.svm.
SVC
(C=1.0, kernel=’rbf’, degree=3, gamma=’auto_deprecated’, coef0=0.0, shrinking=True, probability=False, tol=0.001,cache_size=200, class_weight=None, verbose=False
, max_iter=-1, decision_function_shape=’ovr’, random_state=None)引數:
- C:懲罰項,預設1.0
- kernel:核函式,預設‘rbf’。可自定義,根據其預先計算核心矩陣【n_samples, n_samples】
- degree:多項式核函式的次數('poly')。被所有其他核心忽略。
- gamma :'rbf','poly'和'sigmoid'的核係數。當前預設值為'auto',它使用1 / n_features,如果
gamma='scale'
傳遞,則使用1 /(n_features * X.std())作為gamma的值。當前預設的gamma''auto'將在版本0.22中更改為'scale'。- coef0 :預設0.0.核函式中的獨立項。它只在'poly'和'sigmoid'中很重要。
- shrinking:預設True。是否使用收縮啟發式。
- probability:預設False。是否啟用概率估計。必須在呼叫fit之前啟用它,並且會減慢該方法的速度。
- tol :預設0.001.容忍停止標準。
- cache_size:指定核心快取的大小(MB)
- class_weight :{dict,'balanced'}。將類i的引數C設定為SVC的class_weight [i] * C. 如果沒有給出,所有類都應該有一個權重。“平衡”模式使用y的值自動調整與輸入資料中的類頻率成反比的權重
n_samples / (n_classes * np.bincount(y))
- verbose:預設False。啟用詳細輸出。請注意,此設定利用libsvm中的每程序執行時設定,如果啟用,則可能無法在多執行緒上下文中正常執行。
- max_iter :迭代的硬限制。預設-1(無限制)
- decision_function_shape :預設’ovr‘。
- random_state :預設 無。偽隨機數生成器的種子在對資料進行混洗以用於概率估計時使用。如果是int,則random_state是隨機數生成器使用的種子; 如果是RandomState例項,則random_state是隨機數生成器; 如果沒有,隨機數生成器所使用的RandomState例項np.random。
屬性:
- support_ :支援向量索引。
- support_vectors_ :支援向量。
- n_support_ :每一類的支援向量數目
- dual_coef_ :決策函式中支援向量的係數
- coef_ :賦予特徵的權重(原始問題中的係數)。這僅適用於線性核心。
- intercept_ :決策函式中的常量。
例項:
def make_meshgrid(x, y, h=.02): """Create a mesh of points to plot in Parameters ---------- x: data to base x-axis meshgrid on y: data to base y-axis meshgrid on h: stepsize for meshgrid, optional Returns ------- xx, yy : ndarray """ x_min, x_max = x.min() - 1, x.max() + 1 y_min, y_max = y.min() - 1, y.max() + 1 xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h)) return xx, yy
np.meshgrid:meshgrid函式將兩個輸入的陣列x和y進行擴充套件,前一個的擴充套件與後一個有關,後一個的擴充套件與前一個有關,前一個是豎向擴充套件,後一個是橫向擴充套件。
def plot_contours(ax, clf, xx, yy, **params): """Plot the decision boundaries for a classifier. Parameters ---------- ax: matplotlib axes object clf: a classifier xx: meshgrid ndarray yy: meshgrid ndarray params: dictionary of params to pass to contourf, optional """ Z = clf.predict(np.c_[xx.ravel(), yy.ravel()]) Z = Z.reshape(xx.shape) out = ax.contourf(xx, yy, Z, **params) return out
np.r_是按列連線兩個矩陣,就是把兩矩陣上下相加,要求列數相等,類似於pandas中的concat()。
np.c_是按行連線兩個矩陣,就是把兩矩陣左右相加,要求行數相等,類似於pandas中的merge()。
ax.contourf(xx, yy, Z, **params):contourf:將不會再繪製等高線(顯然不同的顏色分界就表示等高線本身),
import numpy as np import matplotlib.pyplot as plt from sklearn import svm, datasets # import some data to play with iris = datasets.load_iris() # Take the first two features. We could avoid this by using a two-dim dataset X = iris.data[:, :2] y = iris.target # we create an instance of SVM and fit out data. We do not scale our # data since we want to plot the support vectors C = 1.0 # SVM regularization parameter models = (svm.SVC(kernel='linear', C=C), svm.LinearSVC(C=C), svm.SVC(kernel='rbf', gamma=0.7, C=C), svm.SVC(kernel='poly', degree=3, C=C)) models = (clf.fit(X, y) for clf in models) # title for the plots titles = ('SVC with linear kernel', 'LinearSVC (linear kernel)', 'SVC with RBF kernel', 'SVC with polynomial (degree 3) kernel')
# Set-up 2x2 grid for plotting. fig, sub = plt.subplots(2, 2) plt.subplots_adjust(wspace=0.4, hspace=0.4) X0, X1 = X[:, 0], X[:, 1] xx, yy = make_meshgrid(X0, X1) for clf, title, ax in zip(models, titles, sub.flatten()): plot_contours(ax, clf, xx, yy, cmap=plt.cm.coolwarm, alpha=0.8) ax.scatter(X0, X1, c=y, cmap=plt.cm.coolwarm, s=20, edgecolors='k') ax.set_xlim(xx.min(), xx.max()) ax.set_ylim(yy.min(), yy.max()) ax.set_xlabel('Sepal length') ax.set_ylabel('Sepal width') ax.set_xticks(()) ax.set_yticks(()) ax.set_title(title) plt.show()
plt.subplots_adjust(wspace=0.4, hspace=0.4):調整子圖間距。(還可以調節上下左右)
zip(models, titles, sub.flatten()):
zip() 函式用於將可迭代的物件作為引數,將物件中對應的元素打包成一個個元組,然後返回由這些元組組成的列表。
sub.flatten():
將陣列拉直成一維。
cmap=plt.cm.coolwarm
colormap設定。