1. 程式人生 > >sklearn的svc引數總結及cross_validation

sklearn的svc引數總結及cross_validation

1、svc引數的說明

SVC引數解釋
(1)C: 目標函式的懲罰係數C,用來平衡分類間隔margin和錯分樣本的,default C = 1.0;
(2)kernel:引數選擇有RBF, Linear, Poly, Sigmoid, 預設的是"RBF";
(3)degree:if you choose 'Poly' in param 2, this is effective, degree決定了多項式的最高次冪;
(4)gamma:核函式的係數('Poly', 'RBF' and 'Sigmoid'), 預設是gamma = 1 / n_features;
(5)coef0:核函式中的獨立項,'RBF' and 'Poly'有效;
(6)probablity: 可能性估計是否使用(true or false);
(7)shrinking:是否進行啟發式;
(8)tol(default = 1e - 3): svm結束標準的精度;
(9)cache_size: 制定訓練所需要的記憶體(以MB為單位);
(10)class_weight: 每個類所佔據的權重,不同的類設定不同的懲罰引數C, 預設的話自適應;
(11)verbose: 跟多執行緒有關,不大明白啥意思具體;
(12)max_iter: 最大迭代次數,default = 1, if max_iter = -1, no limited;
(13)decision_function_shape : ‘ovo’ 一對一, ‘ovr’ 多對多  or None 無, default=None
(14)random_state :用於概率估計的資料重排時的偽隨機數生成器的種子。
2、交叉驗證

from sklearn.cross_validation import cross_val_score

metric = cross_val_score(clf,X,y,cv=5,scoring=‘ ‘).mean()

[‘accuracy‘, ‘adjusted_rand_score‘, ‘average_precision‘, ‘f1‘, ‘f1_macro‘, ‘f1_micro‘, ‘f1_samples‘, ‘f1_weighted‘, ‘log_loss‘, ‘mean_absolute_error‘, ‘mean_squared_error‘, ‘median_absolute_error‘, ‘precision‘, ‘precision_macro‘, ‘precision_micro‘, ‘precision_samples‘, ‘precision_weighted‘, ‘r2‘, ‘recall‘, ‘recall_macro‘, ‘recall_micro‘, ‘recall_samples‘, ‘recall_weighted‘, ‘roc_auc‘]


模型評估(預測的質量):存在三種方式來評估預測結果的質量 1、Estimator score method:每個估計模型都有自己的評價方式,可以直接使用 2、Scoring parameter:模型評價工具使用cross-validation(cross_validation.cross_val_score和grid_search.GridSearch) 3、Metric functions: 實現功能評估為特定目的的功能 交叉驗證(cross-validation) 1)切分資料:使用train_test_split函式很容易的實現隨機的切分形成training和test資料集。 x_train,x_test,y_train,y_test=cross_validation.train_test_split(iris.data,iris.target,test_size=0.4,random_state=0) clf.svm.SVC(kernel='linear',C=1).fit(x_train,y_train) clf.score(x_test,y_test) 2)cv:最簡單的方式是使用函式cross_val_score,當cv為數字時,預設採用的是KFold或者stratifiedKFold clf=svm.SVC(kernel='linear',C=1) scores=cross_validation.cross_val_score(clf,iris.data,iris.target,cv=5) scores==>得到array([1. ..., 0.96..., 0.9 ..., 0.96..., 1. ]) 平均分數和標準偏差估計分數:scores.mean()  scores.std() 上面的方式cv的每次迭代都是計算的score,我們可以通過加入scoring引數來計算不同的指標 from sklearn import metrics cross_validation.cross_val_score(clf,iris.data,iris.target,cv=5,scoring='f1') ==>得到array([ 1. ..., 0.96..., 0.89..., 0.96..., 1. ])
注:scoring的預設取值以及對應的函式名稱  Classification  Clustering  Regression