1. 程式人生 > >(sklearn)線性判別分析LinearDiscriminantAnalysis

(sklearn)線性判別分析LinearDiscriminantAnalysis

class sklearn.discriminant_analysis.LinearDiscriminantAnalysis(solver=’svd’shrinkage=Nonepriors=Nonen_components=Nonestore_covariance=Falsetol=0.0001)

引數:

solver:一個字串,指定了求解最優化問題的演算法,可以為如下的值。
  • 'svd':奇異值分解。對於有大規模特徵的資料,推薦用這種演算法。
  • 'lsqr':最小平方差,可以結合skrinkage引數。
  • 'eigen' :特徵分解演算法,可以結合shrinkage引數。
skrinkage:
字串‘auto’或者浮點數活者None。該引數通常在訓練樣本數量小於特徵數量的場合下使用。該引數只有在solver=lsqr或者eigen下才有意義
  • '字串‘auto’:根據Ledoit-Wolf引理來自動決定shrinkage引數的大小。
  • 'None:不使用shrinkage引數。
  • 浮點數(位於0~1之間):指定shrinkage引數。
priors:一個數組,陣列中的元素依次指定了每個類別的先驗概率。如果為None,則認為每個類的先驗概率都是等可能的。 n_components:一個整數。指定了陣列降維後的維度(該值必須小於n_classes-1)。 store_covariance:
一個布林值。如果為True,則需要額外計算每個類別的協方差矩陣。
warm_start:一個布林值。如果為True,那麼使用前一次訓練結果繼續訓練,否則從頭開始訓練。
tol:一個浮點數。它指定了用於SVD演算法中評判迭代收斂的閾值。
返回值 coef_:權重向量。 intercept:b值。 covariance_:一個數組,依次給出了每個類別煩人協方差矩陣。
means_:一個數組,依次給出了每個類別的均值向量。
xbar_:給出了整體樣本的均值向量。
n_iter_:實際迭代次數。 方法 fix(X,y):訓練模型。 predict(X):用模型進行預測,返回預測值。
score(X,y[,sample_weight]):返回(X,y)上的預測準確率(accuracy)。 predict_log_proba(X):返回一個數組,陣列的元素一次是 X 預測為各個類別的概率的對數值。 
predict_proba(X):
返回一個數組,陣列元素一次是 X 預測為各個類別的概率的概率值。 官方說明:http://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis