《scikit-learn》樸素貝葉斯
阿新 • • 發佈:2021-02-18
在scikit-learn中,優這麼集中樸素貝葉斯
naive_bayes.BernoulliNB 伯努利分佈下的NB
naive_bayes.GaussianNB 高斯分佈下的NB
naive_bayes.MultinomialNB 多項式分佈下的NB
naive_bayes.ComplementNB 補充NB
一:高斯樸素貝葉斯
通過假設P(xi | Y)是服從於高斯分佈的。它會自動計算某個Y的條件下,某個特徵的的均值和方差,然後代入具體值的話就是得到了具體的條件概率。它適用於連續變數。
# 高斯樸素貝葉斯
import numpy as np
from sklearn.datasets import load_digits
from sklearn.model_selection import train_test_split
# 第一步:載入資料
digits = load_digits()
x, y =digits.data, digits.target
print(x.shape)
print(y.shape)
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=420)
print(x_train. shape)
print(x_test.shape)
print(y_train.shape)
print(y_test.shape)
# 第二步:例項化一個模型
from sklearn.naive_bayes import GaussianNB
gnb = GaussianNB().fit(x_train, y_train)
print(gnb.score(x_test, y_test)) # 檢視分數
print(gnb.predict(x_test)) # 對測試資料進行預測
prob = gnb.predict_proba(x_test)
print(prob.shape) # 返回各個類別下的概率
from sklearn.metrics import confusion_matrix as CM
print(CM(y_true=y_test, y_pred=gnb.predict(x_test)))
二:多項式樸素貝葉斯
在假設概率分佈的時候是多項式分佈,它擅長於分型別變數。
#多項式分佈
import numpy as np
X = np.random.randint(5, size=(6, 100))
y = np.array([1, 2, 3, 4, 5, 6])
from sklearn.naive_bayes import MultinomialNB
clf = MultinomialNB().fit(X, y)
print(clf.predict(X[2:3]))
三:伯努利樸素貝葉斯
假設概率是2分類的,離散變數,且是二類的特徵。
BernoulliNB實現了樸素貝葉斯訓練和分類演算法是根據多元伯努利分佈的分佈資料;例如,可能會有多個特徵,但每一個被假定為一個二進位制值(伯努利、布林)變數。因此,這類要求的樣品被表示為二進位制值的特徵向量;如果交給其他任何型別的資料,一個bernoullinb例項可以進行輸入(取決於二值化引數)
#伯努利分佈
import numpy as np
X = np.random.randint(2, size=(6, 100))
Y = np.array([1, 2, 3, 4, 4, 5])
from sklearn.naive_bayes import BernoulliNB
clf = BernoulliNB()
clf.fit(X, Y)
BernoulliNB(alpha=1.0, binarize=0.0, class_prior=None, fit_prior=True)
print(clf.predict(X[2:3]))