決策樹簡介
阿新 • • 發佈:2020-08-23
決策樹基本概念及優缺點
決策樹(Decision Tree)是在已知各種情況發生概率的基礎上,通過構成決策樹來求取淨現值的期望值大於等於零的概率,評價專案風險,判斷其可行性的決策分析方法,是直觀運用概率分析的一種圖解法。由於這種決策分支畫成圖形很像一棵樹的枝幹,故稱決策樹。
決策樹的主要優點:
- 具有很好的解釋性,模型可以生成可以理解的規則。
- 可以發現特徵的重要程度。
- 模型的計算複雜度較低。
決策樹的主要缺點:
- 模型容易過擬合,需要採用減枝技術處理。
- 不能很好利用連續型特徵。
- 預測能力有限,無法達到其他強監督模型效果。
- 方差較高,資料分佈的輕微改變很容易造成樹結構完全不同。
基於企鵝資料集的決策樹例項
- Step1:函式庫匯入及資料讀取
## 基礎函式庫 import numpy as np import pandas as pd ## 繪圖函式庫 import matplotlib.pyplot as plt import seaborn as sns
本次我們選擇企鵝資料(palmerpenguins)進行方法的嘗試訓練,該資料集一共包含8個變數,其中7個特徵變數,1個目標分類變數。共有150個樣本,目標變數為 企鵝的類別 其都屬於企鵝類的三個亞屬,分別是(Adélie, Chinstrapand Gentoo)。包含的三種種企鵝的七個特徵,分別是所在島嶼,嘴巴長度,嘴巴深度,腳蹼長度,身體體積,性
## 我們利用Pandas自帶的read_csv函式讀取並轉化為DataFrame格式 data = pd.read_csv('penguins_raw.csv') ## 為了方便我們僅選取四個簡單的特徵,有興趣的同學可以研究下其他特徵的含義以及使用方法 data = data[['Species','Culmen Length (mm)','Culmen Depth (mm)','Flipper Length (mm)','Body Mass (g)']]
- Step2:資料資訊簡單檢視
## 利用.info()檢視資料的整體資訊 data.info()
<class 'pandas.core.frame.DataFrame'> RangeIndex: 344 entries, 0 to 343 Data columns (total 5 columns): Species 344 non-null object Culmen Length (mm) 342 non-null float64 Culmen Depth (mm) 342 non-null float64 Flipper Length (mm) 342 non-null float64 Body Mass (g) 342 non-null float64 dtypes: float64(4), object(1) memory usage: 13.6+ KB
## 進行簡單的資料檢視,我們可以利用 .head() 頭部.tail()尾部 data.head()
這裡我們發現數據集中存在NaN,一般的我們認為NaN在資料集中代表了缺失值,可能是資料採集或處理時產生的一種錯誤。這裡我們採用-1將缺失值進行填補,還有其他例如“中位數填補、平均數填補”的缺失值處理方法有興趣的同學也可以嘗試。
data = data.fillna(-1) #用-1填充缺失值
data.tail()
## 其對應的類別標籤為'Adelie Penguin', 'Gentoo penguin', 'Chinstrap penguin'三種不同企鵝的類別。 data['Species'].unique()
array(['Adelie Penguin (Pygoscelis adeliae)', 'Gentoo penguin (Pygoscelis papua)', 'Chinstrap penguin (Pygoscelis antarctica)'], dtype=object)
## 利用value_counts函式檢視每個類別數量 pd.Series(data['Species']).value_counts() Adelie Penguin (Pygoscelis adeliae) 152 Gentoo penguin (Pygoscelis papua) 124 Chinstrap penguin (Pygoscelis antarctica) 68 Name: Species, dtype: int64
## 對於特徵進行一些統計描述 data.describe()
- Step3:視覺化描述
## 特徵與標籤組合的散點視覺化 sns.pairplot(data=data, diag_kind='hist', hue= 'Species') plt.show()
'''為了方便我們將標籤轉化為數字
'Adelie Penguin (Pygoscelis adeliae)' ------0
'Gentoo penguin (Pygoscelis papua)' ------1
'Chinstrap penguin (Pygoscelis antarctica) ------2 '''
def trans(x): if x == data['Species'].unique()[0]: return 0 if x == data['Species'].unique()[1]: return 1 if x == data['Species'].unique()[2]: return 2 data['Species'] = data['Species'].apply(trans)
繪製各屬性下不同種類企鵝的箱線圖,利用箱型圖我們也可以得到不同類別在不同特徵上的分佈差異情況。
for col in data.columns: if col != 'Species': sns.boxplot(x='Species', y=col, saturation=0.5, palette='pastel', data=data) plt.title(col) plt.show()
# 選取其前三個特徵繪製三維散點圖
from mpl_toolkits.mplot3d import Axes3D fig = plt.figure(figsize=(10,8)) ax = fig.add_subplot(111, projection='3d') data_class0 = data[data['Species']==0].values data_class1 = data[data['Species']==1].values data_class2 = data[data['Species']==2].values # 'setosa'(0), 'versicolor'(1), 'virginica'(2) ax.scatter(data_class0[:,0], data_class0[:,1], data_class0[:,2],label=data['Species'].unique()[0]) ax.scatter(data_class1[:,0], data_class1[:,1], data_class1[:,2],label=data['Species'].unique()[1]) ax.scatter(data_class2[:,0], data_class2[:,1], data_class2[:,2],label=data['Species'].unique()[2]) plt.legend() plt.show()
- Step4:利用決策樹模型在二分類上進行訓練和預測
## 為了正確評估模型效能,將資料劃分為訓練集和測試集,並在訓練集上訓練模型,在測試集上驗證模型效能。 from sklearn.model_selection import train_test_split ## 選擇其類別為0和1的樣本 (不包括類別為2的樣本) data_target_part = data[data['Species'].isin([0,1])][['Species']] data_features_part = data[data['Species'].isin([0,1])][['Culmen Length (mm)', 'Culmen Depth (mm)', 'Flipper Length (mm)', 'Body Mass (g)']] ## 測試集大小為20%, 80%/20%分 x_train, x_test, y_train, y_test = train_test_split(data_features_part, data_target_part, test_size = 0.2, random_state = 2020)
## 從sklearn中匯入決策樹模型 from sklearn.tree import DecisionTreeClassifier from sklearn import tree ## 定義 邏輯迴歸模型 clf = DecisionTreeClassifier(criterion='entropy') # 在訓練集上訓練決策樹模型 clf.fit(x_train, y_train) DecisionTreeClassifier(class_weight=None, criterion='entropy', max_depth=None, max_features=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, min_samples_leaf=1, min_samples_split=2, min_weight_fraction_leaf=0.0, presort=False, random_state=None, splitter='best')
## 視覺化 import graphviz dot_data = tree.export_graphviz(clf, out_file=None) graph = graphviz.Source(dot_data) graph.render("penguins"