1. 程式人生 > 實用技巧 >決策樹簡介

決策樹簡介

決策樹基本概念及優缺點

  決策樹(Decision Tree)是在已知各種情況發生概率的基礎上,通過構成決策樹來求取淨現值的期望值大於等於零的概率,評價專案風險,判斷其可行性的決策分析方法,是直觀運用概率分析的一種圖解法。由於這種決策分支畫成圖形很像一棵樹的枝幹,故稱決策樹。

決策樹的主要優點:

  1. 具有很好的解釋性,模型可以生成可以理解的規則。
  2. 可以發現特徵的重要程度。
  3. 模型的計算複雜度較低。

決策樹的主要缺點:

  1. 模型容易過擬合,需要採用減枝技術處理。
  2. 不能很好利用連續型特徵。
  3. 預測能力有限,無法達到其他強監督模型效果。
  4. 方差較高,資料分佈的輕微改變很容易造成樹結構完全不同。

基於企鵝資料集的決策樹例項

  • Step1:函式庫匯入及資料讀取
## 基礎函式庫
import numpy as np
import pandas as pd
## 繪圖函式庫
import matplotlib.pyplot as plt
import seaborn as sns

  本次我們選擇企鵝資料(palmerpenguins)進行方法的嘗試訓練,該資料集一共包含8個變數,其中7個特徵變數,1個目標分類變數。共有150個樣本,目標變數為 企鵝的類別 其都屬於企鵝類的三個亞屬,分別是(Adélie, Chinstrapand Gentoo)。包含的三種種企鵝的七個特徵,分別是所在島嶼,嘴巴長度,嘴巴深度,腳蹼長度,身體體積,性

別以及年齡。

  

## 我們利用Pandas自帶的read_csv函式讀取並轉化為DataFrame格式
data = pd.read_csv('penguins_raw.csv')

## 為了方便我們僅選取四個簡單的特徵,有興趣的同學可以研究下其他特徵的含義以及使用方法
data = data[['Species','Culmen Length (mm)','Culmen Depth (mm)','Flipper Length (mm)','Body Mass (g)']]
  • Step2:資料資訊簡單檢視
## 利用.info()檢視資料的整體資訊
data.info()

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 344 entries, 0 to 343
Data columns (total 5 columns):
Species                344 non-null object
Culmen Length (mm)     342 non-null float64
Culmen Depth (mm)      342 non-null float64
Flipper Length (mm)    342 non-null float64
Body Mass (g)          342 non-null float64
dtypes: float64(4), object(1)
memory usage: 13.6+ KB
## 進行簡單的資料檢視,我們可以利用 .head() 頭部.tail()尾部
data.head()

  這裡我們發現數據集中存在NaN,一般的我們認為NaN在資料集中代表了缺失值,可能是資料採集或處理時產生的一種錯誤。這裡我們採用-1將缺失值進行填補,還有其他例如“中位數填補、平均數填補”的缺失值處理方法有興趣的同學也可以嘗試。

data = data.fillna(-1)  #用-1填充缺失值
data.tail()
## 其對應的類別標籤為'Adelie Penguin', 'Gentoo penguin', 'Chinstrap penguin'三種不同企鵝的類別。
data['Species'].unique()

array(['Adelie Penguin (Pygoscelis adeliae)',
       'Gentoo penguin (Pygoscelis papua)',
       'Chinstrap penguin (Pygoscelis antarctica)'], dtype=object)
## 利用value_counts函式檢視每個類別數量
pd.Series(data['Species']).value_counts()

Adelie Penguin (Pygoscelis adeliae)          152
Gentoo penguin (Pygoscelis papua)            124
Chinstrap penguin (Pygoscelis antarctica)     68
Name: Species, dtype: int64
## 對於特徵進行一些統計描述
data.describe()

  • Step3:視覺化描述

## 特徵與標籤組合的散點視覺化
sns.pairplot(data=data, diag_kind='hist', hue= 'Species')
plt.show()

'''為了方便我們將標籤轉化為數字
'Adelie Penguin (Pygoscelis adeliae)'  ------0
'Gentoo penguin (Pygoscelis papua)'  ------1
'Chinstrap penguin (Pygoscelis antarctica) ------2 '''
def trans(x):
  if x == data['Species'].unique()[0]:
    return 0
  if x == data['Species'].unique()[1]:
    return 1
  if x == data['Species'].unique()[2]:
    return 2
data['Species'] = data['Species'].apply(trans)

繪製各屬性下不同種類企鵝的箱線圖,利用箱型圖我們也可以得到不同類別在不同特徵上的分佈差異情況。

for col in data.columns:
    if col != 'Species':
        sns.boxplot(x='Species', y=col, saturation=0.5, palette='pastel', data=data)
        plt.title(col)
        plt.show()

# 選取其前三個特徵繪製三維散點圖

from mpl_toolkits.mplot3d import Axes3D
fig = plt.figure(figsize=(10,8))
ax = fig.add_subplot(111, projection='3d')
data_class0 = data[data['Species']==0].values
data_class1 = data[data['Species']==1].values
data_class2 = data[data['Species']==2].values
# 'setosa'(0), 'versicolor'(1), 'virginica'(2)
ax.scatter(data_class0[:,0], data_class0[:,1],
data_class0[:,2],label=data['Species'].unique()[0])
ax.scatter(data_class1[:,0], data_class1[:,1],
data_class1[:,2],label=data['Species'].unique()[1])
ax.scatter(data_class2[:,0], data_class2[:,1],
data_class2[:,2],label=data['Species'].unique()[2])
plt.legend()
plt.show()

  • Step4:利用決策樹模型在二分類上進行訓練和預測

## 為了正確評估模型效能,將資料劃分為訓練集和測試集,並在訓練集上訓練模型,在測試集上驗證模型效能。
from sklearn.model_selection import train_test_split
## 選擇其類別為0和1的樣本 (不包括類別為2的樣本)
data_target_part = data[data['Species'].isin([0,1])][['Species']]
data_features_part = data[data['Species'].isin([0,1])][['Culmen Length (mm)', 'Culmen Depth (mm)', 'Flipper Length (mm)', 'Body Mass (g)']]
## 測試集大小為20%, 80%/20%分
x_train, x_test, y_train, y_test = train_test_split(data_features_part, data_target_part,
test_size = 0.2, random_state = 2020)

## 從sklearn中匯入決策樹模型
from sklearn.tree import DecisionTreeClassifier
from sklearn import tree
## 定義 邏輯迴歸模型
clf = DecisionTreeClassifier(criterion='entropy')
# 在訓練集上訓練決策樹模型
clf.fit(x_train, y_train)
DecisionTreeClassifier(class_weight=None, criterion='entropy', max_depth=None,
max_features=None, max_leaf_nodes=None,
min_impurity_decrease=0.0, min_impurity_split=None,
min_samples_leaf=1, min_samples_split=2,
min_weight_fraction_leaf=0.0, presort=False, random_state=None,
splitter='best')
## 視覺化
import graphviz
dot_data = tree.export_graphviz(clf, out_file=None)
graph = graphviz.Source(dot_data)
graph.render("penguins"