1. 程式人生 > 實用技巧 >應對機器學習中類不平衡的10種技巧

應對機器學習中類不平衡的10種技巧

作者|GUEST BLOG
編譯|Flin
來源|analyticsvidhya

總覽

  • 熟悉類失衡

  • 瞭解處理不平衡類的各種技術,例如-

    • 隨機欠取樣
    • 隨機過取樣
    • NearMiss
  • 你可以檢查程式碼的執行在我的GitHub庫在這裡

介紹

當一個類的觀察值高於其他類的觀察值時,則存在類失衡。

示例:檢測信用卡欺詐交易。如下圖所示,欺詐交易大約為400,而非欺詐交易大約為90000。

類不平衡是機器學習中的常見問題,尤其是在分類問題中。不平衡資料可能會長時間妨礙我們的模型準確性。

類不平衡出現在許多領域,包括:

  • 欺詐識別
  • 垃圾郵件過濾
  • 疾病篩查
  • SaaS訂閱流失
  • 廣告點選

類失衡問題

當每個類別中的樣本數量大致相等時,大多數機器學習演算法效果最佳。這是因為大多數演算法都是為了最大化精確度和減少誤差而設計的。

然而,如果資料集不平衡,那麼在這種情況下,僅僅通過預測多數類就可以獲得相當高的準確率,但是無法捕捉少數類,這通常是建立模型的首要目的。

信用卡欺詐檢測示例

假設我們有一個信用卡公司的資料集,我們必須找出信用卡交易是否是欺詐性的。

但是這裡有個陷阱……欺詐交易相對罕見,只有6%的交易是欺詐行為。

現在,在你還沒有開始之前,你是否能想到問題應該如何解決?想象一下,如果你根本不花時間訓練模型。相反,如果你只編寫了一行總是預測“沒有欺詐性交易”的程式碼,該怎麼辦?

def transaction(transaction_data):
    return 'No fradulent transaction'

好吧,你猜怎麼著?你的“解決方案”將具有94%的準確性!

不幸的是,這種準確性令人誤解。

  • 所有這些非欺詐性的交易,你都將擁有100%的準確性。

  • 那些欺詐性的交易,你的準確性為0%。

  • 僅僅因為大多數交易不是欺詐性的(不是因為你的模型很好),你的總體準確性就很高。

這顯然是一個問題,因為許多機器學習演算法都旨在最大程度地提高整體準確性。在本文中,我們將看到處理不平衡資料的不同技術。

資料

我們將在本文中使用信用卡欺詐檢測資料集,你可以從此處找到該資料集。

載入資料後,顯示資料集的前五行。

# check the target variable that is fraudulet and not fradulent transactiondata['Class'].value_counts()# 0 -> non fraudulent
# 1 -> fraudulent

# visualize the target variable
g = sns.countplot(data['Class'])
g.set_xticklabels(['Not Fraud','Fraud'])
plt.show()  

你可以清楚地看到資料集之間存在巨大差異。9000次非欺詐性交易和492次欺詐性交易。

指標陷阱

新開發人員使用者在處理不平衡資料集時遇到的一個主要問題與用於評估其模型的指標有關。使用更簡單的指標,比如準確度得分,可能會產生誤導。在具有高度不平衡類的資料集中,分類器總是在不進行特徵分析的情況下“預測”最常見的類,並且它的準確率很高,顯然不是正確的。

讓我們做這個實驗,使用簡單的XGBClassifier和無特徵工程:

# import linrary
from xgboost import XGBClassifier

xgb_model = XGBClassifier().fit(x_train, y_train)

# predict
xgb_y_predict = xgb_model.predict(x_test)

# accuracy score
xgb_score = accuracy_score(xgb_y_predict, y_test)

print('Accuracy score is:', xbg_score)OUTPUT
Accuracy score is: 0.992

我們可以看到99%的準確度,我們得到的是非常高的準確度,因為它預測大多數類別為0(非欺詐性)。

重取樣技術

一種處理高度不平衡資料集的廣泛採用的技術稱為重取樣。它包括從多數類中刪除樣本(欠取樣)和/或從少數類中新增更多示例(過取樣)。

儘管平衡類有很多好處,但是這些技巧也有缺點。

過取樣最簡單的實現是複製少數群體類別的隨機記錄,這可能會導致過度捕撈。

欠取樣最簡單的實現涉及從多數類中刪除隨機記錄,這可能會導致資訊丟失。

讓我們用信用卡欺詐檢測示例來實現它。

我們將首先將類0和類1分開。

# class count
class_count_0, class_count_1 = data['Class'].value_counts()

# Separate class
class_0 = data[data['Class'] == 0]
class_1 = data[data['Class'] == 1]# print the shape of the class
print('class 0:', class_0.shape)
print('class 1:', class_1.shape

1.隨機欠取樣

欠取樣可以定義為刪除多數類的觀察值。這是在多數類和少數類被平衡之前進行的。

當你擁有大量資料時,欠取樣可能是一個不錯的選擇,比如數百萬行。但是欠取樣的一個缺點是我們可能刪除了有價值的資訊。

class_0_under = class_0.sample(class_count_1)

test_under = pd.concat([class_0_under, class_1], axis=0)

print("total class of 1 and0:",test_under['Class'].value_counts())# plot the count after under-sampeling
test_under['Class'].value_counts().plot(kind='bar', title='count (target)')

2.隨機過取樣

過取樣可以定義為向少數類新增更多副本。當你沒有大量資料要處理時,過取樣可能是一個不錯的選擇。

欠取樣時要考慮的一個弊端是,它可能導致過擬合併導致測試集泛化不佳。

class_1_over = class_1.sample(class_count_0, replace=True)

test_over = pd.concat([class_1_over, class_0], axis=0)

print("total class of 1 and 0:",test_under['Class'].value_counts())# plot the count after under-sampeling
test_over['Class'].value_counts().plot(kind='bar', title='count (target)')

使用不平衡學習python模組平衡資料

在科學文獻中已經提出了許多更復雜的重取樣技術。

例如,我們可以將多數類的記錄聚類,並通過從每個聚類中刪除記錄來進行欠取樣,從而尋求保留資訊。在過取樣中,我們可以為這些副本引入較小的變化,從而建立更多樣的合成樣本,而不是建立少數群體記錄的精確副本。

讓我們使用Python庫 imbalanced-learn 應用其中一些重取樣技術。它與scikit-learn相容,並且是scikit-learn-contrib專案的一部分。

import imblearn

3.使用imblearn進行隨機欠取樣

RandomUnderSampler通過為目標類別隨機選擇資料子集來平衡資料的快速簡便方法。通過隨機選擇有或沒有替代品的樣本對多數類別進行欠取樣。

# import library
from imblearn.under_sampling import RandomUnderSampler

rus = RandomUnderSampler(random_state=42, replacement=True)# fit predictor and target variable
x_rus, y_rus = rus.fit_resample(x, y)

print('original dataset shape:', Counter(y))
print('Resample dataset shape', Counter(y_rus))

4.使用imblearn進行隨機過取樣

解決不平衡資料的一種方法是在少數群體中生成新樣本。最幼稚的策略是通過隨機取樣替換當前可用的取樣來生成新的取樣。隨機過取樣提供了這樣一個方案。

# import library
from imblearn.over_sampling import RandomOverSampler

ros = RandomOverSampler(random_state=42)

# fit predictor and target variablex_ros, y_ros = ros.fit_resample(x, y)

print('Original dataset shape', Counter(y))
print('Resample dataset shape', Counter(y_ros))

5.欠取樣:Tomek連結

Tomek連結是一對非常接近的例項,但類別相反。刪除每對多數類的例項會增加兩個類之間的空間,從而有助於分類過程。

如果兩個樣本是彼此的最近鄰,則存在Tomek的連結

在下面的程式碼中,我們將用於ratio='majority'對多數類進行重新取樣。

# import library
from imblearn.under_sampling import TomekLinks

tl = RandomOverSampler(sampling_strategy='majority')

# fit predictor and target variable
x_tl, y_tl = ros.fit_resample(x, y)

print('Original dataset shape', Counter(y))
print('Resample dataset shape', Counter(y_ros))

6. Synthetic Minority Oversampling Technique (SMOTE)

該技術為合成少數過取樣技術。

SMOTE(合成少數過取樣技術)的工作原理是從少數類中隨機選取一個點並計算該點的k近鄰。合成點被新增到所選的點和它的相鄰點之間。

SMOTE演算法通過以下四個簡單步驟工作:

  1. 選擇少數類作為輸入向量

  2. 查詢其k個最近鄰(在SMOTE()函式中將k_neighbors指定為引數)

  3. 選擇這些鄰居中的一個,並將合成點放置在連線考慮中的點及其所選鄰居的線上的任何位置

  4. 重複這些步驟,直到資料平衡

# import library
from imblearn.over_sampling import SMOTE

smote = SMOTE()

# fit predictor and target variable
x_smote, y_smote = smote.fit_resample(x, y)

print('Original dataset shape', Counter(y))
print('Resample dataset shape', Counter(y_ros))

7. NearMiss

NearMiss是欠取樣技術。與其使用距離重新取樣少數類,不如將多數類等同於少數類。

from imblearn.under_sampling import NearMiss

nm = NearMiss()

x_nm, y_nm = nm.fit_resample(x, y)

print('Original dataset shape:', Counter(y))
print('Resample dataset shape:', Counter(y_nm))

8.更改效能指標

評估不平衡資料集時,準確性不是最佳的度量標準,因為它可能會產生誤導。

可以提供更好洞察力的指標是:

  • 混淆矩陣:顯示正確預測和錯誤預測型別的表。

  • 精度:真實陽性的數目除以所有陽性預測。精度也稱為正預測值。它是分類器準確性的度量。低精度表示大量誤報。

  • 召回率:真實陽性的數量除以測試資料中的陽性值的數量。召回也稱為敏感度或真實陽性率。它是分類器完整性的度量。較低的召回率表示大量假陰性。

  • F1:得分:準確性和召回率的加權平均值。

  • ROC曲線下面積(AUROC):AUROC表示模型將觀測值與兩個類區分開來的可能性。

換句話說,如果你從每個類中隨機選擇一個觀察值,你的模型能夠正確“排序”它們的概率有多大?

9.懲罰演算法(成本敏感訓練)

下一個策略是使用懲罰性學習演算法,該演算法會增加少數類分類錯誤的成本。

這項技術的一種流行演算法是Penalized-SVM。

在訓練過程中,我們可以使用引數class_weight='balanced'來懲罰少數類的錯誤,懲罰量與代表性不足的程度成正比。

如果我們想為支援向量機演算法啟用概率估計,我們還希望包含引數probability=True。

讓我們在原始不平衡資料集上使用Penalized-SVM訓練模型:

# load library
from sklearn.svm import SVC

# we can add class_weight='balanced' to add panalize mistake
svc_model = SVC(class_weight='balanced', probability=True)

svc_model.fit(x_train, y_train)

svc_predict = svc_model.predict(x_test)# check performance
print('ROCAUC score:',roc_auc_score(y_test, svc_predict))
print('Accuracy score:',accuracy_score(y_test, svc_predict))
print('F1 score:',f1_score(y_test, svc_predict))

10.更改演算法

儘管在每個機器學習問題中,嘗試各種演算法都是一個很好的經驗法則,但是對於不平衡的資料集而言,這尤其有利。

決策樹經常在不平衡的資料上表現良好。在現代機器學習中,樹整合(隨機森林,梯度增強樹等)幾乎總是勝過單個決策樹,因此我們將直接跳到:

基於樹的演算法通過學習 if / else 問題的層次結構來工作。這可以強制解決兩個類。

# load library
from sklearn.ensemble import RandomForestClassifier

rfc = RandomForestClassifier()

# fit the predictor and target
rfc.fit(x_train, y_train)

# predict
rfc_predict = rfc.predict(x_test)# check performance
print('ROCAUC score:',roc_auc_score(y_test, rfc_predict))
print('Accuracy score:',accuracy_score(y_test, rfc_predict))
print('F1 score:',f1_score(y_test, rfc_predict))

欠取樣的優點和缺點

優點

  • 當訓練資料集很大時,它可以通過減少訓練資料樣本的數量來幫助改善執行時間和儲存問題。

缺點

  • 它可以丟棄可能有用的資訊,這對於構建規則分類器可能很重要。

  • 通過隨機欠取樣選擇的樣本可能是有偏差的樣本。可能導致實際測試資料集的結果不準確。

過取樣的優缺點

優點

  • 與欠取樣不同,此方法不會導致資訊丟失。
  • 在抽樣條件下表現更佳

缺點

  • 由於它複製了少數群體事件,因此增加了過度擬合的可能性。

你可以在我的GitHub儲存庫中檢查程式碼的實現。

參考文獻

  1. https://elitedatascience.com/imbalanced-classes

  2. https://towardsdatascience.com/methods-for-dealing-with-imbalanced-data-5b761be45a18

結論

總而言之,在本文中,我們已經看到了處理資料集中的類不平衡的各種技術。處理不平衡資料時,實際上有很多方法可以嘗試。希望本文對你有所幫助。

謝謝閱讀!

原文連結:https://www.analyticsvidhya.com/blog/2020/07/10-techniques-to-deal-with-class-imbalance-in-machine-learning/

歡迎關注磐創AI部落格站:
http://panchuang.net/

sklearn機器學習中文官方文件:
http://sklearn123.com/

歡迎關注磐創部落格資源彙總站:
http://docs.panchuang.net/