1. 程式人生 > 其它 >可解釋的AI (XAI):如何使用LIME 和 SHAP更好地解釋模型的預測

可解釋的AI (XAI):如何使用LIME 和 SHAP更好地解釋模型的預測

作為資料科學家或機器學習從業者,將可解釋性整合到機器學習模型中可以幫助決策者和其他利益相關者有更多的可見性並可以讓他們理解模型輸出決策的解釋。

在本文中,我將介紹兩個可以幫助瞭解模型的決策過程的模型 LIME 和 SHAP。

SHAP

它是 SHapley Additive exPlanations的縮寫。該方法旨在通過計算每個特徵對預測的貢獻來解釋例項/觀察的預測。

SHAP有許多用於模型解釋的視覺化圖表,但我們將著重介紹其中的幾個。

特徵重要性的彙總圖

特定分類結果的彙總圖

LIME

它是 Local Interpretable Model Agnostic Explanation的縮寫。區域性(Local )意味著它可以用於解釋機器學習模型的個別預測。

要使用它也非常的簡單,只需要2個步驟:(1) 匯入模組,(2) 使用訓練值、特徵和目標擬合直譯器。

對單例進行解釋說明

這裡的解釋是針對測試資料中的單個例項進行的

完整文章

可解釋的AI (XAI):如何使用LIME 和 SHAP更好地解釋模型的預測