整合學習,adaboosting與Gradient Boosting 原理解析
阿新 • • 發佈:2019-01-07
姓名:Jyx
班級:csdn人工智慧直通車-5期
描述:這是本人在學習人工智慧時的學習筆記,加深理解
整合學習
整合學習將各種不同的學習器聯合起來,以期提高總體的預測效果。為發掘各個學習器的優點,需要一套專門的方案來進行聯合。
1. 幾何平均。將各個分類器的預測結果進行幾何平均。其基本原理是使聯合後的概率與各個學習器預測的概率的KL距離最小化
2. 算術平均。 將各個分類器的預測結果進行算術平均
3. 多數投票 。
並沒有一般的規則來指導該選擇何種方式聯合學習器。另外,在特定的學習案例裡甚至可能出現聯合後的學習器比單個學習器中最好的還要差的情況
boosting
boosting 是一種特殊的整合學習方法。所有的‘基’分類器都是弱學習器,但通過採用特定的方式迭代,每次根據訓練過的學習器的預測效果來更新樣本權值,用於新的一輪學習,最終提高聯合後的學習效果
adaboosting
adaboosting的分類目標是
其損失定義如下
adaboosting要求每個‘基’分類器返回二值標記,即
adaboosting演算法
(1)式的優化是一個NPC問題。我們只能退而尋求次優的解法。實際操作中使用的是分段最優的搜尋方式,從第一個函式開始,每次新增一個函式,並優化此輪的目標。
我們定義
在第m步,我們優化的目標