機器學習_保留分類資訊的多工特徵選擇/矩陣的k範數
阿新 • • 發佈:2019-01-04
0.特徵選擇
【1】特徵選擇:就是挑選具有較高區分能力的特徵(理:之前還在西瓜書的決策樹和特徵選取中學習過資訊熵的方法)
1.問題的出現
【1】常見的特徵評價標準多用於單變數的度量(例子:西瓜書裡的資訊熵、過濾式特徵選取裡的距離法),只能保證在選取時本輪最優,但無法保證所選整體最優。
【2】所以有的特徵選取方法:SPFS可以解決特徵的互補性和冗餘性。但仍有不合理之處。這個不合理之處就是本文的亮點。
【3】本文的亮點:常見的選擇法降低的是特徵間的冗餘性,不合理,因降低特徵之間與分類有關的冗餘性。
【4】本文的亮點:選擇法以最大化離散為目標,忽略了類與類之間的相關性。
2.矩陣的k範數
【1】是矩陣內部各元素的平方和,再開根號
【2】可由跡計算(對角線元素之和),具體看下連結
【3】https://zhidao.baidu.com/question/2142560970431214268.html
3.矩陣相乘的意義
【1】從乘法角度去理解:簡單乘法的集合。啟示:將多個乘法運算集合為矩陣,執行速度將提升
【2】從運動?座標變換去理解?還未用到。
n.問題
【1】怎麼去除冗餘的部分,一個特徵還能拆麼。照我的理解,面積和長、寬,面積直接去掉
【2】為什麼要考慮類與類之間的相關性
【3】目標函式,即(1)式它內在的幾何意義是什麼?比如之前svm距離最大、整合學習指數損失函式最小