1. 程式人生 > >機器學習_保留分類資訊的多工特徵選擇/矩陣的k範數

機器學習_保留分類資訊的多工特徵選擇/矩陣的k範數

0.特徵選擇

【1】特徵選擇:就是挑選具有較高區分能力的特徵(理:之前還在西瓜書的決策樹和特徵選取中學習過資訊熵的方法)

1.問題的出現

【1】常見的特徵評價標準多用於單變數的度量(例子:西瓜書裡的資訊熵、過濾式特徵選取裡的距離法),只能保證在選取時本輪最優,但無法保證所選整體最優

【2】所以有的特徵選取方法:SPFS可以解決特徵的互補性和冗餘性。但仍有不合理之處。這個不合理之處就是本文的亮點。

【3】本文的亮點:常見的選擇法降低的是特徵間的冗餘性,不合理,因降低特徵之間與分類有關的冗餘性。

【4】本文的亮點:選擇法以最大化離散為目標,忽略了類與類之間的相關性。

2.矩陣的k範數

【1】是矩陣內部各元素的平方和,再開根號

【2】可由跡計算(對角線元素之和),具體看下連結

【3】https://zhidao.baidu.com/question/2142560970431214268.html

3.矩陣相乘的意義

【1】從乘法角度去理解:簡單乘法的集合。啟示:將多個乘法運算集合為矩陣,執行速度將提升

【2】從運動?座標變換去理解?還未用到。

n.問題

【1】怎麼去除冗餘的部分,一個特徵還能拆麼。照我的理解,面積和長、寬,面積直接去掉

【2】為什麼要考慮類與類之間的相關性

【3】目標函式,即(1)式它內在的幾何意義是什麼?比如之前svm距離最大、整合學習指數損失函式最小