[ML] 多工學習以及流行正則化
Andrew Zhang
May 24, 2016
線性迴歸容易因為過擬合而出現高方差,因此為了控制模型複雜度往往線上性迴歸的時候新增很多正則項,眾所周知的就有
一、多工學習的提出
在多工學習中,每一個任務下資料特徵的維數相等,並且對應於相同的意義。
基於
其中使用的目標函式表示式為
其中
二、多工學習之任務間正則化約束
考慮到不同任務間的資料表示的是同一個狀態,Inter-modality relationship constrained multi-modality multi-task feature selection for Alzheimer’s Disease and mild cognitive impairment identification
再加上多工學習的約束條件,這篇文章的總的約束目標函式就是
其中
三、多工學習之樣本間正則化約束
以往的的話如果僅僅有一個任務下采集到的資料,我們往往對單個任務下的資料建立分類模型,Manifold regularized multitask feature learning for multimodality disease classification這篇文章與上一篇類似,利用對應任務下線性迴歸的引數
並且公式(3-1)等價於
其中如果
其中