1. 程式人生 > >低秩表示的學習--Latent Low-Rank Representation(LatLLR)

低秩表示的學習--Latent Low-Rank Representation(LatLLR)

最近讀了LLR(Low Rank Representation)的文章,所以整理一下。本文的主線是LLR-->LantLLR-->RobustLLR

一、低秩表示

剛開始接觸低秩表示是看到一篇論文裡面對公式進行了低秩約束,感覺很好奇,查了一下後,發現低秩很神奇,可以將噪聲和乾淨資料自動分割出來。因為這一部分比較基礎所以參考一篇中文論文[1]

稀疏表示也是將資料集矩陣表示成字典的線性組合,但是不同的是稀疏表示希望係數是稀疏的。

舉例:

可以把Ui理解為空間裡的基,然後Q是係數,相當於座標點,20個4維的座標點。X是100個數據,隨機選20個加噪聲,最後用低秩表示,可以看到相似度矩陣的塊效應非常顯著,這個和定義的5個子空間是吻合,這說明,對子空間的分割具有魯棒性,同時可以看到近乎完美的恢復了噪聲,所以具有良好的去噪性。

二、低秩子空間恢復的聯合稀疏表示

本部分參考的論文也是一篇中文論文[2]

最後計算測試樣本對各類訓練樣本的殘差,測試樣本屬於殘差最小的那個類。

三、Latent Low-Rank Representation(LatLLR)[3]

下面按照這兩個問題討論

1)無噪聲資料

先給出一個定理並證明

接下來還是用舉例證明

一共是10個空間,選擇了9個所以樣本是不充分的,但是我們使用lantLLR,從效果可以看出能魯棒的分割出9個子空間,其中b圖因為是不充分的LLR只能是對角線為1矩陣。

本例中樣本是充分的,只是在噪聲不同的情況下,比較LLR和LatLLR

最後一部分是在真實場景中的實驗應用

三種不同的點代表不同的空間,紅色左右轉,藍色的上下轉,黃色的不動。

整個視訊序列是29幀,459個點,3個motion,一個motion對應一個子空間

[1]史加榮,低秩矩陣恢復演算法綜述,[J]計算機應用研究,2013

[2]胡正平,基於低秩子空間恢復的聯合稀疏表示人臉識別演算法,[J]電子學報,2013

[3]Guangcan Liu, Latent Low-Rank Representation for Subspace Segmentation and Feature Extraction,ICCV,2011