KCF追蹤方法流程原理
讀"J. F. Henriques, R. Caseiro, P. Martins, J. Batista, ‘High-speed tracking with kernelized correlation filters‘" 筆記
KCF是一種鑒別式追蹤方法,這類方法一般都是在追蹤過程中訓練一個目標檢測器,使用目標檢測器去檢測下一幀預測位置是否是目標,然後再使用新檢測結果去更新訓練集進而更新目標檢測器。而在訓練目標檢測器時一般選取目標區域為正樣本,目標的周圍區域為負樣本,當然越靠近目標的區域為正樣本的可能性越大。
註意論文中關於向量是行向量還是列向量總是指示不清楚,所以本文對變量符號統一之後進行推導,首先所有的小寫字母均表示列向量,所有的大寫字母表示矩陣,其中矩陣的每一行是一個樣本,文中的函數除了
KCF的主要貢獻
-
使用目標周圍區域的循環矩陣采集正負樣本,利用脊回歸訓練目標檢測器,並成功的利用循環矩陣在傅裏葉空間可對角化的性質將矩陣的運算轉化為向量的Hadamad積,即元素的點乘,大大降低了運算量,提高了運算速度,使算法滿足實時性要求。
-
將線性空間的脊回歸通過核函數映射到非線性空間,在非線性空間通過求解一個對偶問題和某些常見的約束,同樣的可以使用循環矩陣傅裏葉空間對角化簡化計算。
-
給出了一種將多通道數據融入該算法的途徑。
一維脊回歸
脊回歸
設訓練樣本集,那麽其線性回歸函數,是列向量表示權重系數,可通過最小二乘法求解
其中用於控制系統的結構復雜性,也就是VC維以保證分類器的泛化性能。
寫成矩陣形式
其中的每一行表示一個向量,是列向量,每個元素對應一個樣本的標簽,於是令導數為0,可求得
因為後面實在傅裏葉域內計算,牽涉到復數矩陣,所以我們將結果都統一寫成復數域中形式
其中表示復共軛轉置矩陣。
循環矩陣
KCF中所有的訓練樣本是由目標樣本循環位移得到的,向量的循環可有排列矩陣得到,比如
當然對於二維圖像的話,可以通過x軸和y軸分別循環移動實現不同位置的移動
舉例
1474942884758.jpg
1474942898329.jpg
所以由一個向量可以通過不斷的乘上排列矩陣得到n個循環移位向量,將這n個向量依序排列到一個矩陣中,就形成了x生成的循環矩陣,表示成
1D向量得到的循環矩陣.jpg
2D圖像不同循環次數後的移位.jpg
循環矩陣傅氏空間對角化
所有的循環矩陣都能夠在傅氏空間中使用離散傅裏葉矩陣進行對角化
其中x對應於生成X的向量(就是X的第一行矩陣)的傅裏葉變化後的值,,是離散傅裏葉矩陣,是常量
關於矩陣的傅裏葉對角化請參加 循環矩陣傅裏葉對角化,後面的筆記會專門講解傅裏葉變換。
傅氏對角化簡化的脊回歸
將帶入脊回歸公式得到
註意這裏的分號是點除運算,就是對應元素相除。因為,( 循環矩陣傅裏葉對角化)對上式兩邊同時傅氏變換得
於是
這裏和論文式(12)不一樣,論文裏(12)式分子上似乎多了個共軛符號,因為Appendix A.5中的式(55)後面那個應該是少了個共軛轉置符號。
這樣就可以使用向量的點積運算取代矩陣運算,特別是求逆運算,大大提高了計算速度。
核空間的脊回歸
我們希望找到一個非線性映射函數列向量,使映射後的樣本在新空間中線性可分,那麽在新空間中就可以使用脊回歸來尋找一個分類器,所以這時候得到的權重系數為
是行向量張成的空間中的一個向量,所以可以令
上式就變為
該問題稱為的對偶問題
令關於列向量導數為0,
註:其實類似於核空間變量的協方差矩陣,矩陣的轉置乘以矩陣,一定可逆。
對於核方法,我們一般不知道非線性映射函數的具體形式,而只是刻畫在核空間的核矩陣,那麽我們令表示核空間的核矩陣,由核函數得到,那麽
於是
論文提出的一個創新點就是使循環矩陣的傅氏對角化簡化計算,所以這裏如果希望計算時可以同樣將矩陣求逆運算變為元素運算,就希望將對角化,所以希望找到一個核函數使對應的核矩陣式循環矩陣。
Theorem 1. Given circulant data C(x), the corresponding kernel matrix K is circulatant if the kernel function satisfies ,for any permutation matrix M.
即核矩陣是循環矩陣應該滿足兩個條件:第一個樣本和第二個樣本都是由生成樣本循環移位產生的,可以不是由同一個樣本生成;滿足,其中是排列矩陣。
證明:設,則,於是
因為K的第一行為所以相當於將第一行的第個元素放到K的第i行j列上,
那麽就得到了循環矩陣,所以是循環矩陣。證明裏表示除的余數,因為這個過程是循環的。
證畢。
若K是循環矩陣,則
其中是K中第一行。這裏覺得奇怪?兩個轉置?這是因為我們已經約定是列向量,而的第i行是,是不是明白了~
這裏推出來的公式和論文中公式(17)也不大一樣
那麽那些核函數滿足上述性質呢?論文中給出
-
Radial Basis Function kernels -e.g. Gaussian
-
Dot-Product kernels -e.g. linear, polynomial
-
Additive kernels - e.g. intersection, and Hellinger kernels
-
Exponentiated additive kernels.
快速檢測
首先由訓練樣本和標簽訓練檢測器,其中訓練集是由目標區域和由其移位得到的若幹樣本組成,對應的標簽是根據距離越近正樣本可能性越大的準則賦值的,然後可以得到
待分類樣本集,即待檢測樣本集,是由預測區域和由其移位得到的樣本集合
那麽就可以選擇最大的樣本作為檢測出的新目標區域,由判斷目標移動的位置。
定義是測試樣本和訓練樣本間在核空間的核矩陣
由於核矩陣滿足,即類似於theorem 1 的證明可得是循環矩陣
我記得曾經見到過有人問非方陣的情況,假設采樣窗口非方形,即那麽采樣窗口通過移位都會產生個樣本,無論是訓練樣本還是測試樣本,所以一定是方陣
於是得到各個測試樣本的響應
註意我們說過小寫的都是列向量,是列向量。註意我們這裏是矩陣的第一行,即的第一列,而文中(22)式中是論文中的第一行,這是因為本文和論文中關於的定義正好是相轉置的。也就是說我覺得(22)式只是少了一個共軛。。。
覺得蠻奇怪的,怎麽和論文中推導結果好多都差一個共軛符號??
這是因為都是對稱向量,而對稱向量的共軛轉置是實數,所以就和論文中一樣了,這點參考KCF高速跟蹤詳解
核矩陣的快速計算
現在還存在的矩陣運算就是核矩陣的第一行的計算
內積和多項式核
這種核函數核矩陣可以表示成,於是
因此對於多項式核有
徑向基核函數
比如高斯核,這類函數是的函數
所以
對於高斯核則有
1D到2D
上面公式推導的很爽,可是都是在1D情況下得到了結論,2D圖像該怎麽辦呢?
這個問題困擾了我好久。。。。剛開始我也想從線性空間的脊回歸推導,假設是目標圖像,是由生成的循環矩陣塊,即表示的第塊,是由右移,下移得到的樣本塊。那麽即使塊循環矩陣能夠通過2D傅裏葉變換矩陣對角化又怎麽用呢??因為我們不可能帶入類似的式子中啊(這個式子是類比於1D脊回歸寫的,並無實際意義)
哎呀,想破腦袋啊!
啊哈,想明白了,線性假設下沒辦法用,直接在核空間推導,發現豁然開朗~
現在有一個函數,自變量,因變量,也不知道怎麽映射的,也不知道是多少,反正是個確定但未知的值。那麽在核空間我們就可以使用脊回歸的公式了~
註意:由移位生成的樣本共有個,所以,這裏,是對應樣本的標簽,是對應樣本標簽的矩陣形式。
ok,現在再來看看定理2
Theorem 2. The block matrix with elements is a Block-Circulant Matrix (BCCM) if is a unitarily invariant kernel.
這裏和Theorem 1是類似的,a unitarily invariant kernel就是說,定理的證明參見Theorem 1.
而徑向基核,dot-product kernel等都滿足這個條件,所以得到的核矩陣都是塊循環矩陣。
塊循環矩陣可以使用2D傅裏葉變換矩陣對角化( 循環矩陣傅裏葉對角化)
其中是2D傅裏葉變換矩陣,是生成塊循環矩陣的生成矩陣,表示對進行2D傅裏葉變換的結果。
ok,那現在
其中表示全1的m維列向量。
這裏的分別對應著的矩陣形式。
對應的響應
其中表示塊循環矩陣的生成矩陣。
後面測試就類似於1D不推了
多通道問題
論文中在提取目標區域的特征時可以是灰度特征,但是使用Hog特征能夠取得更好的效果,那麽Hog特征該如何加入前面提到的模型呢?
Hog特征是將圖像劃分成較小的局部塊,稱為cell,在cell裏提取梯度信息,繪制梯度方向直方圖,然後為了減小光照影響,將幾個cell的方向直方圖串在一起進行block歸一化,最終將所有的cell直方圖串聯起來就是圖像的特征啦。
那麽,按照傳統的方式一張圖像就提取出一個向量,但是這個向量怎麽用啊?我們又不能通過該向量的移位來獲得采樣樣本,因為,你想啊,把直方圖的一個bin循環移位有什麽意義啊?
所以論文中Hog特征的提取是將sample區域劃分成若幹的區域,然後再每個區域提取特征,代碼中是在每個區域提取了32維特征,即,其中就是梯度方向劃分的bin個數,每個方向提取了3個特征,2個是對方向bin敏感的,1個是不敏感的,另外4個特征是關於表觀紋理的特征還有一個是零,表示階段特征,具體參見fhog。提取了31個特征(最後一個0不考慮)之後,不是串聯起來,而是將每個cell的特征並起來,那麽一幅圖像得到的結果就是一個立體塊,假設劃分cell的結果是,那麽fhog提取結果就是,我們成31這個方向為通道。那麽就可以通過cell的位移來獲得樣本,這樣對應的就是每一通道對應位置的移位,所有樣本的第i通道都是有生成圖像的第i通道移位獲得的,
,所以分開在每一個通道上計算,就可以利用循環矩陣的性質了。
我們來看1D的情況,1D弄明白了,2D也就明白咯,因為我們上面說了怎麽推導2D的
樣本cell數為M,每個cell特征維數為L,第個樣本的第通道向量表示成,樣本的總特征可以表示成.
於是K矩陣的第一行有
這裏用到
這是dot product kernel的情況,那徑向基核就很容易推了
多通道的處理.jpg
總結
KCF相對於其他的tracking-by-detection方法速度得到了極大的提升,效果也相對較好,思想和實現十分簡單。
KCF目標檢測.jpg
借上圖來總結下KCF的過程,左圖是剛開始我們使用紅色虛線框框定了目標,然後紅色實線框就是使用的padding了,其他的框就是將padding循環移位之後對齊目標得到的樣本,由這些樣本就可以訓練出一個分類器,當分類器設計好之後,來到了下一幀圖像,也就是右圖,這時候我們首先在預測區域也就是紅色實線框區域采樣,然後對該采樣進行循環移位,對齊目標後就像圖中顯示的那個樣子 了,(這是為了理解,實際中不用對齊。。。),就是周圍那些框框啦,使用分類器對這些框框計算響應,顯然這時候白色框響應最大,因為他和之前一幀紅色框一樣,那我們通過白色框的相對移位就能推測目標的位移了。
然後繼續,再訓練再檢測。。。。
論文中還說到幾點
-
對特征圖像進行cosine window加權,這主要是為了減輕由於邊界移位導致圖像不光滑。
-
padding的size是目標框的2.5倍,肯定要使用padding窗口,要不然移位一次目標就被分解重組合了。。。效果能好哪去。。
-
對於標簽使用了高斯加權
-
對前後幀結果進行了線性插值,為了讓他長記性,不至於模型劇烈變化。
但是其缺點也是很明顯的。
-
依賴循環矩陣,對於多尺度的目標跟蹤效果並不理想。當然可以通過設置多個size,在每個size上進行KCF運算,但這樣的話很難確定應預先設置多少size,什麽樣的size,而且對size的遍歷必將影響算法的速度。KCF最大的優勢就是速度。
我在想能不能通過少量特征點的匹配來調整窗口的size,當然這樣的話,速度也是個問題。
1475242117128.jpg
這種情況下還能保證最大響應就對應著目標中心所在的框嗎?如果不能偏差會不會越來越大?
-
初始化矩陣不能自適應改變,其實這個問題和上一個缺點類似,這裏強調的是非剛體運動,比如跳水運動員,剛開始選定區域肯定是個瘦長的矩形框,但當運動員開始屈體的時候顯然這個預選定框就很大誤差了。
1475242288757.jpg
3.難處理高速運動的目標
-
難處理低幀率中目標,這個和3類似,都是說相鄰幀間目標位移過大。
1475242373962.jpg
目標下一幀出現位置不在你的padding內,你怎麽也不可能移位找到。。。
5.雖然算法中對模型系數進行線性插值,但是對於目標一旦被遮擋若幹幀之後,可能模型就再也回不去了。。。因為模型已經完全被遮擋物汙染掉了。
6.我覺的論文還有一個問題就是僅僅通過檢測到的框中心和目標實際中心的距離來度量性能,這是有問題的。
比如我現在有一個人垂直我的鏡頭逐漸遠去了,但他的中心一直在我鏡頭的中心處,那我就開始畫個框就是鏡頭的視角範圍,那這樣我檢測結果百分之百,可是有什麽用呢。。。。當然論文方法是在很多不同數據集上檢驗的性能還是很有說服力的。我的意思就是對於單個數據集不能僅憑這個指標定方法的好壞。
KCF追蹤方法流程原理