1. 程式人生 > >KSH(Supervised Hashing with Kernels)

KSH(Supervised Hashing with Kernels)

Supervised Hashing with Kernels

簡單的介紹了KSH(基於核函式的監督雜湊),文章還是挺不錯的,PPT裡面有很詳細的介紹和推導,下載瀏覽PPT就可以對這篇 CVPR 2012 的文章有很好的瞭解了。我沒有直接跑原作者的程式碼。我一般是提取作者的程式碼,整合放進自己的框架裡面除錯,除錯效果還行,所以原作者 release 的程式碼應該沒有什麼問題。在我後續的博文中會有專門講解程式碼的內容,到時候會有不同雜湊方法的的對比實驗。

PPT主要分以下幾部分內容:


      1.Kernel-Based Supervised Hashing
      2.Hash Functions with Kernels
      3.Supervised Infromation
      4.Code Inner Products
      5.Greedy Optimization
      6.Spectral Relaxation
      7.Sigmoid Smoothing


資源獲取連結:

部分文件預覽:




2016/4/13更新

Tips:

之前有網友郵件諮詢程式碼相關問題,在這裡貼上當時的郵件回覆內容。水平有限,歡迎大家給予指導。

(1)監督資訊的生成 作者的論文中使用的資料庫是由相片分割成patches組成,每個patch的label是這個patch屬於那個相片。對於文章中定義的相似度矩陣S(或者其他叫法),文章中有詳細的介紹,不過程式碼實現的時候,忽略了s=0的場景,主要是這個資料庫不是多標籤資料庫(比如NUS-WIDE),當然,也可以理解為距離上處在近鄰和非近鄰分解點上的一些資料。更深層次的原因是,能讓程式碼實現起來更加簡單。。。。 % pairwise label matrix
trngnd = traingnd(label_index'); temp = repmat(trngnd,1,trn)-repmat(trngnd',trn,1); S0 = -ones(trn,trn); tep = find(temp == 0); S0(tep) = 1; 這部分程式碼,應該沒什麼問題吧,很簡單,如果訓練樣本的groundtruth相同,則置1,否則置0,結合我PPT裡面的那個圖,很好理解。 (2)traingnd資料和標記的2000個數據的index之間有什麼關聯呢 a.先介紹程式碼中的一些資料: 9119:論文中對應為n; 300:論文中對應為m; 2000:論文中對應為l; 48:論文中對應為r.
b.為什麼選2000而不是9119: b1:這個也是機器學習中常採用的策略,針對大資料時代,不可能所有的樣本都丟進去訓練模型,選擇適量的資料訓練,可以減少時間和空間複雜度,作者這裡僅僅是示例性質罷了,當然你全部丟進去,也是可行的。。。 b2:作者在論文中沒有證明KSH的魯棒性:針對訓練資料之外的資料的延展性,這個模型還能不能適應? 不過你可以發現,在paper中cifar10資料庫,作者是每個類都有挑選訓練資料構建L,所以實質上挑選的資料已經能很好的“表示”對應類中沒有使用的樣本。也就是說,KSH還是魯棒性不錯的(至少從PR曲線,mAP等方面)。

相關推薦

KSH(Supervised Hashing with Kernels)

Supervised Hashing with Kernels 簡單的介紹了KSH(基於核函式的監督雜湊),文章還是挺不錯的,PPT裡面有很詳細的介紹和推導,下載瀏覽PPT就可以對這篇 CVPR

Supervised Hashing with Kernels

1. KSH Formulation Data Samples: Hashing Function: ,  is the kernel function; is the weight for the sample (similar to SVM, is the supp

[CVPR2015] Is object localization for free? – Weakly-supervised learning with convolutional neural networks論文筆記

sed pooling was 技術分享 sco 評測 5.0 ict highest p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 15.0px "Helvetica Neue"; color: #323333 } p.p2

學習筆記之Supervised Learning with scikit-learn | DataCamp

Supervised Learning with scikit-learn | DataCamp https://www.datacamp.com/courses/supervised-learning-with-scikit-learn At the end of day, the value of D

影象檢索入門:CVPR2016《Deep Supervised Hashing for Fast Image Retrieval》

TensorFlow程式碼:馬上新增 研究背景 在使用離散化時希望輸出的特徵的關於某個值對稱,所以如《Deep Learning of Binary Hash Codes for Fast Image Retrieval》用了 sigmoid 作為特徵層的輸出的

【GAN ZOO翻譯系列】Cat GAN:UNSUPERVISED AND SEMI-SUPERVISED LEARNING WITH CATEGORICAL GAN 用於監督和半監督學習的GAN

Jost Tobias Springenberg 弗萊堡大學 79110 Freiburg, Germany [email protected] 原文連結https://arxiv.org/abs

Exploiting the Circulant Structure of Tracking-by-detection with Kernels 筆記

這是一篇ECCV2014年的paper,在這篇paper中作者提出了kernelized correlation filter,並將其應用到了tracking中,從而有了15年PAMI的那篇文章,我再之前部落格中也記錄過 在這裡,我想重新介紹一下KCF,並且加上一點自己

目標跟蹤系列十三:Exploiting the Circulant Structure of Tracking-by-detection with Kernels 公式詳細的推導

以下文字是我自己寫的,每一個公式都是我自己敲出來的,提供給大家學習,iker Cross 為了防止直接複製,我貼的是圖片: 以上就是Exploiting the Circulant Structure of Tracking-by-det

《SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS》論文閱讀

背景簡介   GCN的提出是為了處理非結構化資料(相對於image畫素點而言)。CNN處理規則矩形的網格畫素點已經十分成熟,其最大的特點就是利用卷積進行①引數共享②區域性連線,如下圖: 那麼類比到非結構資料圖(graph),CNN能直接對非結構資料進行同樣類似的操作嗎?如果不能,我們又該採用其他什麼方式呢

22.Deeply Supervised Salient Object Detection with Short Connections

具有短連線的深度監督的顯著性目標檢測 摘要 顯著目標檢測的最新進展是實質性的,主要受益於卷積神經網路(CNN)的爆炸式發展。最近開發的語義分割和顯著目標檢測演算法主要基於完全卷積神經網路(FCN)。對於沒有明確處理尺度空間問題的通用FCN模型,仍有很大的改進空間。整體巢狀邊緣檢測器(HED)

Unsupervised Single Image Deraining with Self-supervised Constraints論文閱讀

原文連結:https://arxiv.org/pdf/1811.08575.pdf 文中提到以往的無監督方法因為沒有對應的ground truth來計算mse約束生成影象,因此會產生一些artifacts,還有就是以往的影象轉換任務都是one to one 的transform,而雨的不確定性太

Machine Learning with Kaggle Kernels

In the last article we introduced Kaggle's primary offerings and proceeded to execute our first "Hello World" program within a Kaggle Kernel. In this artic

中科院NIPS 2017論文提出深度離散雜湊演算法,可用於影象檢索:Deep Supervised Discrete Hashing

  中國科學院 提出了一種深度離散雜湊演算法(discrete hashing algorithm),該演算法認為學習到的二值編碼應該也可以用於分類。 實驗結果表明該方法在基準資料集上的表現要好過目前最好的雜湊方法。 圖 1 深度離散雜湊編碼示意圖 由於網路上的影象和視訊

Self-Supervised Learning for Stereo Matching with Self-Improving Ability

首先呢,這是一個非監督演算法,因此它約束的方式就是左右一致性檢測,用warp來處理左右圖,詳見3.1。作者聲情並茂的講述自己就是不要gt。。 網路結構 五部分組成 特徵提取 交叉特徵向量融合 3D特徵匹配 soft-argmin 最後通過影象warp來做約束。 特徵提取

R2SDH: Robust Rotated Supervised Discrete Hashing

Learning-based hashing has recently received considerable attentions due to its capability of supporting efficient storage and retrieval of high-dimensiona

Akka-Cluster(5)- load-balancing with backoff-supervised stateless computation - 無狀態任務叢集節點均衡分配

   分散式程式運算是一種水平擴充套件(scale-out)運算模式,其核心思想是能夠充分利用伺服器叢集中每個伺服器節點的計算資源,包括:CPU、記憶體、硬碟、IO匯流排等。首先對計算任務進行分割,然後把細分的任務分派給各節點去運算。細分的任務相互之間可以有關聯或者各自為獨立運算

論文筆記及公式推導 《Supervised Discrete Hashing

轉載自http://jikaichen.com/2016/05/31/notes-on-sdh/,僅用作個人學習,如需刪除,請聯絡本人。 原論文提出了一種解離散雜湊問題的最優化方法,推出其閉式解。 筆者在閱讀該論文的過程中,理解公式推導的過程中遇到了一些問題,

論文翻譯:2018_Artificial Bandwidth Extension with Memory Inclusion using Semi-supervised Stacked Auto-encoders

論文地址:使用半監督堆疊式自動編碼器實現包含記憶的人工頻寬擴充套件 作者:Pramod Bachhav, Massimiliano Todisco and Nicholas Evans 部落格作者:凌逆戰 部落格地址:https://www.cnblogs.com/LXP-Never/p/1088997

(轉) Learning Deep Learning with Keras

trees create pda sse caffe latex .py encode you Learning Deep Learning with Keras Piotr Migda? - blog Projects Articles Publications Res

hihoCoder #1454 : Rikka with Tree II

return 一段 har 節點 sla include turn typedef ems Description 一個\(n\)個節點的樹,先根遍歷為\(1...n\)。已知兩個數組,一個數組表示是否是葉節點,另一個數組表示十分有右兄弟節點...‘?‘表示未知,求方案數