1. 程式人生 > >論文筆記及公式推導 《Supervised Discrete Hashing》

論文筆記及公式推導 《Supervised Discrete Hashing》

轉載自http://jikaichen.com/2016/05/31/notes-on-sdh/,僅用作個人學習,如需刪除,請聯絡本人。

原論文提出了一種解離散雜湊問題的最優化方法,推出其閉式解。
筆者在閱讀該論文的過程中,理解公式推導的過程中遇到了一些問題,現在將論文公式推導的詳細內容記錄於此。

定義最優化問題

對於nn個樣本的資料集X=xiniX=xiin, 我們要將其每個樣本編碼成 LL位的二進位制碼, B=bini1,1L×nB=biin∈−1,1L×n,即

xibi1,1L

一般做雜湊問題需要利用類別資訊,現定義一個線性多分類模型

y
=G(b)=Wb=[w1b,,wCb]

其中 wkRL×1wk∈RL×1 是第 kk 類的引數向量,總共有C個類,y是各個類別的啟用值,最大值對應的類標即為該樣本所屬的類標。

定義 Problem(1) 如下:

minB,W,Fi=1nL(yi,Wbi+λW2s.t.bi=sgn(F(xi)),i=1,,n..
其中

相關推薦

論文筆記公式推導Supervised Discrete Hashing

轉載自http://jikaichen.com/2016/05/31/notes-on-sdh/,僅用作個人學習,如需刪除,請聯絡本人。 原論文提出了一種解離散雜湊問題的最優化方法,推出其閉式解。 筆者在閱讀該論文的過程中,理解公式推導的過程中遇到了一些問題,

Focal Loss 論文理解公式推導

作者: Tsung-Yi, Lin, Priya Goyal, Ross Girshick, Kaiming He, Piotr Dollar 團隊: FAIR 精度最高的目標檢測器往往基於 RCNN 的 two-stage 方法,對候選目標位置再採用

中科院NIPS 2017論文提出深度離散雜湊演算法,可用於影象檢索:Deep Supervised Discrete Hashing

  中國科學院 提出了一種深度離散雜湊演算法(discrete hashing algorithm),該演算法認為學習到的二值編碼應該也可以用於分類。 實驗結果表明該方法在基準資料集上的表現要好過目前最好的雜湊方法。 圖 1 深度離散雜湊編碼示意圖 由於網路上的影象和視訊

反向傳播算法(過程公式推導

不能 簡化 會有 geo 之前 代碼 求和 不同 eof 一、反向傳播的由來 在我們開始DL的研究之前,需要把ANN—人工神經元網絡以及bp算法做一個簡單解釋。關於ANN的結構,我不再多說,網上有大量的學習資料,主要就是搞清一些名詞:輸入層/輸入神經元,輸出層/輸出神經元,

原始GAN論文筆記TensorFlow實現

Welcome To My Blog 引言 在GAN誕生之前,比起生成模型而言,判別模型更受關注,比如Alex Net,VGG,Google Net,因為典型的生成模型往往具有原理複雜,推導複雜,實現複雜的特點 對於生成模型而言,通常有兩種建模方式

傅立葉變換概念公式推導

傅立葉變換(FT) 傅立葉變換的目的是可將時域(即時間域)上的訊號轉變為頻域(即頻率域)上的訊號,隨著域的不同,對同一個事物的瞭解角度也就隨之改變,因此在時域中某些不好處理的地方,在頻域就可以較為簡單的處理。 傅立葉變換公式:

Logistic迴歸原理公式推導

Logistic迴歸為概率型非線性迴歸模型,是研究二分類觀察結果與一些影響因素之間關係的一種多變量分析方法。通常的問題是,研究某些因素條件下某個結果是否發生,比如醫學中根據病人的一些症狀來判斷它是否患有某種病。   在講解Logistic迴歸理論之前,我們先從LR分類器說起。LR分類器

卡爾曼濾波基本原理公式推導

一、卡爾曼濾波基本原理 既然是濾波,那肯定就是一種提純資料的東西。怎麼理解呢,如果現在有一個任務,需要知道家裡橘子樹今年長了多少個橘子。你想到去年、前年、大前年這三年你把橘子吃到過年,按每天吃3個來算,大概知道每年橘子樹產了多少橘子,今年的情況應該也差不多。這叫數學模型預測法;不過你懶得去想去年

FFM原理公式推導

上一篇講了FM(Factorization Machines),今天說一說FFM(Field-aware Factorization Machines )。 回顧一下FM: \begin{equation}\hat{y}=w_0+\sum_{i=1}^n{w_ix_i}+\sum_{i=1}^n{\sum

R2SDH: Robust Rotated Supervised Discrete Hashing

Learning-based hashing has recently received considerable attentions due to its capability of supporting efficient storage and retrieval of high-dimensiona

交叉熵代價函式(作用公式推導

        交叉熵代價函式(Cross-entropy cost function)是用來衡量人工神經網路(ANN)的預測值與實際值的一種方式。與二次代價函式相比,它能更有效地促進ANN的訓練。

反向傳播演算法(過程公式推導

反向傳播演算法(Backpropagation)是目前用來訓練人工神經網路(Artificial Neural Network,ANN)的最常用且最有效的演算法。其主要思想是: (1)將訓練集資料輸入到ANN的輸入層,經過隱藏層,最後達到輸出層並輸出結果,這是ANN的前向傳

交叉熵代價函式(作用公式推導

交叉熵代價函式(Cross-entropy cost function)是用來衡量人工神經網路(ANN)的預測值與實際值的一種方式。與二次代價函式相比,它能更有效地促進ANN的訓練。在介紹交叉熵代價函式之前,本文先簡要介紹二次代價函式,以及其存在的不足。 1. 二次

最小二乘與交叉熵代價函式的區別(作用公式推導

 交叉熵代價函式(Cross-entropy cost function)是用來衡量人工神經網路(ANN)的預測值與實際值的一種方式。與二次代價函式相比,它能更有效地促進ANN的訓練。在介紹交叉熵代價函式之前,本文先簡要介紹二次代價函式,以及其存在的不足。 1. 二次代

資料探勘入門系列教程(十點五)之DNN介紹公式推導

## 深度神經網路(DNN,Deep Neural Networks)簡介 首先讓我們先回想起在之前部落格([資料探勘入門系列教程(七點五)之神經網路介紹](https://www.cnblogs.com/xiaohuiduan/p/12623925.html))中介紹的神經網路:為了解決M-P模型中無法處

熵,條件熵,相對熵,互資訊的相關定義公式推導

熵,條件熵,相對熵,互資訊的相關定義及公式推導 熵是隨機變數不確定性的度量,不確定性越大,熵值越大,若隨機變數退化成定值,熵為0,均勻分佈是最不確定的分佈。熵其實定義了一個函式(概率分佈函式)到一個值(資訊熵)的對映。熵的定義公式如下:       在經典熵的定義中,底數是2

二維空間點到直線垂足計算公式推導Java實現——學習筆記

二維空間點到直線垂足計算公式推導及Java實現前言公式推導程式碼實現畫蛇添足 前言 簡單的公式推導,大概是高中程度的知識了。不管以前學的好不好,很久不用的東西,一上手還是有點懵的。推導一遍也是為了加深記憶。 公式推導 首先我們知道直線上兩點p1,p2: p1:(

Semi-supervised Segmentation of Optic Cup in Retinal Fundus Images Using Variational Autoencoder 論文筆記

str 很好 流程 Coding 測試 eat www tin nal MICCAI 2017年論文 Overview: 視杯視盤精確分割後,就可以計算杯盤比了,杯盤比是青光眼疾病的主要manifestation。以往的方法往往采用監督學習的方法,這樣需要大量的精確像素

SVM公式推導筆記

svm width org sin .org 參考資料 zhang www http 參考資料: 對偶函數-http://blog.pluskid.org/?p=702 KTT和拉格朗日乘子-http://www.cnblogs.com/zhangchaoyan

[CVPR 2016] Weakly Supervised Deep Detection Networks論文筆記

del found score feature 圖片 http spl span 根據 p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 13.0px "Helvetica Neue"; color: #323333 } p.p2