NDCG評價指標講解
Normalized Discounted Cumulative Gain,即NDCG,常用於作為對rank的評價指標,當我們通過模型得出某些元素的ranking的時候,便可以通過NDCG來測評這個rank的準確度,同樣的演算法還包括MAP,MRR等,這裡只講解NDCG。
我們通過一個例項來說明一下這個NDCG的用法
id | 1 | 2 | 3 | 4 | 5 |
模型評分 | 1.2 | 0.7 | 0.1 | 0.2 | 4.0 |
按模型評分排序(i) | 2 | 3 | 5 | 4 | 1 |
r(l) | 2 | 1 | 0 | 0 | 0 |
按Gain排序(j) | 1 | 2 | 3 | 3 | 3 |
我們首先通過i來計算出DCG值為2.39278,按照j來計算出iDCG的值為3,6309
最後通過公式1計算出NDCG為0.65
相關推薦
NDCG評價指標講解
Normalized Discounted Cumulative Gain,即NDCG,常用於作為對rank的評價指標,當我們通過模型得出某些元素的ranking的時候,便可以通過NDCG來測評這個r
詳細講解準確率、召回率和綜合評價指標
質量 .com http all strong average 均值 比例 har 為了對實驗結果進行評價,用到準確率、召回率和F值,下面對此進行詳細介紹。 1、準確率與召回率(Precision & Recall) 準確率和召回率是廣泛用於信息檢索和統計學分類領
搜尋評價指標——NDCG
概念 NDCG,Normalized Discounted cumulative gain 直接翻譯為歸一化折損累計增益,可能有些晦澀,沒關係下面重點來解釋一下這個評價指標。這個指標通常是用來
資訊檢索評價指標NDCG、a-NDCG
PAMM中使用的檢索多樣性的評估方法為:。 在NDCG中,文件的相關度可以分為多個等級進行打分。 (1)CG(Cumulative Gain): 表示前p個位置累計得到的效益,公式為: 其中rel表示第i個文件的相關等級,如2表示非常相關,1表示相關,
資訊檢索常用的評價指標整理 MAP nDCG ERR F-measure Precision Recall
相關文獻: learning to rank : https://en.wikipedia.org/wiki/Learning_to_rank#cite_note-13 MRR: https://en.wikipedia.org/wiki/Mean_reciprocal_rank
Learning to Rank for IR的評價指標—MAP,NDCG,MRR
MAP(Mean Average Precision):單個主題的平均準確率是每篇相關文件檢索出後的準確率的平均值。主集合的平均準確率(MAP)是每個主題的平均準確率的平均值。MAP 是反映系統在全部相關文件上效能的單值指標。系統檢索出來的相關文件越靠前(rank 越高),MAP就可能越高。如果系統沒有返回相
IR的評價指標—MAP,NDCG,MRR
轉載自:http://www.cnblogs.com/eyeszjwang/articles/2368087.html MAP(Mean Average Precision):單個主題的平均準確率是每篇相關文件檢索出後的準確率的平均值。主集合的平均準確率(MAP)是每個主題的平均準確率的平均值。MAP 是反
資訊檢索中常用的評價指標:MAP,nDCG,ERR,F-measure
知識點文字檢索常用的評價指標:MAP、nDCG、ERR、F-score/F-measure以及附加的Precision、Recall、AveP、CG、DCG、IDCG、MRR、cascade models 而ROC曲線及其度量指標AUC主要用於分類和識別 一
learning to rank 評價指標 MAP NDCG
MAP(Mean average precision):評價一個rank方法效能的一個指標,現在有很多query,首先看rank方法對各個query來說效能分別是怎麼樣的(也就是AP),再平均起來,就是MAP。AP怎麼算那?舉個例子,現有一個query,與之相關的文件有
IR的評價指標-MAP,NDCG和MRR
Map:相關性,1 or 0,計算排序後rank值 NDCG: 設定相關性等級(2^5-1, 2^4-1…) 計算累計增益值(嗯,就累加起來) 計算折算因子log(2)/log(1+rank) (越靠前的,越容易被點選) 歸一化到NDCG,為了不同等級上的搜
[轉載] 資訊檢索常用的評價指標(MAP,NDCG,ERR)
一、MAP Precision(p): 準確率(精確度)是指檢索得到的文件中相關文件所佔的比例,公式如下:precision=|{relevantdocuments}∩{retrieveddocuments}||{retrieveddocume
機器翻譯評價指標
兩個 如同 absolute nor pre ring block 解決 blog 評價機器學習系統是的指標同樣適用於圖像或者視頻描述領域。BELU、Meteor、ROUGE、CIDEr和SPICE。前兩個是評測機器翻譯的,第三個是評測自動摘要的,最後兩個應該是為capti
聚類模型性能評價指標
art tps images 性能 一個 不同類 不能 順序 png 有監督的分類算法的評價指標通常是accuracy, precision, recall, etc;由於聚類算法是無監督的學習算法,評價指標則沒有那麽簡單了。因為聚類算法得到的類別實際上不能說明任何問題,除
scikit-learn中評價指標
style 說明 回歸 對比 kit 擬合 size 例如 因變量 一、R2 決定系數(擬合優度) 它是表征回歸方程在多大程度上解釋了因變量的變化,或者說方程對觀測值的擬合程度如何。 因為如果單純用殘差平方和會受到你因變量和自變量絕對值大小的影響,不利於在不同模型之間進
Python機器學習:6.6 不同的性能評價指標
learning 分享 混淆矩陣 sklearn fusion 性能 www. onf 準確率 在前面幾個章節,我們一直使用準確率(accuracy)來評價模型的性能,通常這是一個不錯的選擇。除此之外,還有不少評價指標哦,比如查準率(precision)、查全率(recal
顯著性檢測(saliency detection)評價指標之KL散度距離Matlab代碼實現
mean enc gray SM tla function cor 代碼 ati 步驟1:先定義KLdiv函數: function score = KLdiv(saliencyMap, fixationMap) % saliencyMap is the saliency
多分類評價指標python代碼
onf labels cores 允許 car matrix true 工具 估計 from sklearn.metrics import precision_score,recall_score print (precision_score(y_true, y_score
機器學習面試--算法評價指標
匹配 預測 src 數據挖掘 學習 關系 目標 mina abs 機器學習分為三個階段: 第一階段:學習模型。采用學習算法,通過對訓練集進行歸納學習得到分類模型; 第二階段:測試模型。將已經學習得到的分類模型用於測試集,對測試集中未知類別的實例進行分類。 第三階
目標檢測評價指標
codec pre 類目 技術 detail math 算法 圖片 結果 召回率(Recall),精確率(Precision),平均正確率(AP),交除並(IoU) 詳見https://blog.csdn.net/syoung9029/article/details/562
【機器學習】機器學習分類器模型評價指標 機器學習分類器模型評價指標
機器學習分類器模型評價指標 分類器評價指標主要有: 1,Accuracy 2,Precision 3,Recall 4,F1 score 5,ROC 曲線