轉載 Recall(召回率);Precision(準確率);F1-Meature(綜合評價指標)
阿新 • • 發佈:2019-01-03
原文:http://blog.csdn.net/t710smgtwoshima/article/details/8215037
Recall(召回率);Precision(準確率);F1-Meature(綜合評價指標);
在資訊檢索(如搜尋引擎)、自然語言處理和檢測分類中經常會使用這些引數,介於語言翻譯上的原因理解難免出現誤差,下面介紹下自己對他們的理解。
首先來個定義:
Precision:被檢測出來的資訊當中 正確的或者相關的(也就是你想要的)資訊中所佔的比例;
Recall:所有正確的資訊或者相關的資訊(wanted)被檢測出來的比例。
F1-Meature後面定義。
查了資料都習慣使用四格圖來解釋,來個易懂的四格圖:
表格中的翻譯比較重要,可以幫助理解。
true positives (納真) false positives(納偽)
false negatives(去真)true negatives (去偽)
其中false positives(納偽)也通常稱作誤報,false negatives也通常稱作漏報!
Precision = tp/(tp + fp);
Recall = tp / (tp + fn).
同樣還有另外兩個定義
正確的、相關的(wanted) | 不正確的、不相關的 | ||||
|
|
|
|||
|
|
|
然而在實際當中我們當然希望檢索的結果P越高越好,R也越高越好;事實上這兩者在某些情況下是矛盾的。比如,我們只搜出了一個結果,且是準確的,那麼P就是100%,但是R就很低;而如果我們把所有結果都返回,那麼必然R是100%,但是P很低。因此在不同的場合中需要自己判斷希望P比較高還是R比較高。如果是做實驗,可以繪製Precision-Recall曲線來幫助分析。
F-Measure是Precision和Recall加權調和平均:
當引數a=1時,就是最常見的F1了:
很容易理解,F1綜合了P和R的結果,當F1較高時則比較說明實驗方法比較理想。