P,R,F1 等性能度量(二分類、多分類)


總結自《機器學習》周志華 2.3

目錄

最常用的是查准率P(precision),查全率R(recall),F1

一、對於二分類問題

二、對於多分類問題

1.macro

2.micro



最常用的是查准率P(precision),查全率R(recall),F1

一、對於二分類問題

混淆矩陣(confusion matrix):
 

  預測結果   
真實情況 正例  反例 
正例  TP,true positive,真正 FN,false negative 假反
反例  FP ,false positive,假正 TN,true negative 真反

P = \frac{TP}{TP+FP}      查准率=真正 / (真正+假正) = predicted and true positive/ predicted positive

R= \frac{TP}{TP+FN}   查全率= 真正 /(真正+假反) = predicted and true positive/ true positive

P , R是一對矛盾的度量,一般一個的值高了,另一個的值就會降低,

P-R圖:

若學習器A的 P-R曲線 將學習器B的 P-R曲線 完全包住,則學習器A 在該問題上 優於 B

若A B的P-R曲線有交叉, 則比較P-R曲線下面積的大小,越大越好

 

平衡點 break even point BEP,是P==R 時的取值

F值度量:

F1=\frac{2\times P\times R}{P+R}                                F1=\frac{2\times TP}{n+TP-TN}    ,n為樣例總數

F_{\beta }=\frac{(1+\beta^{2})\times P\times R}{(\beta^{2}\times P)+R}          β>1,R有更大影響,β<1,P有更大影響

 

二、對於多分類問題

多分類問題,每兩兩類別組合,構成n個二分類問題,每個二分類問題對應一個混淆矩陣

1.macro

先在各個混淆矩陣上分別計算P,R, 再求平均得到 宏查准率macro-P, 宏查全率macro-R,

基於宏查准率macro-P, 宏查全率macro-R,計算 宏F1 macro-F1

macro-P=\frac{1}{n}\sum_{i=1}^{n}P_i             macro-R=\frac{1}{n}\sum_{i=1}^{n}R_i

marco-F1=\frac{2\times macroP\times macroR}{marcoP+marcoR}

2.micro

將各個混淆矩陣的對應元素進行平均,得到TP,FP,TN,FN的平均值:\overline{TP} , \overline{FP}, \overline{TN}, \overline{FN}

micro-P=\frac{\overline{TP}}{\overline{TP}+\overline{FP}}      micro-R=\frac{\overline{TP}}{\overline{TP}+\overline{FN}}

micro-F1=\frac{2\times microP\times microR }{microP+microR}

 

轉載:https://blog.csdn.net/k411797905/article/details/89735604#%E6%9C%80%E5%B8%B8%E7%94%A8%E7%9A%84%E6%98%AF%E6%9F%A5%E5%87%86%E7%8E%87P%EF%BC%88precision%EF%BC%89%EF%BC%8C%E6%9F%A5%E5%85%A8%E7%8E%87R%EF%BC%88recall%EF%BC%89%EF%BC%8CF1
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM