对于一个二分类问题:
真正例(TP):实际上是正例的数据点被标记为正例
假正例(FP):实际上是反例的数据点被标记为正例
真反例(TN):实际上是反例的数据点被标记为反例
假反例(FN):实际上是正例的数据点被标记为反例
精确率(Precision):分类模型仅仅返回相关实例的能力,Precision = TP/(TP+FP)
召回率(Recall):分类模型识别所有相关实例的能力,Recall = TP/(TP+FN)
TPR: TP/(TP+FN)
FNR: FN/(TP+FN)
TNR: TN/(TN+FP)
FPR: FP/(TN+FP)
F1 score:召回率和精确率的调和平均,F1:2*(1/(1/(Recall)+1/(Precision))),调和平均的特性是综合了召回率和精确率,并且会惩罚极端情况,这也是不选择算术平均的原因。
ROC 曲线:以假正例率(FPR)为横坐标和真正例率(TPR)为纵坐标,并将这两个指标作为模型归类正例阈值的函数,画出曲线图。
AUC:基于 ROC 曲线下方的面积,计算分类模型总体性能的指标。面积越大,模型总体性能越好。
参考文献:
https://www.jianshu.com/p/f154237924c4
https://www.jianshu.com/p/1afbda3a04ab
原文:https://www.cnblogs.com/galios/p/12484584.html