美文网首页和大叔走大数据应用之路
性能评估之PR曲线与ROC曲线

性能评估之PR曲线与ROC曲线

作者: LiBiscuit | 来源:发表于2019-07-14 10:36 被阅读0次

冒泡!又是周末啦~小李上线啦!放假瘫在家里做咸鱼真的好快落诶,但也要坚持输出。今天主要叙述在二分类问题中性能评估的两个曲线。
————————————————————

PR曲线

PR曲线实则是以precision(精准率)和recall(召回率)这两个为变量而做出的曲线,其中recall为横坐标,precision为纵坐标。
那么问题来了,什么是精准率?什么是召回率?这里先做一个解释。
在二分类问题中,分类器将一个实例的分类标记为是或否,可以用一个混淆矩阵来表示,如下图所示。

注:把正例正确地分类为正例,表示为TP(true positive),把正例错误地分类为负例,表示为FN(false negative)。
把负例正确地分类为负例,表示为TN(true negative), 把负例错误地分类为正例,表示为FP(false positive)。

【举个栗子:A是只猫(正例),B是只仓鼠(负例),A在二分类中被划分为猫则为TP,被划分为仓鼠则为FN。B在二分类中被划分为仓鼠则为TN,被划分为猫则为。】
从混淆矩阵可以得出精准率与召回率:precision = TP/(TP + FP), recall = TP/(TP +FN)(注意:分子相同。)

接下来补充一个重点:
一条PR曲线要对应一个阈值。通过选择合适的阈值,比如50%,对样本进行划分,概率大于50%的就认为是正例,小于50%的就是负例,从而计算相应的精准率和召回率。

举个例子如下:(true这列表示正例或者负例,hyp这列表示阈值0.5的情况下,概率是否大于0.5)

那么根据这个表格我们可以计算:TP=6,FN=0,FP=2,TN=2。故recall=6/(6+0)=1,precison=6/(6+2)=0.75,那么得出坐标(1,0.75)。同理得到不同阈下的坐标,即可绘制出曲线。
PR曲线如下: 如果一个学习器的P-R曲线被另一个学习器的P-R曲线完全包住,则可断言后者的性能优于前者,例如上面的A和B优于学习器C。但是A和B的性能无法直接判断,我们可以根据曲线下方的面积大小来进行比较,但更常用的是平衡点或者是F1值。平衡点(BEP)是P=R时的取值,如果这个值较大,则说明学习器的性能较好。而F1 = 2 * P * R /( P + R ),同样,F1值越大,我们可以认为该学习器的性能较好。
部分资料参考:二战周志华《机器学习》-PR曲线和ROC曲线
P-R曲线深入理解

ROC曲线

有了前面的PR的铺垫,ROC曲线就会更好理解了。
在ROC曲线中,横轴是假正例率(FPR),纵轴是真正例率(TPR)。
(1)真正类率(True Postive Rate)TPR: TP/(TP+FN),代表分类器预测的正类中实际正实例占所有正实例的比例。
(2)负正类率(False Postive Rate)FPR: FP/(FP+TN),代表分类器预测的正类中实际负实例占所有负实例的比例。

我们可以发现:TPR=Recall。
ROC曲线也需要相应的阈值才可以进行绘制,原理同上的PR曲线。

下图为ROC曲线示意图,因现实任务中通常利用有限个测试样例来绘制ROC图,因此应为无法产生光滑曲线,如右图所示。

绘图过程:给定m个正例子,n个反例子,根据学习器预测结果进行排序,先把分类阈值设为最大,使得所有例子均预测为反例,此时TPR和FPR均为0,在(0,0)处标记一个点,再将分类阈值依次设为每个样例的预测值,即依次将每个例子划分为正例。设前一个坐标为(x,y),若当前为真正例,对应标记点为(x,y+1/m),若当前为假正例,则标记点为(x+1/n,y),然后依次连接各点。

ROC曲线图中的四个点
第一个点:(0,1),即FPR=0, TPR=1,这意味着FN=0,并且FP=0。这是完美的分类器,它将所有的样本都正确分类。
第二个点:(1,0),即FPR=1,TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。
第三个点:(0,0),即FPR=TPR=0,即FP=TP=0,可以发现该分类器预测所有的样本都为负样本(negative)。
第四个点:(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,ROC曲线越接近左上角,该分类器的性能越好。

一个对比:
AUC

这里补充一下AUC的简单介绍。
AUC (Area under Curve):ROC曲线下的面积,介于0.1和1之间,作为数值可以直观的评价分类器的好坏,值越大越好。
AUC = 1,是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器。
0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值

其余参考:全面了解ROC曲线
ROC曲线和PR(Precision-Recall)曲线的联系


Ending~迷迷糊糊恍恍惚惚结束了今日搬运!
大家周末愉快!

相关文章

  • 性能评估之PR曲线与ROC曲线

    冒泡!又是周末啦~小李上线啦!放假瘫在家里做咸鱼真的好快落诶,但也要坚持输出。今天主要叙述在二分类问题中性能评估的...

  • PR曲线和F1、ROC曲线和AUC

    PR曲线和F1、ROC曲线和AUC ROC曲线越靠近左上角的位置模型效果越好(高真阳性率,低假阳性率),ROC曲线...

  • ROC PR曲线

    推荐看这里 ROC 曲线指受试者工作特征曲线(receiver operating characteristic ...

  • ROC曲线和PR曲线

    之前有篇文章返修的时候审稿人就问了这样一个问题:为什么使用ROC曲线而不考虑PR曲线,有没有尝试过其它方法进行分类...

  • ROC曲线和PR曲线

    1. 什么是ROC曲线 接受者操作特性曲线(receiver operating characteristic c...

  • pROC包学习

    ROC曲线 > 我们在做诊断性实验的时候,最常用的选择最佳cutoff的方法是使用ROC曲线。本次主要介绍的是pR...

  • 西瓜书

    1.模型评估与选择 1.1 ROC与AUC ROC的横轴为真正例率TPR,纵轴为假正例率FPR定义为:,ROC曲线...

  • ROC曲线及其应用

    一、ROC曲线分析 ROC(ReceiverOperatingCharacteristic,受试者工作特征)曲线分...

  • 机器学习评估指标02

    OC曲线与AUC值 ROC曲线绘制方法与AUC值计算方法 除了F1-Score以外,还有一类指标也可以很好的评估模...

  • ROC曲线

    ROC曲线,ROC曲线是一个概率曲线,曲线下面的面积(AUC, area of under curve)用于表明分...

网友评论

    本文标题:性能评估之PR曲线与ROC曲线

    本文链接:https://www.haomeiwen.com/subject/eafbkctx.html