什么是wordpress网站,网站建设300,网站建设 诺德中心,帝国备份王wordpress文章目录 一. 混淆矩阵二. 准确度(Accuracy)三. 精确度(Precision)四. 召回率(Recall)五. F1-score六. P-R曲线七. AP八. mAP九. mAP0.5十. mAP[0.5:0.95] 一. 混淆矩阵
TP (True positives)#xff1a;被正确地划分为正例的个数#xff0c;即实际为正例且被分类器划分为正例… 文章目录 一. 混淆矩阵二. 准确度(Accuracy)三. 精确度(Precision)四. 召回率(Recall)五. F1-score六. P-R曲线七. AP八. mAP九. mAP0.5十. mAP[0.5:0.95] 一. 混淆矩阵
TP (True positives)被正确地划分为正例的个数即实际为正例且被分类器划分为正例的实例数样本数FP(False positives)被错误地划分为正例的个数即实际为负例但被分类器划分为正例的实例数FN(False negatives)被错误地划分为负例的个数即实际为正例但被分类器划分为负例的实例数TN(True negatives)被正确地划分为负例的个数即实际为负例且被分类器划分为负例的实例数 对于yolo系列的样本例如coco数据集有80个类别针对person类而言person类别就是正例其他79个类别就是负例针对car类而言car类别就是正例其他79个类别就是负例。
二. 准确度(Accuracy) A c c u r a c y T P T N T P T N F P F N { Accuracy }\frac{T PT N}{T PT NF PF N} AccuracyTPTNFPFNTPTN 准确率的概念很好理解就是分类正确的比例是一个非常常用的评估指标。但是准确率高并不代表分类算法就好当各个类别的样本分布很不均匀时即使准确率达到99%也没用。 举个例子如果狗的样本数为99猫的样本数都为1那么分类器只需要把结果全部置为狗就可以获得99%的正确率。所以只靠准确率来评价一个模型的优劣是不全面的。
三. 精确度(Precision) P r e c i s i o n T P T P F P { Precision }\frac{T P}{T PF P} PrecisionTPFPTP 根据定义Precision的分母是TP与FP之和TP是预测为正例真实值也为正例的个数FP是预测为正例实际为负例的个数。 分析式子可知Precision关心的是预测的正例以及真实的正例和负例。当Precision越大时FP越小此时将其他类别预测为本类别的个数也就越少可以理解为预测出的正例纯度越高。Precision越高误检越少。
例如在yolov5中100个真实框其中有50个框的类别为人50个框的类别为车
yolov5的预测结果把50个人中的47个预测为人3个预测为车把50个车中的42个预测为车8个预测为人 P r e c i s i o n T P T P F P 47 47 8 0.85 { Precision }\frac{T P}{T PF P} \frac{47}{478} 0.85 PrecisionTPFPTP478470.85
yolov5的预测结果把50个人中的47个预测为人3个预测为车把50个车中的50个预测为车0个预测为人 P r e c i s i o n T P T P F P 47 47 0 1 { Precision }\frac{T P}{T PF P} \frac{47}{470} 1 PrecisionTPFPTP470471
从上面的例子可以看出精确度更关心的是在识别的结果里有多少的负例被识别成了正例例如精确度为50%则说明识别结果里有一半的结果是将负例其他类别识别成了正例本类别
四. 召回率(Recall) R e c a l l T P T P F N { Recall }\frac{T P}{T PF N} RecallTPFNTP 根据定义Recall的分母时TP与FN之和TP是预测为正例真实值也为正例的个数FN是预测为负例实际是正例的个数。 分析式子可知Recall关心的是预测的正例和负例以及真实的正例。当Recall越大时FN越小此时将正例预测为负例的个数越少可以理解为把全部的正例挑出来的越多。Recall越高漏检越少。
例如在yolov5中100个真实框其中有50个框的类别为人50个框的类别为车
yolov5的预测结果把50个人中的47个预测为人3个预测为车把50个车中的42个预测为车8个预测为人 R e c a l l T P T P F N 47 47 3 0.94 { Recall }\frac{T P}{T PF N} \frac{47}{473} 0.94 RecallTPFNTP473470.94
yolov5的预测结果把50个人中的30个预测为人20个预测为车把50个车中的42个预测为车8个预测为人 R e c a l l T P T P F N 30 30 20 0.6 { Recall }\frac{T P}{T PF N} \frac{30}{3020} 0.6 RecallTPFNTP3020300.6
从上面的例子可以看出召回率更关心的是在识别的结果里有多少的正例被识别成了负例例如召回率为50%则说明识别结果里有一半的结果是将正例本类别识别成了负例其他类别
五. F1-score F 1 S c o r e 2 ∗ P r e c i s i o n ∗ R e c a l l P r e c i s i o n R e c a l l { F1 Score }\frac{2 * { Precision } * { Recall }}{{ Precision } { Recall }} F1ScorePrecisionRecall2∗Precision∗Recall 精确率和召回率是一对矛盾的指标因此需要放到一起综合考虑。F1-score是精确率和召回率的调和平均值。故 F 1 2 P R P R 2 T P 2 T P F P F N \mathrm{F}_{1}\frac{2 \mathrm{PR}}{\mathrm{P}\mathrm{R}}\frac{2 \mathrm{TP}}{2 \mathrm{TP}\mathrm{FP}\mathrm{FN}} F1PR2PR2TPFPFN2TP
上式是当精确率和召回率的权值都为1的情况也可以加上一个不为1的权值β F β 1 1 β 2 ( 1 P β 2 R ) ( 1 β 2 ) P R β 2 P R \mathrm{F}_{\beta}\frac{1}{1\beta^{2}}\left(\frac{1}{\mathrm{P}}\frac{\beta^{2}}{\mathrm{R}}\right)\frac{\left(1\beta^{2}\right) \mathrm{PR}}{\beta^{2} \mathrm{P}\mathrm{R}} Fβ1β21(P1Rβ2)β2PR(1β2)PR
六. P-R曲线
P-R曲线即为分别以Precision与Recall为坐标围成的曲线。不同颜色的线代表不同类别的PR曲线蓝色的粗线条表示所有类别平均的PR曲线 P-R曲线与坐标轴围成的面积可作为衡量一个模型预测结果的参考。若一个模型的P-R曲线完全将另一模型的P-R曲线包裹那么这个模型预测结果一定优于另一模型。
七. AP
AP(average precision 平均精度)虽然名为平均精度但AP的计算方法并不是计算Precision的平均值而是计算每个类别的PR曲线与坐标轴围成的面积可以用积分的方法进行计算。如果一个模型的AP越大也就是说PR曲线与坐标轴围成的面积越大Precision与Recall在整体上也相对较高。
八. mAP
mAP(mean of Average Precision) : 对所有类别的AP值求平均值。AP可以反映每个类别预测的准确率mAP就是对所有类的AP求平均值用于反映整个模型的准确率。mAP越大PR曲线与坐标轴围城的面积越大。平时我们说的某一目标检测算法的准确率达到了多少这个准确率就泛指mAP。
九. mAP0.5
在YOLO模型中你会见到mAP0.5这样的表现形式这种形式表示在IOU阈值为0.5的情况下mAP的值为多少。当预测框与标注框的IOU大于0.5时就认为这个对象预测正确在这个前提下再去计算mAP。一般来说mAP0.5即为评价YOLO模型的指标之一。
十. mAP[0.5:0.95]
YOLO模型中还存在mAP[0.5:0.95]这样一种表现形式这形式是多个IOU阈值下的mAP会在q区间[0.5,0.95]内以0.05为步长取10个IOU阈值分别计算这10个IOU阈值下的mAP再取平均值。mAP[0.5:0.95]越大表示预测框越精准因为它去取到了更多IOU阈值大的情况。