分类评估:正确率、错误率、精度、召回率
分类算法一般有下面几种评估方法:
True Positives(TP):实际为正例且被分类器分为正例的个数
False Positives(FP):实际为负例且被分类器分为正例的个数
False Negatives(FN):实际为正例且被分类器分为负例的个数
True Negatives(TN):实际为负例且被分类器分为负例的个数
TP + FN = P:实际的正例个数
FP + TN = N:实际的负例个数
正确率(accuracy): accuracy = (TP + TN)/(P + N)
分类正确的个数除以总的样本数
错误率(error rate): error_rate = (FP + FN)/(P + N) = 1 - accuracy
分类错误的个数除以总的样本数
查准率/精度(precision): precision = TP/(TP + FP)
正确分为正例的个数除以正确分为正例和错误分为正例的个数之和
预测出正例的有多少正确的
查全率/召回率(recall): recall = TP/(TP + FN) = TP/P
正确分为正例的个数除以正例的总数,也称之为灵敏度(sensitive)
预测正确的正例占总正例的比例
一般情况下,在一定正确率前提下,要求分类器的召回率尽量高。
此外还有特效度(specificity):specificity = TN/N,正确分为负例的个数除以负例的总数
综合分类率: F 1 = 2 × p r e c i s i o n × r e c a l l p r e c i s i o n + r e c a l l F_1=\frac{2\times precision\times recall}{precision + recall} F1=precision+recall2×precision×recall
[1] 李航. 统计学习方法[M]. 北京:清华大学出版社, 2012.
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
