你必须了解的AI常用评估指标
一个AI模型性能的好坏,需要通过评估指标来间接地反映,因此如何选择合适的评估指标对于一个AI模型来说显得尤为重要,本文主要介绍了在不同AI任务当中常见的几个评价指标。
一、分类任务
1.混淆矩阵
混淆矩阵(Confusion Matrix)是在分类问题中用于评估模型性能的表格,它展示了模型在测试数据集上的预测结果与实际标签之间的关系。混淆矩阵是一个二维的表格,其中包含以下四个重要的指标:
(1)真正例(True Positive,TP):模型正确地将正类别样本预测为正类别。
(2)真负例(True Negative,TN):模型正确地将负类别样本预测为负类别。
(3)假正例(False Positive,FP):模型将负类别样本错误地预测为正类别。
(4)假负例(False Negative,FN):模型将正类别样本错误地预测为负类别。
2. 准确度(Accuracy):
模型正确预测的样本占总样本数的比例,计算方法为 :
3. 精确度(Precision):
正类别的预测正确率,计算方法为:
4. 召回率(Recall):
正类别样本被正确预测的比例,计算方法为:
5. F1 分数(F1-Score):
精确度和召回率的调和平均值,计算方法为 :
6.ROC曲线:
ROC 曲线描述了在不同分类阈值下真正例率(True Positive Rate,又称为召回率)和假正例率(False Positive Rate)之间的权衡关系。
7.AUC:
AUC 表示 ROC 曲线下的面积,取值范围在 0 到 1 之间。AUC 值越高,说明模型在不同分类阈值下的性能越好。完美分类器的 AUC 为 1,随机分类器的 AUC 约为 0.5。AUC 可以理解为在随机选择一个正例和一个负例的情况下,模型正确预测正例的概率高于正确预测负例的概率的程度。因此,AUC 提供了对模型整体性能的综合评估。
8.PR曲线:
PR 曲线(Precision-Recall Curve)是用于评估二分类问题性能的一种图形工具。与 ROC 曲线关注真正例率(True Positive Rate)和假正例率(False Positive Rate)不同,PR 曲线关注的是精确率(Precision)和召回率(Recall)之间的权衡关系。
PR 曲线可以帮助评估模型在不同分类阈值下的性能。曲线越靠近右上角,说明模型在保持高精确率的同时能够获得较高的召回率,即在正例样本中尽可能多地识别为正例。
二、回归任务
在回归问题中,常见的模型评估指标包括以下几个:
1. 均方误差(Mean Squared Error,MSE):
计算预测值与实际值之间的平方差的平均值,MSE 越小越好,其计算公式为:
2. 均方根误差(Root Mean Squared Error,RMSE):
是均方误差的平方根,用于提供与实际值相同的度量单位,RMSE 越小越好,其计算公式为:
3. 平均绝对误差(Mean Absolute Error,MAE):
计算预测值与实际值之间的绝对差的平均值,MAE 越小越好,其计算公式为:
4. R 2分数(R-squared):
R2分数用于表示模型解释方差的比例,取值范围是[-1,1],R2的值越接近1,说明模型的拟合能力越好,其详细的计算公式如下:
式中,表示实际的均值。