Common machine learning evaluation metrics

Introduction

當評估機器學習模型時,常見的指標可以用簡單的方式解釋:
這些指標可以幫助了解模型在不同問題類型中的表現,從而選擇最適合的模型以及改進模型效能。

Classification(分類):

  1. Accuracy(準確率):
    準確率是指預測正確的樣本數佔總樣本數的比例。這是最常見的評估指標,但在不平衡的資料集中可能會給出誤導性的結果,特別是當類別之間的分佈不均勻時。

  2. Precision(精確率):
    精確率是指所有被預測為正例中,實際為正例的比例。它衡量了模型正確預測正例的能力,避免了將負例錯誤預測為正例的情況。

  3. Recall(召回率):
    召回率是指所有實際正例中,被正確預測為正例的比例。它評估了模型發現所有正例的能力,避免了將正例錯誤預測為負例的情況。

  4. F1 Score(F1 分數):
    F1 分數是精確率和召回率的調和平均值。它提供了模型綜合考慮精確性和全面性的一個指標,對於不平衡類別或需要平衡兩者的情況特別有用。

  5. ROC-AUC(接收者操作特徵曲線下面積):
    ROC 曲線是以真正例率(True Positive Rate)為縱軸,偽正例率(False Positive Rate)為橫軸的曲線。ROC-AUC 衡量了模型在不同閾值下真正例率和偽正例率之間的表現。AUC 值越高,表示模型在不同閾值下的分類性能越好。

Regression(回歸):

  1. SSE(Sum of Squared Errors,平方誤差和): SSE 是回歸模型預測值與實際觀測值之間差異的平方總和。數值越小代表模型預測與實際值越接近。

  2. MSE(Mean Squared Error,均方誤差): MSE 是平方誤差的平均值,計算方式是將每個預測值與對應實際觀測值的差異平方後求平均。數值越小表示模型的預測誤差越低。

  3. RMSE(Root Mean Squared Error,均方根誤差): RMSE 是 MSE 的平方根,與目標變量相同的度量單位。RMSE 通常用來量化模型的預測誤差,數值越小表示模型預測效果越好。

  4. MAE(Mean Absolute Error,平均絕對誤差): MAE 是絕對誤差的平均值,即預測值與實際觀測值之間的差異的絕對值的平均。MAE 量化了模型預測的平均絕對誤差,與MSE不同,它對大誤差和小誤差的處理相對平均。

  5. R-squared(R平方,決定係數): R平方是用來評估回歸模型的解釋能力,表示模型可以解釋目標變量變異性的比例。其值範圍從0到1,越接近1代表模型越能解釋目標變量的變異,越接近0代表模型解釋能力較差。

Clustering(聚類):

Silhouette Coefficient(輪廓係數)
Davies-Bouldin Index(戴維斯-布林指數)
Calinski-Harabasz Index(卡林斯基-哈拉巴斯指數)

Other Common Metrics:

Mean Squared Logarithmic Error(均方對數誤差)
Cohen’s Kappa(Cohen’s Kappa 係數)
Mean Average Precision(平均平均精度)
Explained Variance Score(解釋變異分數)