Cómo seleccionar la métrica de evaluación correcta para los modelos de aprendizaje automático

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Rocket clouds
Cómo seleccionar la métrica de evaluación correcta para los modelos de aprendizaje automático por Mind Map: Cómo seleccionar la métrica de evaluación correcta para los modelos de aprendizaje automático

1. Error cuadrático medio (MSE)

1.1. básicamente mide el error cuadrado promedio de nuestras predicciones. Para cada punto, calcula la diferencia cuadrada entre las predicciones y el objetivo y luego promedia esos valores.

1.2. Ventaja: útil si tenemos valores inesperados que nos deberían interesar. Muy alto o bajo valor que debemos prestar atención.

1.3. Desventaja: si hacemos una predicción muy mala, la cuadratura empeorará aún más el error y puede sesgar la métrica para sobreestimar la maldad del modelo.

2. Error cuadrático medio (RMSE)

2.1. es solo la raíz cuadrada de MSE. La raíz cuadrada se introduce para hacer que la escala de los errores sea igual a la escala de los objetivos.

2.1.1. si la métrica objetivo es RMSE, aún podemos comparar nuestros modelos utilizando MSE, ya que MSE ordenará los modelos de la misma manera que RMSE

3. Error absoluto medio (MAE)

3.1. el error se calcula como un promedio de diferencias absolutas entre los valores objetivo y las predicciones

3.1.1. es una puntuación lineal, lo que significa que todas las diferencias individuales se ponderan por igual en el promedio

3.1.2. penaliza errores enormes que no tan mal como lo hace MSE

4. R al cuadrado (R²)

4.1. medida que podemos usar para evaluar un modelo y está estrechamente relacionada con la MSE

4.1.1. Error común

4.1.1.1. indican que el rango de R² se encuentra entre 0 y 1, lo que no es realmente cierto. El valor máximo de R² es 1, pero el mínimo puede ser menos infinito.

4.2. R² es la proporción entre lo bueno que es nuestro modelo y lo bueno que es el modelo medio ingenuo.

5. MAE vs MSE

5.1. Declaré que el MAE es más robusto (menos sensible a los valores atípicos) que el MSE, pero esto no significa que siempre sea mejor usar el MAE

6. R cuadrado ajustado (R²)

6.1. R² muestra qué tan bien los términos (puntos de datos) se ajustan a una curva o línea.

6.2. El R² ajustado le indica el porcentaje de variación explicado solo por las variables independientes que realmente afectan la variable dependiente.

6.3. Problemas con R² que se corrigen con un R² ajustado

6.3.1. R² aumenta con cada predictor agregado a un modelo

6.3.2. si su modelo tiene demasiados términos y demasiados polinomios de alto orden, puede encontrar el problema de sobre-ajustar los datos

7. Error de porcentaje cuadrático medio (MSPE)

7.1. El peso de su muestra es inversamente proporcional a su cuadrado objetivo.

7.2. las predicciones constantes óptimas para MSPE resultan ser la media ponderada de los valores objetivo.

8. Error porcentual absoluto medio (MAPE)

8.1. Para MAPE, el peso de su muestra es inversamente proporcional a su objetivo

8.2. las predicciones constantes óptimas para MAPE resultan ser la mediana ponderada de los valores objetivo.

9. Error logarítmico cuadrático medio (RMSLE)

9.1. Es solo un RMSE calculado en escala logarítmica

10. Confusion Matrix

10.1. Confusión o error Matrix es una tabla que describe el rendimiento de un modelo supervisado de Machine Learning en los datos de prueba

10.2. True Positives (TP): cuando la clase real del punto de datos era 1 (Verdadero) y la predicha es también 1 (Verdadero) Verdaderos Negativos (TN): cuando la clase real del punto de datos fue 0 (Falso) y el pronosticado también es 0 (Falso). False Positives (FP): cuando la clase real del punto de datos era 0 (False) y el pronosticado es 1 (True). False Negatives (FN): Cuando la clase real del punto de datos era 1 (Verdadero) y el valor predicho es 0 (Falso).

11. Precisión

11.1. Es el porcentaje total de elementos clasificados correctamente.

12. Otras dos matrices que casi nunca se usan

12.1. 1. Tasa de falso positivo o Error tipo I: Número de elementos identificados erróneamente como positivos de total negativos verdaderos- FP / ( FP + TN) 2. Tasa falso negativo o error de tipo II: Número de elementos identificados erróneamente como s negativo del total de verdaderos positivos: FN / (FN + TP)