How to select the Right Evaluation Metric for Machine Learning Models

Get Started. It's Free
or sign up with your email address
Rocket clouds
How to select the Right Evaluation Metric for Machine Learning Models by Mind Map: How to select the Right Evaluation Metric for Machine Learning Models

1. Root Mean Squared Error (RMSE)

1.1. Es la raíz cuadrada del MSE.

1.1.1. Ambos son similares pues al minimizar el MSE de igual forma se minimiza el RMSE, pues no varían en cantidades y viceversa.

2. Mean Squared Error (MSE)

2.1. La evaluación más común y simple pero, de la misma forma la menos útil

2.1.1. Este modelo solo es útil en caso de tener valores inesperados que sean de importancia al considerarlos

2.1.2. si ingresamos datos de los que no estamos totalmente seguros, aún con un modelo perfecto, podemos tener un MSE alto y no podríamos evaluar de manera acertada el desempeño del modelo.

3. Métricas de regresión

4. Mean Absolute Error (MAE)

4.1. Mide las diferencias entre dos variables continuas.

4.1.1. El error de los modelos es calculado por un aproximado de las diferencias entre los valores y predicciones

5. R Squared (R²)

5.1. Sirve para evaluar modelos sin necesidad de una escala, pues R2 siempre irá de - ∞ a 1.

6. Adjusted R Squared (R²

6.1. indica el porcentaje de variación de variables independientes que si causan un efecto en la variable dependiente.

7. Mean Square Percentage Error (MSPE)

7.1. cada error absoluto es dividido por el valor esperado, obteniendo como resultado un error relativo.

8. Mean Absolute Percentage Error (MAPE)

8.1. el error absoluto es dividido entre el valor esperado, obteniendo el valor relativo. Es comúnmente utilizado por sus intuitivas interpretaciones en términos de errores relativos

9. Root Mean Squared Logarithmic Error (RMSLE)

9.1. se añade una constante a las predicciones y a los objetivos antes de aplicar una operación logarítmica.

10. Clasificación

11. Matriz de confusión o error

11.1. Es una tabla que presenta el funcionamiento de un modelo que es supervisado en los datos de puebla, en donde no se conocen los valores verdaderos.

12. Precisión

12.1. determina el porcentaje total de los elementos clasificados correctamente; a pesar de no ser apropiado para todos los casos, es comúnmente utilizado debido a ser muy intuitiva y natural.

13. Rellamada o Sensibilidad o TPR (Tasa de True Positive)

13.1. es el número de elementos que son identificados de manera correcta como positivos verdaderos.

14. El Especificidad o TNR (Tasa Negativa Verdadera)

14.1. es el número de valores identificados como negativos fuera del total de los negativos. Se considera ser totalmente opuesto a Recall.

15. F1-Score

15.1. Permite comparar de manera veloz 2 clasificadores.