
1. Regresión Simple
1.1. es un tipo específico de regresión en el que se asume que la relación entre la variable dependiente y la variable independiente puede ser modelada por una línea recta.
1.1.1. Modelo de la Recta de Regresión:
1.1.1.1. es la ecuación que describe la relación entre las variables dependiente e independiente. La recta se representa como Y=β0 +β1 X, donde β0 y β1 son los coeficientes de la intersección y pendiente, respectivamente.
1.1.2. Coeficiente de Determinación (R²):
1.1.2.1. R² es una medida que indica la proporción de la variabilidad en la variable dependiente que es explicada por la variable independiente en el modelo de regresión. R² varía entre 0 y 1, donde 1 indica una perfecta predicción.
1.1.3. Interpretación del R²:
1.1.3.1. Un R² de 0.70, por ejemplo, indica que el 70% de la variación en la variable dependiente puede ser explicada por la variable independiente incluida en el modelo. Cuanto más cercano a 1 sea el R², mejor ajustado está el modelo.
2. Correlación
2.1. es una medida estadística que describe la relación entre dos o más variables. Indica la dirección (positiva o negativa) y la fuerza de la asociación entre ellas.
2.1.1. Correlación Positiva y Negativa:
2.1.1.1. Una correlación positiva indica que a medida que el valor de una variable aumenta, el valor de la otra variable también tiende a aumentar. Por el contrario, una correlación negativa sugiere que a medida que el valor de una variable aumenta, el valor de la otra variable tiende a disminuir.
2.1.2. Coeficiente de Correlación de Pearson (r):
2.1.2.1. es una medida de correlación lineal que varía entre -1 y 1. Un valor de 1 indica una correlación positiva perfecta, -1 indica una correlación negativa perfecta y 0 indica falta de correlación lineal.
2.1.3. Coeficiente de Correlación de Spearman:
2.1.3.1. evalúa la relación monotónica entre dos variables. En lugar de basarse en la relación lineal, se enfoca en la tendencia general de los puntos de datos. Es más robusto a relaciones no lineales.
2.1.4. Coeficiente de Correlación de Kendall:
2.1.4.1. Similar al coeficiente de Spearman, el coeficiente de correlación de Kendall también evalúa la relación monotónica entre variables, pero se basa en un enfoque de concordancia y discordancia de pares de datos.
3. Interpretación de Resultados
3.1. Significado de R² y r:
3.1.1. R² (Coeficiente de Determinación):
3.1.1.1. Representa la proporción de la variabilidad de la variable dependiente que puede ser explicada por la variable independiente en el modelo de regresión. Por ejemplo, un R² de 0.80 significa que el 80% de la variación en la variable dependiente es explicada por la variable independiente incluida en el modelo.
3.1.2. r (Coeficiente de Correlación de Pearson):
3.1.2.1. Indica la fuerza y dirección de la relación lineal entre dos variables. Varía entre -1 y 1. Un valor de 1 indica una correlación positiva perfecta, -1 indica una correlación negativa perfecta y 0 indica falta de correlación lineal.
3.1.3. Fuerza y Dirección de la Correlación:
3.1.3.1. Fuerza de Correlación:
3.1.3.1.1. Se refiere a cuán fuerte es la relación entre las variables. Si el valor absoluto de r o R² es cercano a 1, la correlación es fuerte; si está cerca de 0, es débil.
3.1.3.2. Dirección de Correlación:
3.1.3.2.1. Indica si la correlación es positiva o negativa. Una correlación positiva (r > 0) sugiere que cuando una variable aumenta, la otra también tiende a aumentar. Una correlación negativa (r < 0) indica que cuando una variable aumenta, la otra tiende a disminuir.
3.1.4. Importancia de la Correlación en la Regresión:
3.1.4.1. La correlación es crucial en la regresión porque proporciona información sobre la relación entre las variables. Si hay una correlación significativa entre la variable independiente y la variable dependiente, entonces es más probable que el modelo de regresión sea útil para predecir valores de la variable dependiente.