Análisis de Regresión

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Análisis de Regresión por Mind Map: Análisis de Regresión

1. La regresión múltiple implica el uso de más de una variable independiente para predecir una variable dependiente.

1.1. Diferente de la regresión lineal simple, donde solo se investiga la relación entre una variable independiente y una variable dependiente.

2. Modelo estadístico para la regresión múltiple

2.1. Y= B0 + B1X1 + B2X2 + B3X3 + …. + BkXk + E

3. Diversas variables explicativas

3.1. Si las dos variables independientes están profundamente relacionadas una con otra, explicarán la misma variación, y el hecho de agregar una segunda variable no mejorará el pronóstico.

3.1.1. La solución más sencilla al problema de dos variables independientes profundamente relacionadas consiste en no usarlas juntas.

4. Matriz de Correlación

4.1. La matriz de correlación se elabora calculando los coeficientes de correlación simple de cada combinación de pares de variables.

5. La regresión trata de explicar el comportamiento de una variable

5.1. Denominada Explicativa

5.2. Variables Explicativas

6. ELABORADO POR JAIME DIAZ

7. Modelo de Regresión Múltiple

7.1. Las variables independientes se denotan mediante X con subíndices. Las variables dependientes se siguen representando X con la utilización de subíndices. La relación entre varias variables con independientes con una dependiente, o relación entre Y y X, se expresa como un modelo de regresión múltiple.

7.1.1. La ecuación de regresión la obtenemos con los coeficientes de regresión para cada una de las variables independientes.

7.1.1.1. Posterior, la ecuación de regresión explica un cierto porcentaje de la variación de los datos. Mientras más alto sea el porcentaje, mejor.

7.1.1.2. Error Estándar de la Estimación -Este error mide la cantidad de valores reales (Y) que difieren de los valores estimados (Y con ^).

8. Multicolinealidad

8.1. Existe preocupación latente por el problema de intercorrelación entre variables independientes. Es decir, existe una relación lineal entre dos o más variables independientes. A esto se le conoce como MULTICOLINEALIDAD.

8.1.1. El factor de la inflación de la varianza mide la fortaleza de la multicolinealidad. VIFj= 1/(1-Rj^2) de j=1,2,....,k

9. Regresión por Pasos

9.1. Se realiza la regresión por pasos al modelo una variable independiente a la vez. Los pasos para hacerla son los siguientes:

9.1.1. 1. Se consideran todas las regresiones simples posibles. La variable que explica la proporción significativa más grande de la variación de Y es la primera que se introduce en la ecuación de regresión.

9.1.2. 2. La siguiente que se incluye es la que hace mayor contribución a la suma de cuadrados de la regresión.

9.1.3. 3. Cuando se agrega una variable adicional a la ecuación se debe hacer una prueba de significancia de las contribuciones individuales a la suma de cuadrados de regresión de las otras variables ya en la ecuación utilizando pruebas F.

9.1.4. 4. Los pasos 2 y 3 se repiten hasta que todas las adiciones posibles no sean significativas y las eliminaciones sean significativos.

10. Homoceasticidad

10.1. La homocedasticidad es una propiedad deseable de los errores de un modelo de regresión simple. La homocedasticidad, como hemos dicho anteriormente, nos permite realizar modelos más fiables. Y esa fiabilidad se ve reflejada en que sea mucho más fácil para los económetras trabajar con el modelo.

11. Heterocedasticidad

11.1. En estadística se denomina heterocedasticidad cuando los errores no son constantes a lo largo de toda la muestra. El término es contrario a homocedasticidad.

11.1.1. En otras palabras, en los modelos de regresión lineales se dice que hay elasticidad cuando la varianza de los errores no es igual en todas las observaciones realizadas. En caso de que haya heterocedasticidad no se cumple uno de los requisitos básicos de las hipótesis de los modelos lineales.