REGRESION LINEAL SIMPLE

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
REGRESION LINEAL SIMPLE por Mind Map: REGRESION LINEAL SIMPLE

1. ¿Por qué utilizar el estimador MCO?

1.1. Porque el MCO es el método más utilizado en la práctica, como en el análisis de regresión para la economía, las finanzas y las ciencias sociales en general.

1.1.1. Las estimaciones de MCO cambian de maneras totalmente esperadas cuando cambian las unidades de medición de la variable dependiente o de la independiente

1.1.2. MCO presentan asimismo propiedades teóricas deseables.

1.1.3. La bondad de ajuste del modelo no depende de las unidades de medición de las variables.

2. Una vez estimada una regresión lineal, es posible preguntarse en qué medida esta regresión lineal describe correctamente los datos.

2.1. R_2=SE/ST

2.2. ESR=SR/n-2

3. La siguiente fórmula Y_i=β_0+β_1 x_i+μ_i

3.1. Esta ecuación corresponde al modelo de regresión lineal con regresor único,donde β_0 es el término constante (intercepto) de esta recta y β_1 es la pendiente y donde Y es la variable dependiente y X la variable independiente

3.1.1. β_0+β_1 X_i es la recta de regresión poblacional o función de regresión poblacional

4. Medidas de ajuste

5. Grafico de dispersion

5.1. La relación que presentan los datos de dos variables, sirve para hacer prediciones basadas en datos

5.1.1. Correlacion positiva: El valor de la variable independiente aumenta y el de la variable independiente tambien

5.1.2. Correlacion negativa: El valor de la variable independente aumenta y el de la varieble dependiente disminuye

5.1.3. Sin correlacion: No existe relacion entre ambas variables

6. Obtención de las estimaciones de mínimos cuadrados ordinarios

6.1. Para obtener los estimadores debemos tomar una muestra de una población de manera aleatoria de tamaño n, usaremos la ecuación y una importante consecuencia del supuesto en la población, µ no está correlacionada con x.

7. El error estándar de la regresión

7.1. Es un estimador de la desviación típica del error de regresión μ_i

7.1.1. Las unidades μ_i e Y son las mismas, por lo que el ESR es una medida de la dispersión de las observaciones

7.1.1.1. Todos esto en torno a la recta de regresión medida en leas unidades de la variable dependiente

8. Los supuestos de mínimos cuadrados

8.1. Y_i=β_0+β_1 X_i+u,i=1,…,n,donde

8.1.1. El término de error u_i presenta una media condicional igual a cero dado Xi: E (u_i |X_i) =0;

8.1.2. (X_i, Y_i), i=1, ..., n son extracciones independientes e idénticamente distribuidas (i.i.d.) de su distribución conjunta; y

8.1.3. los valores atípicos grandes son improbables: Xi e Yi presentan momentos de cuarto orden finitos distintos de cero.

9. Coeficiente de determinacion

9.1. Es el cuadrado del coeficiente de correlacion de Pearson, y da la proporción de variacion de la variable Y que es explicada por la variable X

9.1.1. Cuanto mayor sea la prporción mejor sera la predicción.

9.1.2. Si llegara a ser igual a 1 la variable predictora explicaria toda la variación de Y, y la predicciones no tendrian error

9.1.3. Si la prporcion es igual a 0, significa que la variable predictora tiene nula capacidad predictiva de la variable a predecir (Y).

10. Modelos

10.1. Al modelo en el que y es la variable dependiente y x es la variable independiente se le llama modelo nivel-nivel debido a que las variables aparecen en sus unidades de medición original.

10.2. Al modelo en el que log (y) es la variable dependiente y x la variable independiente se le llama modelo log-nivel.

10.3. El modelo log-nivel no será analizado aquí explícitamente debido a que se encuentra con menos frecuencia en la práctica.