Regresión lineal

Get Started. It's Free
or sign up with your email address
Rocket clouds
Regresión lineal by Mind Map: Regresión lineal

1. "Y es una función de X" Y = f(X) Como Y depende de X, Y es la variable dependiente, y X es la variable independiente. En el Modelo de Regresión es muy importante identificar cuál es la variable dependiente y cuál es la variable independiente. En el Modelo de Regresión Simple se establece que Y es una función de sólo una variable independiente, razón por la cual se le denomina también Regresión Divariada porque sólo hay dos variables, una dependiente y otra independiente y se representa así: Y = f (X) "Y está regresando por X" La variable dependiente es la variable que se desea explicar, predecir. También se le llama REGRESANDO ó VARIABLE DE RESPUESTA. La variable Independiente X se le denomina VARIABLE EXPLICATIVA ó REGRESOR y se le utiliza para EXPLICAR Y.

2. SUPOSICIONES DE LA REGRESIÓN LINEAL Los valores de la variable independiente X son fijos, medidos sin error. La variable Y es aleatoria Para cada valor de X, existe una distribución normal de valores de Y (subpoblaciones Y) Las variancias de las subpoblaciones Y son todas iguales. Todas las medias de las subpoblaciones de Y están sobre la recta. Los valores de Y están normalmente distribuidos y son estadísticamente independientes.

3. Función exponencial y=c·eax Tomando logaritmos neperianos en los dos miembros resulta ln y=ax+ln c Si ponemos ahora X=x, e Y=ln y, obtenemos la relación lineal Y=aX+b Donde b=ln c. Ejemplo: x 12 41 93 147 204 264 373 509 773 y 930 815 632 487 370 265 147 76 17 Usar la calculadora para transformar esta tabla de datos en esta otra X= x 12 41 93 147 204 264 373 509 773 Y=ln y 6.835 6.703 6.449 6.188 5.913 5.580 4.990 4.330 2.833 Calcular mediante el programa regresión lineal los parámetros a y c.

4. Estimación de los parámetros del modelo. En el modelo de regresión lineal simple hay tres parámetros que se deben estimar: los coeficientes de la recta de regresión, a0 y a1; y la varianza de la distribución normal, s2. El cálculo de estimadores para estos parámetros puede hacerse por diferentes métodos, siendo los más utilizados el método de máxima verosimilitud y el método de mínimos cuadrados. V

5. La covarianza entre dos variables, Sxy, nos indica si la posible relación entre dos variables es directa o inversa: – Directa: Sxy > 0 – Inversa: Sxy< 0 – Descorreladas: Sxy= 0

6. La función potencial y=c·xa Se puede trasformar en log y=a·log x+log c Si usamos las nuevas variables X=log x e Y=log y, obtenemos la relación lineal Y=aX+b. Donde b=log c Ejemplo: x 10 20 30 40 50 60 70 80 y 1.06 1.33 1.52 1.68 1.81 1.91 2.01 2.11 Usar la calculadora para transformar esta tabla de datos en esta otra X=log x 1.0 1.30 1.477 1.60 1.699 1.778 1.845 1.903 Y=log y 0.025 0.124 0.182 0.225 0.258 0.281 0.303 0.324 Calcular mediante el programa regresión lineal los parámetros a y c.

7. La regresión nos permite además, determinar el grado de dependencia de las series de valores X e Y, prediciendo el valor y estimado que se obtendría para un valor x que no esté en la distribución.

8. Tipos de regresión lineal: simple:e maneja una variable independiente, por lo que sólo cuenta con dos parámetros; multiples: La regresión lineal permite trabajar con una variable a nivel de intervalo o razón. De la misma manera, es posible analizar la relación entre dos o más variables a través de ecuaciones, lo que se denomina regresión múltiple o regresión lineal múltiple; y rectas: Las rectas de regresión son las rectas que mejor se ajustan a la nube de puntos (o también llamado diagrama de dispersión) generada por una distribución binomial.

9. En estadística la regresión lineal o ajuste lineal es un modelo matemático usado para aproximar la relación de dependencia entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. (• Hoy en día el sentido de regresión es el de predicción de una medida basándonos en el conocimiento de otra.)