Regresión Lineal

Get Started. It's Free
or sign up with your email address
Regresión Lineal by Mind Map: Regresión Lineal

1. • A la derecha tenemos una posible manera de recoger los datos obtenido observando dos variables aleatorias en varios individuos de una muestra. – En cada fila tenemos los datos de un individuo – Cada columna representa los valores que toma una variable aleatoria sobre los mismos. – Las individuos no se muestran en ningún orden particular.

1.1. Estudio conjunto de dos variables aleatorias

2. Tenemos las alturas y los pesos de 30 individuos representados en un diagrama de dispersión. Cada punto es un valor particular de la variable aleatoria bidimensional (X, Y).

2.1. Diagramas de dispersión o nube de puntos

3. Predicción de una variable en función de otra

3.1. Aparentemente el peso aumenta 10 Kg por cada 10 cm de altura... O sea, el peso aumenta en una unidad por cada unidad de altura.

3.1.1. Modes

3.1.2. Variants

4. Francis Galton

4.1. “Natural inheritance” (1889)

4.1.1. El término regresión fue introducido por Galton en su libro refiriéndose a la “ley de la regresión universal”

4.1.1.1. “Cada peculiaridad en un hombre es compartida por sus descendientes, pero en media, en un grado menor.”

4.1.1.2. Su trabajo se centraba en la descripción de los rasgos físicos de los descendientes (una variable) a partir de los de sus padres (otra variable).

4.1.1.3. Pearson (un amigo suyo) realizó un estudio con más de 1000 registros de grupos familiares observando una relación del tipo: • Altura del hijo = 85cm + 0,5 • altura del padre (aprox.)

4.2. (Duddeston, 1822 - Haslemere, 1911) Antropólogo y geógrafo inglés. Estudió medicina en el hospital de Birmingham, en Londres y en Cambridge.

5. Interpretación del residuo

5.1. Fijémonos ahora en los errores de predicción (líneas verticales). Los proyectamos sobre el eje Y. Se observa que los errores de predicción, residuos, están menos dispersos que la variable Y original. Cuanto menos dispersos sean los residuos, mejor será la bondad del ajuste.

5.1.1. Warranty Limits

5.2. Imagen: http://slideplayer.es/slide/4262474/14/images/16/Interpretaci%C3%B3n+del+residuo.jpg

6. Interpretación de la variabilidad en Y

6.1. Imagen: http://slideplayer.es/slide/8494844/25/images/22/Interpretaci%C3%B3n+de+la+variabilidad+en+Y.jpg

6.1.1. Hardware

6.1.2. Software

6.1.3. Instruments

7. Propiedades de r

7.1. Es adimensional.

7.2. Sólo toma valores en [-1,1]

7.3. Las variables son descorreladas  r =0

7.4. Relación lineal perfecta entre dos variables  r = +1 o r = -1. – Excluimos los casos de puntos alineados horiz. o verticalmente.

7.5. Cuanto más cerca esté r de +1 o -1 mejor será el grado de relación lineal.

8. Entrenando el ojo: correlaciones negativas.

9. Entrenando el ojo: casi perfectas y positivas

9.1. imagen:http://slideplayer.es/slide/3292740/11/images/14/Entrenando+el+ojo:+casi+perfectas+y+positivas.jpg

10. Bondad de un ajuste

10.1. Resumiendo: • La dispersión del error residual será una fracción de la dispersión original de Y. •Cuanto menor sea la dispersión del error residual mejor será el ajuste de regresión. Eso hace que definamos como medida de bondad de un ajuste de regresión, o coeficiente de determinación a:

11. Relación entre variables

11.1. Tenemos las alturas y los pesos de 30 individuos representados en un diagrama de dispersión.

12. Cómo reconocer relación directa e inversa

12.1. Para valores de X por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares: Descorrelación.

12.2. •Para los valores de X mayores que la media le corresponden valores de Y mayores también. •Para los valores de X menores que la media le corresponden valores de Y menores también. •Esto se llama relación directa o creciente entre X e Y.

12.3. Para los valores de X mayores que la media le corresponden valores de Y menores. Esto es relación inversa o decreciente.

13. Cómo reconocer buena o mala relación

13.1. Dado un valor de X no podemos decir gran cosa sobre Y. Mala relación. Independencia.

13.2. •Conocido X sabemos que Y se mueve por una horquilla estrecha. Buena relación.

13.3. Lo de “horquilla estrecha” hay que entenderlo con respecto a la dispersión que tiene la variable Y por si sola, cuando no se considera X.

14. Covarianza de dos variables aleatorias X e Y

14.1. • La covarianza entre dos variables, Sxy, nos indica si la posible relación entre dos variables es directa o inversa: – Directa: Sxy > 0 – Inversa: Sxy < 0 – Descorreadas: Sxy = 0

14.2. El signo de la covarianza nos dice si el aspecto de la nube de puntos es creciente o no, pero no nos dice nada sobre el grado de relación entre las variables.

15. Coeficiente de correlación lineal de Pearson

15.1. El coeficiente de correlación lineal de Pearson de dos variables, r, nos indica si los puntos tienen una tendencia a disponerse alineadamente (excluyendo rectas horizontales y verticales).

15.2. Tiene el mismo signo que Sxy . Por tanto de su signo obtenemos el que la posible relación sea directa o inversa.

15.3. r es útil para determinar si hay relación lineal entre dos variables, pero no servirá para otro tipo de relaciones (cuadrática, logarítmica,...)

16. Entrenando el ojo: correlaciones positivas.

17. Regresión lineal simple

17.1. Recordemos el ejemplo del estudio de la altura en grupos familiares de Pearson: – Altura del hijo = 85cm + 0,5 altura del padre (Y = 85 + 0,5 X) • Si el padre mide 200 cm, ¿cuánto mide el hijo? – Se espera (predice) 85 + 0,5 x 200 = 185 cm. » Alto, pero no tanto como el padre. Regresa a la media. • Si el padre mide 120 cm, ¿cuánto mide el hijo? – Se espera (predice) 85 + 0,5 x 120 = 145 cm. » Bajo, pero no tanto como el padre. Regresa a la media. • Esto es un modelo de regresión lineal simple.

17.2. El análisis de regresión sirve para predecir una medida en función de otra medida (o varias: regresión múltiple). – Y = Variable dependiente • predicha, medida, es una variable aleatoria • explicada – X = Variable independiente • predictora, controlada, no es una variable aleatoria. • explicativa – ¿Es posible descubrir una relación? • Y = f(X) + error – f es una función de un tipo determinado – el error es aleatorio, pequeño, y no depende de X

18. Modelo de regresión lineal simple

18.1. • En el modelo de regresión lineal simple, dado dos variables – Y (dependiente) – X (independiente, explicativa)

18.2. • Y e Ŷ rara vez coincidirán por muy bueno que sea el modelo de regresión. A la cantidad – e = Y-Ŷ se le denomina residuo o error residual.

18.3. • En el ejemplo de Pearson y las alturas, él encontró: – Ŷ = b0 + b1X

18.4. buscamos encontrar una función de X muy simple (lineal) que nos permita aproximar Y mediante – Ŷ = b0 + b1X • b0 (ordenada en el origen, constante) • b1 (pendiente de la recta)

18.5. • La relación entre las variables no es exacta. Es natural preguntarse entonces: – Cuál es la mejor recta que sirve para predecir los valores de Y en función de los de X – Qué error cometemos con dicha aproximación (residual)

18.6. • El modelo lineal de regresión se construye utilizando la técnica de estimación mínimo cuadrática: – Buscar b0, b1 de tal manera que se minimice la cantidad • Σi ei 2 = Σi (Yi -Ŷ)2

19. ¿Cómo medir la bondad de una regresión?

19.1. Imaginemos un diagrama de dispersión, y vamos a tratar de comprender en primer lugar qué es el error residual, su relación con la varianza de Y, y de ahí, cómo medir la bondad de un ajuste.