Hoy en el día el sentido de la regresión es la predicción de una medida, basándonos en el conocim...

Get Started. It's Free
or sign up with your email address
Hoy en el día el sentido de la regresión es la predicción de una medida, basándonos en el conocimiento de otra. A esto lo llamamos REGRESIÓN LINEAL by Mind Map: Hoy en el día el sentido de la regresión es la predicción de una medida, basándonos en el conocimiento de otra. A esto lo llamamos REGRESIÓN LINEAL

1. Diagramas

1.1. Relación entre variables

1.1.1. Tomando en cuenta las variables aleatorias anteriores, se dice que según su peso aumenta la altura

1.2. Predicción de una variable en función de otra

1.2.1. Tomando en cuenta las variables aleatorias anteriores, se dice que aparentemente el peso aumenta 10 Kg por cada 10 cm de altura... O sea, el peso aumenta en una unidad por cada unidad de altura.

1.3. Diagramas de dispersión o nube

1.3.1. Cada punto es un valor particular de la variable aleatoria bidimensional (X, Y).

2. Reconocer buena o mala relación

2.1. Poca relación

2.1.1. Dado un valor de X no podemos decir gran cosa sobre Y. Mala relación. Independencia.

2.2. Fuerte relación directa

2.2.1. Lo de “horquilla estrecha” hay que entenderlo con respecto a la dispersión que tiene la variable Y por si sola, cuando no se considera X.

2.2.2. Conocido X sabemos que Y se mueve por una horquilla estrecha. Buena relación.

2.3. Cierta relación inversa

3. Coeficiente de correlación lineal de Pearson

3.1. El coeficiente de correlación lineal de Pearson de dos variables, r, nos indica si los puntos tienen una tendencia a disponerse alineadamente (excluyendo rectas horizontales y verticales).

3.2. Tiene el mismo signo que Sxy . Por tanto de su signo obtenemos el que la posible relación sea directa o inversa.

3.3. r es útil para determinar si hay relación lineal entre dos variables, pero no servirá para otro tipo de relaciones (cuadrática, logarítmica,...)

4. ¿Cómo medir la bondad de una regresión?

4.1. Imaginemos un diagrama de dispersión, y vamos a tratar de comprender en primer lugar qué es el error residual, su relación con la varianza de Y, y de ahí, cómo medir la bondad de un ajuste.

5. Interpretación de la variabilidad en Y

5.1. En primer lugar olvidemos que Y existe la variable X. Veamos cuál es la variabilidad en el eje Y. Proyección sobre el eje Y = olvidar X.

6. Interpretación del residuo

6.1. Cuanto menos dispersos sean los residuos, mejor será la bondad del ajuste

7. Reconocer buena o mala relación

7.1. Descorrelación

7.1.1. Para valores de x por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares

7.2. Fuerte relación directa

7.2.1. •Para los valores de X mayores que la media le corresponden valores de Y mayores también. •Para los valores de X menores que la media le corresponden valores de Y menores también. •Esto se llama relación directa o creciente entre X e Y.

7.3. Cierta relación inversa

7.3.1. Para los valores de X mayores que la media le corresponden valores de Y menores. Esto es relación inversa o decreciente.

8. Conjunto de dos variables aleatorias

8.1. En la información investigada nos enseña cómo recoger la información para dos variables aleatorias. En el cual constaba de un recuadro con dos columnas, Altura en cm y Peso en kg.

8.1.1. En cada fila se coloca los datos del individuo

8.1.2. Cada Columna representa los valores que toma una variable aleatoria sobre los mismos

8.1.3. Los datos no se muestran en ningún orden particular

8.2. El estudio del objetivo es intentar reconocer a partir del mismo si hay relación entre las variables, de qué tipo, y si es posible predecir el valor de una de ellas en función de la otra

9. Covarianza de dos variables aleatorias X e Y

9.1. La covarianza entre dos variables, S xy, nos indica si la posible relación entre dos variables es directa o inversa: Directa: S xy> 0 Inversa: S xy <0 Descorreladas: S xy = 0

9.2. El signo de la covarianza nos dice si el aspecto de la nube de puntos es creciente o no, pero no nos dice nada sobre el grado de relación entre las variables.

10. Propiedades de r

10.1. Es adimensional.

10.2. Sólo toma valores en [-1,1]

10.3. Las variables son descorreladas <-> r = 0

10.4. Cuanto más cerca esté r de +1 o -1 mejor será el grado de relación lineal.

10.5. • Relación lineal perfecta entre dos variables <-> r = +1 o r = -1.

11. Regresión lineal simple

11.1. El análisis de regresión sirve para predecir una medida en función de otra medida (o varias: regresión múltiple).

11.1.1. – Y = Variable dependiente • predicha, medida, es una variable aleatoria • explicada

11.1.2. – X = Variable independiente • predictora, controlada, no es una variable aleatoria. • explicativa

11.1.3. – ¿Es posible descubrir una relación? • Y = f(X) + error – f es una función de un tipo determinado – el error es aleatorio, pequeño, y no depende de X

12. Bondad de un ajuste

12.1. • La dispersión del error residual será una fracción de la dispersión original de Y. •Cuanto menor sea la dispersión del error residual mejor será el ajuste de regresión. Eso hace que definamos como medida de bondad de un ajuste de regresión, o coeficiente de determinación a: Se <Sy

13. Regresión lineal simple

13.1. Esto es un modelo de regresión lineal simple. Recordemos el ejemplo del estudio de la altura en grupos familiares de Pearson:

13.2. Altura del hijo = 85cm + 0,5 altura del padre (Y = 85 + 0,5 X)

13.2.1. • Si el padre mide 200 cm, ¿cuánto mide el hijo? – Se espera (predice) 85 + 0,5 x 200 = 185 cm. » Alto, pero no tanto como el padre. Regresa a la media.