MEDIDAS ESTADÍSTICAS BIVARIANTES

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Rocket clouds
MEDIDAS ESTADÍSTICAS BIVARIANTES por Mind Map: MEDIDAS ESTADÍSTICAS BIVARIANTES

1. REGRESIÓN LINEAL SIMPLE

1.1. La regresión lineal simple examina la relación lineal entre dos variables continuas una supuesta (Y) y un predictor (X), cuando las dos variables están relacionadas , es posible predecir un valor de respuesta a partir de un valor predictor con una exactitud mayor que la asociada únicamente a las probabilidades.

1.2. HIPÓTESIS

1.2.1. LINEALIDAD

1.2.1.1. La relación entre X y Y es

1.2.2. HOMOGENEIDAD

1.2.2.1. El valor promedio del error es cero

1.2.3. HOMOCEDASTICIDAD

1.2.3.1. La varianza de los errores es constante

1.2.4. NORMALIDAD

1.2.4.1. Los errores siguen una distribución normal

1.2.5. INDEPENDENCIA

1.2.5.1. Las observaciones son independientes

1.3. Coeficiente de determinación lineal

1.4. Varianza debida a la regresión lineal y varianza residual

1.5. Correlación lineal e independencia estadística

2. ANÁLISIS DE REGRESIÓN MÚLTIPLE

2.1. La regresión múltiple implica el uso de más de una variable independiente para predecir una variable dependiente.

2.1.1. Diferente de la regresión lineal simple donde solo se investiga la relación entre una variable independiente y una variable dependiente.

2.2. Modelo de regresión múltiple

2.2.1. Las variables independientes se denotan mediante X con subindices . Las variables dependientes se siguen representando X con la utilización de subindices.La relación entre varias variables con independientes con una dependiente o relación entre Y y X se expresa como un modelo de regresión múltiple.

2.2.1.1. La ecuación de regresión la obtenemos con los coeficientes de regresión para cada una de las variables independientes .

2.2.1.1.1. Posterior la ecuación de regresión explica un cierto porcentaje de la variación de los datos. Mientras mas alto sea el porcentaje mejor.

2.2.1.1.2. Error estándar de la estimación. Este error mide la cantidad de valores reales (Y) que difieren de los valores estimados ( Y con ^)

2.3. Modelo estadístico para la regresión múltiple

2.3.1. Y= 80 =B1X1= B2X2 =B3X3+…+BkXk + E

2.4. Diversas variables explicativas

2.4.1. Si las dos variables independientes están profundamente relacionadas una con otra, explicaran la misma variación, y el hecho de agregar una segunda variable no mejora el pronóstico.

2.4.1.1. La solución mas sencilla al problema de dos variables independientes profundamente relacionadas consiste en no usarlas juntas .

2.5. Multicolinealidad

2.5.1. Existe preocupación latente por el problema de intercorrelacion entre variables independientes. Es decir existe una relación lineal entre dos o más variables independientes. A esto se le conoce como multicolinealidad.

2.5.1.1. El factor de la inflamación de la varianza mide la fortaleza de la multicolinealidad. VIFj= 1/(1-Rj^2) de j= 1,2.... k

2.6. Matriz de correlación

2.6.1. La matriz de correlación se elabora calculando los coeficientes de correlación simple de cada combinación de pares de variables.

2.7. Regresión por pasos

2.7.1. Se realiza la regresión por paso al modelo

2.7.1.1. 1. Se consideran todas las regresiones simples posibles. La variable que explica la proporción significativa mas grande de la variación de Y es la primera que se introduce en la ecuación de la regresión.

2.7.1.2. 2. La siguiente que se incluye es la que hace mayor contribución a la suma de cuadrados de la regresión.

2.7.1.3. 3. Cuando se agrega una variable adicional a la ecuación se debe hacer una prueba de significancia de las contribuciones individuales a la suma de cuadrados de regresión de las otras variables ya en la ecuación utilizando pruebas F.

2.7.1.4. 4.Los pasos 2 y 3 se repiten hasta que todas las adiciones posibles no sean significativas y las eliminaciones sean significativas .

2.8. Variables Ficticias

2.8.1. Estas variables sirven para determinar las relaciones entre variables independientes cualitativas y una variable dependiente.

2.8.1.1. Esto se hace cuando es importante determinar como se hace la variable dependiente con una variable independiente cuando el valor cualitativo influye en la situación.