MEDIDAS ESTADISTICAS BIVARIANTES DE REGRESION

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
MEDIDAS ESTADISTICAS BIVARIANTES DE REGRESION por Mind Map: MEDIDAS ESTADISTICAS BIVARIANTES DE REGRESION

1. Regresión múltiple: cuando se emplea más de una variable independiente para evaluar una variable dependiente.

1.1. Nomenclatura modificada

1.1.1. Un marco de notación modificado y más formal es valioso para comentar el análisis de regresión múltiple. Considere el modelo de regresión general con tres variables de depresión. La ecuación modificada:

1.1.1.1. Y = a + B1X1 + B3x3 + €

1.1.1.1.1. A cuál es un estado simplificada de las más elaborada y precisa ecuación.

2. Supuesto de multicolinealidad

2.1. Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras, como se requiere, si no que están correlacionadas.

2.1.1. Coeficiente de regresión parcial

2.1.1.1. Coeficientes de regresión parcial es cuando existen multicolinealidad, simplemente no resulta valida la interpretación normal de esos coeficientes, como el cambio promedio de la variable de criterio relacionado con el cambio unitario de la variable de predicción apropiada cuando se mantienen constantes de las demás variables de predicción. La ecuación todavía sería útil para fines de predicción, en el supuesto de que las condiciones sean estables. Empero, no deben usarse los coeficientes de regresión parcial como base para la toma de decisiones mercadológicas estratégicas cuando es significativa la multicolinealidad.

3. Coeficientes de correlación múltiple y de determinación múltiple

3.1. Supuesto de multicolinealidad

3.1.1. Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras, como se requiere, si no que están correlacionadas.

3.1.1.1. En el análisis de determinación múltiple; la proporción de variación en la variable de criterio que se explica con la covariacion de las variables pre dictas.

4. La regresión lineal simple examina la relación lineal entre dos variables continuas: una respuesta (Y) un predictor (X). cuando las dos variables están relacionadas, es posible predecir un valor de respuesta a partir de un valor predictor con una exactitud mayor que la asociada únicamente a las probabilidades.

4.1. Regresión lineal

4.1.1. Antes de comenzar con este apartado resulta esencial entender que se entiende por lineal, ya que hoy dos posibles interpretaciones: linealidad en las variables y linealidad en los parámetros.

4.1.1.1. Una función y = f (X) se dice que es lineal en X si la variable X aparece con una potencia unitaria ( por tanto, se excluyen términos como X2, X3, i/X,√X, por ejemplo) y no esta multiplicada ni dividida por otra variable. Por ejemplo, yj = a + bxi + cxiz no es una función lineal en las variables puesto que la variable X aparece elevada al cuadrado.

4.1.1.1.1. Se dice que una función es lineal en los parámetros si estos aparecen con frecuencia unitaria y no están multiplicados ni divididos por cualquier otro parámetro. A modo de ejemplo, Yj = a + √bxi no es una función lineal en los parámetros. Sin embargo, Yj = a + bxi + cxiz si lo es.

5. ESTIMACION DE LOS PARAMETROS DE LA REGRESION LINEAL.

5.1. En el caso en el que se presuma que la relación de dependencia de Y sobre X es de carácter lineal, Yj = a + bxi + eij, donde eij representa el error que comete como consecuencia de que pudiera haber otras variables que influyesen en el comportamiento de la variable Y, la cuestión es: ¿Cómo estimar los parámetros a y b de la misma?

5.1.1. COEFICIENTE DE DETERMINACION LINEAL

5.1.1.1. Una vez elegida la función rectilineal para presentar la relación de dependencia de Y sobre X y estimados sus parámetros a y b, a continuación, se procede al cómputo del coeficiente de determinación lineal con objeto de medir el grado de dependencia de Y sobre X bajo la función de regresión lineal estimada.

6. Coeficiente de correlación parcial

6.1. Cantidad que resulta del análisis de regresión múltiple e indica la proporción de variación de la variable de criterio que no se explica con una o más variables previas y si con la inclusión de una nueva variable a la ecuación de regresión.

6.1.1. Variable binaria

6.1.1.1. Una a la que se asigna uno de dos valores, 0 o 1, y se usa para representar en forma numérica los atributos o características que no son esencialmente cuantitativas.

6.1.1.1.1. Transformaciones de variables