MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN FERNANDO ALBA (UNAD)

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Rocket clouds
MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN FERNANDO ALBA (UNAD) por Mind Map: MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN      FERNANDO ALBA (UNAD)

1. REGRESIÓN LINEAL

1.1. MODELOS:

1.1.1. MODELO MATEMÁTICO: Es la función matemática que se propone como forma de relación entre la variable dependiente (Y) y la o las variables independientes.

1.1.2. MODELO DETERMINÍSTICO: El comportamiento de la variable dependiente puede ser totalmente descriptivo por una función matemática (o por un conjunto de ecuaciones que relacionen las variables).

1.1.3. MODELO ESTADÍSTICO: Permite la incorporación de un COMPONENTE ALEATORIO en la relación.

1.1.4. SUPUESTOS DEL MODELO DE REGRESIÓN LINEAL:

1.1.4.1. Para poder crear un modelo de regresión lineal es necesario que se cumpla con los siguientes supuestos:

1.1.4.2. 1. Que la relación entre las variables sea lineal. 2. Que los errores en la medición de las variables explicativas sean independientes entre sí. 3. Que los errores tengan varianza constante. (Homocedasticidad) 4. Que los errores tengan una esperanza matemática igual a cero (los errores de una misma magnitud y distinto signo son equiprobables). 5. Que el error total sea la suma de todos los errores.

1.2. VARIABLES DE LA REGRESIÓN:

1.2.1. • Covariables

1.2.2. •Variable independientes

1.2.3. • Dependientes

1.2.4. • De respuesta

1.2.4.1. • Variables regresoras

1.2.5. SUPOSICIONES DE LA REGRESION LINEAL:

1.2.5.1. • Los valores de la variable independiente X son fijos medidos y sin error • Variable y aleatoria

1.2.6. ESTIMADORES DE MINIMOS CUADRADOS:

1.2.6.1. Es una técnica de análisis numérico enmarcada dentro de la optimización matemática en las que son ordenadas .

1.2.6.2. REGRESIÓN EN ESTUDIOS OBSERVACIONALES

1.2.6.3. A menudo el investigador no selecciona los valores de la variable independiente, sino que toma una muestra de alguna población y observa simultáneamente X e Y para cada miembro de la muestra

1.3. Permite determinar el grado de dependencia de las series de valores X, Y prediciendo el valor y estimando que se obtendría para un valor X que no esté en la distribución.

1.3.1. Conozcamos :

1.3.1.1. Regresión

1.3.1.2. Fue originalmente utilizado por Galton

1.3.1.3. Indica ciertas relaciones

1.3.1.4. Teoría de la herencia biológica

1.3.1.5. a llegado a significar en estadística

1.3.1.6. TIPOS DE REGRESIÓN LINEAL

1.3.1.6.1. ° Simple:

1.3.1.6.2. Y=F(X) X=independiente Y=dependiente

1.3.1.6.3. ° Múltiple:

1.3.1.6.4. es la posible relación entre varias variables independientes y otra dependiente.

1.4. estudia los cambios en una variable.

1.5. LÍNEA RECTA DE REGRESIÓN:Y*A+BX

1.5.1. RECTAS DE REGRESIÓN

1.5.1.1. Las rectas de regresión son las rectas que mejor se ajustan a la nube de puntos.(o también llamado diagrama de dispersión) generada por una distribución binomial.

1.5.1.2. PROBLEMAS CON REGRESIÓN

1.5.1.3. - Relación no lineal. - Varianza no homogénea. - Errores correlacionados - Errores no normales. - Casos influyentes. - Variables omitidas.

1.5.2. RELACIÓN DIRECTA E INVERSA

1.5.3. • Para los valores de X menores que la media le corresponden valores de Y menores también. Esto se llama relación directa o creciente entre X e Y. • Para los valores de X mayores que la media le corresponden valores de Y menores. Esto es relación inversa o decreciente.

1.6. COEFICIENTE DE REGRESION :

1.6.1. Indica el numero de unidades en que se modifica la variable dependiente “Y” por defecto delcambio de la variable independiente “X” o viceversa en una unidad de medida .

1.6.1.1. Hipótesis del modelo de regresión lineal: • Esperanza matemática nula: E(ei)=0 • Homocedasticidad • Incorrelación o independencia: • Regresores estocásticos. • Independencia lineal • Normalidad

1.6.1.2. Coeficiente de correlación lineal de Pearson

1.6.1.3. • El coeficiente de correlación lineal de Pearson de dos variables, r, nos indica si los puntos tienen una tendencia a disponerse alineadamente (excluyendo rectas horizontales y verticales).

2. Regresión y Determinación

2.1. Regresión y Correlación Simple

2.1.1. Regresión lineal o simple

2.1.1.1. Una función es lineal en los parámetros si están determinados con frecuencia unitaria y no están multiplicados ni divididos por cualquier otro parámetro. A modo de ejemplo, yj = a + √bxi

2.1.1.1.1. Se puede establecer otra clasificación de la regresión:

2.1.1.2. La regresión explica el comportamiento de una variable, denominada explicada (dependiente o endógena)

2.1.1.2.1. En función de otra u otras, denominadas explicativas (independientes o exógenas) .se dividen en funciones simples y múltiples

2.1.1.3. Estimación de los parámetros de la regresión lineal

2.1.1.3.1. Coeficiente de determinación lineal

2.1.1.3.2. Varianza debida a la regresión lineal y varianza residual

2.2. Correlación lineal e independencia estadística

2.2.1. El coeficiente de correlación lineal no hace sino redimensionar el campo de variación de la covarianza entre −1 y 1.

2.2.2. Se entiende como la covarianza entre dos variables indica su grado de correlación lineal a través de la recta

3. Análisis de Correlación y de Regresión Simple

3.1. Son de uso frecuente entre los investigadores de mercados para estudiar la relación entre dos o más variables.

3.1.1. ° El análisis de correlación

3.1.1.1. Mide la cercanía de la relación entre dos o más variables

3.1.2. ° El análisis de regresión

3.1.2.1. Se usa para derivar una ecuación que relaciona la variable de criterio con una o más variables de predicción.

3.1.3. ° Error estándar de la estimación

3.1.3.1. Valor absoluto de la variación en la variable de criterio, que se deja sin explicación, o que no cuenta, en la ecuación de regresión ajustada.

3.1.4. ° Inferencias acerca del coeficiente de pendiente

3.1.4.1. Si el resultado es estadísticamente significativo o aleatorio

3.1.5. ° Coeficiente de correlación

3.1.5.1. Análisis de regresión para designar la fuerza de la relación lineal entre las variables de criterio y predictivas.

4. Análisis de Regresión Múltiple

4.1. Determinar la relación entre las variables independientes y dependientes, o variables de predicción y de criterio.

4.1.1. Se divide en:

4.1.1.1. ° Nomenclatura modificada

4.1.1.1.1. Un marco de notación modificado y más formal es valioso para comentar el análisis de regresión múltiple. Y = α + β1 X1 + β3X3 + ∊

4.1.1.2. ° Supuesto de multicolinealidad

4.1.1.2.1. Término de error en el modelo de regresión simple se verá también a la ecuación de regresión múltiple.

4.1.1.3. ° Coeficientes de regresión parcial

4.1.1.3.1. Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras

4.1.1.4. ° Coeficientes de correlación múltiple y de determinación múltiple

4.1.1.4.1. -Coeficiente de determinación múltiple

4.1.1.4.2. -Coeficiente de correlación múltiple

4.1.1.4.3. -Coeficiente de determinación parcial

4.1.1.4.4. -Coeficiente de correlación parcial

4.1.1.5. ° Variables binarias

4.1.1.5.1. Una a la que se asigna uno de dos valores, 0 o 1, y se usa para representar en forma numérica los atributos o características que no son esencialmente cuantitativos.

4.1.1.6. ° Trasformaciones de variables

4.1.1.6.1. Cambio en la escala con que se expresa una variable.