Medidas Estadísticas Bivariantes De Regresión

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Medidas Estadísticas Bivariantes De Regresión por Mind Map: Medidas Estadísticas  Bivariantes De Regresión

1. Regresión Lineal Simple

1.1. Permite

1.1.1. Describir c´omo influye una variable X sobre otra variable Y

1.1.1.1. X: Variable independiente o explicativa o ex´ogena

1.1.1.2. Y: Variable dependiente o respuesta o end´ogena

1.2. Tipos de relación

1.2.1. Lineal

1.2.1.1. Cuando la funcion f (x) es lineal

1.2.1.1.1. f (x) = β0 + β1x

1.2.1.1.2. Si β1 > 0 hay relación lineal positiva.

1.2.1.1.3. Si β1 < 0 hay relación lineal negativa.

1.2.2. No Lineal

1.2.2.1. Cuando la funci´on f (x) no es lineal. Por ejemplo, f (x) = log(x), f (x) = x 2 + 3, . . .

1.2.2.2. Los datos no tienen un aspecto recto.

1.2.3. Ausencia de relación

1.2.3.1. Cuando f (x) = 0

1.3. Supone

1.3.1. yi = β0 + β1xi + ui

1.3.1.1. Donde

1.3.1.1.1. yi representa el valor de la variable respuesta para la observación i-´esima.

1.3.1.1.2. xi representa el valor de la variable explicativa para la observación i-´esima.

1.3.1.1.3. ui representa el error para la observación i-´esima que se asume normal

1.4. Hipotesis

1.4.1. Linealidad: La relación existente entre X e Y es lineal

1.4.1.1. f (x) = β0 + β1x

1.4.1.1.1. Los datos deben ser razonablemante rectos

1.4.2. Homogeneidad: El valor promedio del error es cero

1.4.2.1. E[ui] = 0

1.4.2.1.1. La dispersión de los datos debe ser constante

1.4.2.1.2. Si no se cumple, los datos son heterocedásticos

1.4.3. Homocedasticidad: La varianza de los errores es constante

1.4.3.1. Var(ui) = σ 2

1.4.4. Independencia: Las observaciones son independientes

1.4.4.1. E[uiuj] = 0

1.4.4.2. Una observación no debe dar información sobre las demás

1.4.4.2.1. Los datos deben ser independientes

1.4.5. Normalidad: Los errores siguen una distribución normal

1.4.5.1. ui ∼ N(0, σ)

1.4.5.1.1. Se asume que los datos son normales a priori

1.5. Supuestos del modelo de regresión lineal

1.5.1. Se necesita que

1.5.1.1. Que la relación entre las variables sea lineal

1.5.1.2. Que los errores en la medición de las variables explicativas sean independientes entre sí.

1.5.1.3. Que los errores tengan varianza constante. (Homocedasticidad)

1.5.1.4. Que los errores tengan una esperanza matemática igual a cero (los errores de una misma magnitud y distinto signo son equiprobables).

1.5.1.5. Que el error total sea la suma de todos los errores

2. Regresión Multiple

2.1. Se utiliza para

2.1.1. Modelar y Predecir una palabra

2.1.2. Determinar la relación de dependencia que tiene una variable respecto a otra

2.2. Estudian

2.2.1. Una variable de interés Y (variable respuesta o dependiente) y

2.2.2. Un conjunto de variables explicativas o regresoras X1, X2, . . . , Xp

2.3. Principales elementos a considerar en el análisis de regresión múltiple

2.3.1. Coeficiente de Correlación Múltiple (Múltiple R).

2.3.1.1. Puede ser

2.3.1.1.1. Positivo, Negativo y Nulo

2.3.2. Coeficiente de Correlación Múltiple al Cuadrado o Coeficiente de Determinación (R Square “R2”).

2.3.3. Coeficiente de Determinación Ajustado (Adjusted R Square).

2.3.4. Error Típico de Predicción (ETB).

2.3.5. Análisis de Varianza

2.3.6. Análisis de Residuales.