1. Regresión y Determinación
1.1. Regresión y Correlación Simple
1.1.1. Regresión lineal o simple
1.1.1.1. una función es lineal en los parámetros si éstos aparecen con frecuencia unitaria y no están multiplicados ni divididos por cualquier otro parámetro. A modo de ejemplo, yj = a + √bxi
1.1.1.1.1. se puede establecer otra clasificación de la regresión:
1.1.1.2. La regresión explica el comportamiento de una variable, denominada explicada (dependiente o endógena)
1.1.1.2.1. en función de otra u otras, denominadas explicativas (independientes o exógenas).se dividen en funciones simples y múltiples
1.1.1.3. Estimación de los parámetros de la regresión lineal
1.1.1.3.1. Coeficiente de determinación lineal
1.1.1.3.2. Varianza debida a la regresión lineal y varianza residual
1.2. Correlación lineal e independencia estadística
1.2.1. el coeficiente de correlación lineal no hace sino redimensionar el campo de variación de la covarianza entre −1 y 1.
1.2.2. se entiende como la covarianza entre dos variables indica su grado de correlación lineal a través de la recta
2. Análisis de Correlación y de Regresión Simple
2.1. son de uso frecuente entre los investigadores de mercados para estudiar la relación entre dos o más variables.
2.1.1. ° el análisis de correlación
2.1.1.1. mide la cercanía de la relación entre dos o más variables
2.1.2. ° el análisis de regresión
2.1.2.1. se usa para derivar una ecuación que relaciona la variable de criterio con una o más variables de predicción.
2.1.3. ° Error estándar de la estimación
2.1.3.1. valor absoluto de la variación en la variable de criterio, que se deja sin explicación, o que no cuenta, en la ecuación de regresión ajustada.
2.1.4. ° Inferencias acerca del coeficiente de pendiente
2.1.4.1. si el resultado es estadísticamente significativo o aleatorio
2.1.5. ° Coeficiente de correlación
2.1.5.1. análisis de regresión para designar la fuerza de la relación lineal entre las variables de criterio y predictivas.
3. Análisis de Regresión Múltiple
3.1. determinar la relación entre las variables independientes y dependiente, o variables de predicción y de criterio.
3.1.1. se divide en
3.1.1.1. ° Nomenclatura modificada
3.1.1.1.1. Un marco de notación modificado y más formal es valioso para comentar el análisis de regresión múltiple. Y = α + β1 X1 + β3X3 + ∊
3.1.1.2. ° Supuesto de multicolinealidad
3.1.1.2.1. : término de error en el modelo de regresión simple se aplican también a la ecuación de regresión múltiple.
3.1.1.3. ° Coeficientes de regresión parcial
3.1.1.3.1. Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras
3.1.1.4. ° Coeficientes de correlación múltiple y de determinación múltiple
3.1.1.4.1. -Coeficiente de determinación múltiple
3.1.1.4.2. -Coeficiente de correlación múltiple
3.1.1.4.3. -Coeficiente de determinación parcial
3.1.1.4.4. -Coeficiente de correlación parcial
3.1.1.5. ° Variables binarias
3.1.1.5.1. Una a la que se asigna uno de dos valores, 0 o 1, y se usa para representar en forma numérica los atributos o características que no son esencialmente cuantitativos.
3.1.1.6. ° Trasformaciones de variables
3.1.1.6.1. : cambio en la escala con que se expresa una variable.