Medidas estadísticas Bivariantes de regresión y correlación.

Medidas estadísticas Bivariantes de regresión y correlación.

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Medidas estadísticas Bivariantes de regresión y correlación. por Mind Map: Medidas estadísticas Bivariantes de regresión y correlación.

1. Coeficiente de determinación

1.1. Una vez elegido el modelo de función de regresión de tipo Il y estimados los valores de sus parámetros que hacen mínima SCE11, la cuestión que se plantea es como medir el grado de dependencia de Y respecto de X bajo la suposición de que se estima y mediante dicha función concreta de X. Tal grado de dependencia será denotado por R2Y/X, y se denomina coeficiente de determinación de la regresión de Y sobre X (R2X/Y, cuando la regresión sea de X sobre Y).

2. Análisis de Correlación y de Regresión Simple

2.1. Los análisis de correlación y de regresión son de uso frecuente entre los investigadores de mercados para estudiar la relación entre dos o más variables. Aunque es común el uso indistinto de estos términos, existe una diferencia en su propósito.

3. Error estándar de estimación

3.1. Este término es usado en el análisis de regresión para referirse al valor absoluto de la variación en la variable de criterio, que se deja sin explicación, o que no cuenta, en la ecuación de regresión ajustada.

4. Regresión y correlación simple

4.1. En el capítulo precedente se puso de manifiesto el interés de estudiar simultáneamente dos o más caracteres, X e Y, sobre la misma población, con el propósito de detectar si existe dependencia estadística entre ellos o si, por el contrario, son independientes.

5. Razón de correlación

5.1. Vayamos un poco más lejos. En el apartado anterior se ha minimizado SCE pero esto no significa que esta sea muy pequeña. Pudiera ser grande y resultar que con otras estimaciones de Y distintas de las medias condicionadas fuera aún más grande. Evidentemente, cuanto más pequeña sea SCE mejor es la regresión en el sentido de que, globalmente, se cometen menores errores de estimación. Es más, lo ideal sería que SCE = 0.

6. Varianza debida a la regresión y varianza residual

6.1. Se puede apreciar que la varianza total de la variable y se puede descomponer en la suma de dos componentes: la varianza de los errores de estimación (también denominados residuos de la regresión) y un porcentaje de la varianza de Y que se debe a la inclusión de la variable X en el análisis, que se denominará varianza de Y«explicada por la regresión de tipo I de Y sobre X, o por la inclusión de la variable X en la regresión. En consecuencia, la razón de correlación de Y sobre X no es sino la varianza debida a la regresión de tipo I de Y sobre X dividida entre la varianza de la variable Y.

7. Concepto de regresión de tipo II

7.1. La forma de proceder en la regresión de tipo I es asignar a cada uno de los valores de una variable cuantitativa X que aparecen en la distribución (que en algunos casos pudieran ser los únicos que tómala variable X), o a un número predeterminado de niveles de una variable cualitativa (como se vio en él Ejemplo 5.2), un valor estimado de Y. En definitiva, asignar estimaciones de Y al conjunto finito de valores de X con el que se trabaja.

8. Se puede establecer otra clasificación de la regresión:

9. Regresión de tipo II. Se supone que la función y = f(x) o y = f(x1, x2, ..., xp) que liga la variable explicada con la explicativa (o explicativas) tiene forma paramétrica, es decir, Y se relaciona con X a través de una serie de coeficientes o parámetros. En consecuencia, proporciona estimaciones de Y para cualquier valor de X, esté contenido en la distribución o no

10. Regresión de tipo I. Se asigna a cada valor de la variable explicativa (o conjunto de valores de las variables explicativas, en el caso múltiple) la media de la variable explicada condicionada a tal valor(es) de la(s) variable(s) explicativa(s). Por consiguiente, solo proveerá estimaciones de Y para los valores de X contenidos en la distribución de frecuencias.

11. definición

12. Aborda el estudio de los sucesos en los que intervienen dos variables simultáneamente

13. Sirve para describir conjuntamente dos variables estadísticas y establecer si existe asociación/relación entre estas dos variables, ya sean dependientes o independientes.