MEDIDAS ESTADÍSTICAS BIVARIATES

Lancez-Vous. C'est gratuit
ou s'inscrire avec votre adresse e-mail
MEDIDAS ESTADÍSTICAS BIVARIATES par Mind Map: MEDIDAS ESTADÍSTICAS BIVARIATES

1. Coeficiente de correlación múltiple

1.1. Se denota formalmente con Ry123, donde el subíndice primario es la variable de criterio, y los subíndices secundarios, las variables de predicción

2. Regresión lineal múltiple

2.1. Es cuando dos o mas variables independientes influyen sobre una variable dependiente.

2.2. El análisis de regresión múltiple permite añadir diversas variables, de modo que la ecuación refleje los valores de un cierto número de variables de predicción, no una sola.

2.3. Nomenclatura modificada

2.3.1. Disyuntiva etica

2.3.2. Coeficiente de regresión parcial o neta

2.3.2.1. Interpretación que se aplica sólo cuando las variables de predicción son independientes entre sí, como se requiere para la aplicación válida del modelo de regresión múltiple.

2.4. Supuesto de multicolinealidad

2.4.1. Se dice que hay multicolinealidad en un problema de regresión múltiple cuando las variables de predicción están correlacionadas.

2.4.2. Multicolinealidad Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras, como se requiere, sino que están correlacionadas.

3. Diagrama de dispersión

3.1. El diagrama de dispersión permite estudiar las relaciones entre dos conjuntos asociados de datos que aparecen en pares (por ejemplo, (x,y), uno de cada conjunto). El diagrama muestra estos pares como una nube de puntos. recuperado de:http://cursos.aiu.edu/Fundamentos%20de%20Estad%C3%ADstica/pdf/Tema%205.pdf

3.2. - Una relación positiva entre x y y significa que los valores crecientes de x están asociados con los valores crecientes de y. - Una relación negativa significa que los valores crecientes de x están asociados con los valores decrecientes de y.

4. REFERENCIAS

4.1. Montero, J.M. (2007). Regresión y Correlación Simple. Madrid: Paraninfo. (pp 151 – 158). Recuperado de http://go.galegroup.com/ps/i.do?id=GALE%7CCX4052100011&v=2.1&u=unad&it=r&p=GVRL&sw=w&asid=b82c81e98fcc1361e1929abe203c8219

4.2. Vila, A., Sedano, M., López, A., & Juan, A. (2004). Correlación lineal y análisis de regresión. Barcelona: Universidad Oberta de Catalunya.

4.3. Churchill, G.A. (2009). Análisis de Correlación y de Regresión Simple. México City: Cengage Learning. (pp 675 – 686). Recuperado de http://go.galegroup.com/ps/i.do?id=GALE%7CCX4058900232&v=2.1&u=unad&it=r&p=GVRL&sw=w&asid=e558184ed89e57d11ede116134cfce41

4.4. Churchill, G.A. (2009). "Análisis de Regresión Múltiple." Investigación de mercados. México City: Cengage Learning.(pp 686 – 695).Recuperado de http://go.galegroup.com/ps/i.do?id=GALE%7CCX4058900234&v=2.1&u=unad&it=r&p=GVRL&sw=w&asid=49575112db86a0eb46dae86bbaf74cb9

5. Regresión simple

5.1. Teoría de regresión

5.1.1. Explica el comportamiento de una variable

5.1.2. Regresión tipo 1

5.1.2.1. Se asigna a cada valor de la variable explicativa

5.1.2.2. Solo proveerá estimaciones de (Y) para los valores de (X) contenidos en la distribución de frecuencias.

5.1.2.3. La forma de proceder en la regresión de tipo I es asignar a cada uno de los valores de una variable cuantitativa X que aparecen en la distribución (que en algunos casos pudieran ser los únicos que toma la variable X), o a un número predeterminado de niveles de una variable cualitativa

5.1.3. Regresión tipo 2

5.1.3.1. Proporciona el comportamiento general de la variable Y a medida que evoluciona la variable X.

5.1.3.2. Entre ellas la más común es la recta, aunque existen otras como la parábola, la función exponencial, la potencial, etc.

6. Regresión lineal

6.1. Una función y = f(x) se dice que es lineal en X si la variable X aparece con potencia unitaria (por tanto, se excluyen términos como x2, x3, 1/x, √x, por ejemplo) y no está multiplicada ni dividida por otra variable.

6.2. Determina el grado de dependencia de la serie de los valores X e Y prediciendo el valor que se obtendrá para un valor X .

7. Correlación simple

7.1. Razón de correlación = Y/X

7.1.1. Conociendo el valor de X que va emparejado con cada valor de Y, la mejor estimación de esta última es la media de las observaciones de Y emparejadas con el valor en cuestión de X, siendo la suma de cuadrados de los errores de estimación cometidos

7.1.2. Si no se conociese con qué valor de X va emparejado cada valor de Y la mejor estimación de Y sería la media de la variable Y, siendo la suma de cuadrados de los errores de estimación cometidos

7.1.3. La reducción proporcional en el error cometido (respecto del que se cometía cuando no se disponía de información alguna sobre la variable X) es una buena medida de lo que ayuda la variable X en la explicación de la variabilidad de la variable Y.