regresión lineal: esto es, una formula matemática que relaciona las variables conocidas con la va...

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Rocket clouds
regresión lineal: esto es, una formula matemática que relaciona las variables conocidas con la variable desconocida. Entonces podemos aplicar el análisis de correlación para determinar el grado de en el que están relacionadas las variables. El análisis de correlación, entonces, nos dice qué tan bien están relacionadas las variables. El análisis de correlación, entonces, nos dice que tan bien la ecuación de estimación realmente describe la relación por Mind Map: regresión lineal: esto es, una formula matemática que relaciona las variables conocidas con la variable desconocida. Entonces podemos aplicar el análisis de correlación para determinar el grado de en el que están relacionadas las variables. El análisis de correlación, entonces, nos dice qué tan bien están relacionadas las variables. El análisis de correlación, entonces, nos dice que tan bien la ecuación de estimación realmente describe la relación

1. Estructura del modelo de regresión simple El modelo de regresión lineal simple tiene la siguiente estructura yi=β0+β1xi+ei yi=β0+β1xi+ei para i=1,...,ni=1,...,n. Vamos a estudiarlo más detenidamente. Supongamos que hemos ajustado una recta de regresión a un conjunto de datos, y sea (xi,yi)(xi,yi) un punto cualquiera de la nube. Entonces yiyi se puede descomponer como yi=f(yi)+ei=y^i+ei, yi=f(yi)+ei=y^i+ei, donde y^iy^i es el valor ajustado a la recta del valore observado yiyi, y eiei es el error que cometemos y al que llamaremos residuo. Una vez calculado el modelo, el valor de y^y^ queda determinado para cada xixi, pero el valor ei=yi−y^iei=yi−y^i no queda determinado, puede haber dos observaciones con el mismo xixi y distinto eiei. En este razonamiento se basará la hipótesis de independencia de los residuos.

2. El coeficiente de correlación, comúnmente identificado como r o R , es una medida de asociación entre las variables aleatorias X y Y, cuyo valor varía entre -1 y +1.

3. Comparación de modelos Pretendemos seleccionar el “mejor” subconjunto de predictores por varias razones Explicar los datos de la manera más simple. Debemos eliminar predictores redundantes. Predictores innecesarios añade ruido a las estimaciones. La causa de la multicolinealidad es tener demasiadas variables tratando de hacer el mismo trabajo. Eliminar el exceso de predictores ayuda a la interpretación del modelo. Si vamos a utilizar el modelo para la predicción, podemos ahorrar tiempo y/o dinero al no medir predictores redundantes.

4. el análisis de correlación se encuentra estrechamente vinculado con el análisis de regresión , ambos pueden ser considerados de hecho como dos aspectos de un mismo problema.

5. Regresión lineal múltiple La regresión lineal es una técnica estadística destinada a analizar las causas de por qué pasan las cosas. A partir de los análisis de regresión lineal múltiple podemos: identificar que variables independientes (causas) explican una variable dependiente (resultado) comparar y comprobar modelos causales predecir valores de una variable, es decir, a partir de unas características predecir de forma aproximada un comportamiento o estado. La regresión lineal múltiple es la gran técnica estadística para comprobar hipótesis y relaciones causales. Ante de empezar, una serie de condiciones que se deben cumplir para poder aplicar la regresión lineal múltiple: La variable dependiente (resultado) debe ser ordinal o escalar, es decir, que las categorías de la variable tengan orden interno o jerarquía, p.ej. nivel de ingresos, peso, número de hijos, justificación del aborto en una escala de 1-nunca a 10-siempre. Las variables independientes (causas) deben ser ordinales o escalares o dummy Hay otras condiciones como: las variables independientes no puede estar altamente correlacionadas entre sí, las relaciones entre las causas y el resultado deben ser lineales, todas variables deben seguir la distribución normal y deben tener varianzas iguales. Estas condiciones no son tan estrictas y hay maneras de tratar los datos si se incumple. Sobre ello volveremos en futuras entradas

6. Ejemplo de correlación y de regresión: Tenemos diez alumnos con sus notas de matemáticas y de física. Las notas son las siguientes (cada paréntesis recoge las notas de un alumno, la primera nota es la de matemáticas y la segunda es la de física): (7, 8), (2, 4), (8, 8), (6, 7), (5, 6), (8, 9), (9, 9), (1, 3), (2, 3), (3, 4) La correlación de Pearson es r=0,98 y su p-valor es menor que p=0,0001, lo que significa que se trata de una correlación significativa, positiva y de alta magnitud. Vamos a hacer una regresión lineal a través del modelo y=ax+b+ɛ, donde la y es la nota de física y la x la nota de matemáticas. Esto nos puede interesar, por ejemplo, si somos profesores de física y queremos algún día pronosticar las notas que tendrán de física nuestros alumnos sabiendo las notas que han obtenido previamente de matemáticas. Si aplicamos a estos datos la técnica de los mínimos cuadrados vemos que los parámetros de la recta son: a=0,8179 y b=1,9284. La DE de la ɛ es 0,4. Esto significa que podemos escribir el modelo: Nota de física=0,8179*Nota de matemáticas+1,9284+ɛ donde la “ɛ” sigue una distribución N(0, 0.4).

7. La Regresión lineal simple es la más básica pero también la más usual. Es aplicada en todos los ámbitos del conocimiento. La ecuación de la Regresión lineal simple es: y=ax+b+ɛ. Como puede apreciarse cinco letras distintas: “y”, “a”, “x”, “b” y “ɛ”. Ya sabemos qué representan la “y”, la “x” y la “ɛ”.

8. permite hallar el valor esperado de una variable aleatoria a cuando b toma un valor específico. La aplicación de este método implica un supuesto de linealidad cuando la demanda presenta un comportamiento creciente o decreciente, por tal razón, se hace indispensable que previo a la selección de este método exista un análisis de regresión que determine la intensidad de las relaciones entre las variables que componen el modelo. El pronóstico de regresión lineal simple es un modelo óptimo para patrones de demanda con tendencia (creciente o decreciente), es decir, patrones que presenten una relación de linealidad entre la demanda y el tiempo. Existen medidas de la intensidad de la relación que presentan las variables que son fundamentales para determinar en qué momento es conveniente utilizar regresión lineal.