Análisis de Regresión

Kom i gang. Det er Gratis
eller tilmeld med din email adresse
Análisis de Regresión af Mind Map: Análisis de Regresión

1. Regresión y correlación no lineal

1.1. La regresión simple de tipo II no lineal es una regresión entre dos variables

1.2. Regresión polinómica y coeficiente de determinación

1.2.1. Regresión polinómica

1.2.1.1. Denominado eij a la diferencia entre el valor estimado y el valor observado de Y

1.2.2. Coeficiente de determinación polinómico

1.2.2.1. Expresión del coeficiente de determinación general

1.2.2.2. su campo de variación es [0;1] con la interpretación ya conocida

1.2.3. Algunas regresiones de tipo II no lineales susceptibles de reducción a lineales

1.2.3.1. Función exponencial yi=a

1.2.3.1.1. es que el error teórico debe intervenir de forma multiplicativa

1.2.3.1.2. la regresión lineal de ln Y sobre X proporciona los valores

1.2.3.2. Función potencial yi=ax

1.2.3.2.1. la función potencial sea linealizable el término de error debe entrar en forma miltiplicativa

1.2.3.3. Función hiperbólica equilátera o recíproca

1.2.3.3.1. la regresión lineal de Y sobre Z proporciona a y

1.2.3.3.2. el modelo recíproco no es lineal es la variable X

1.2.3.3.3. para medir el grado de dependencia lineal de Y sobre X

2. Regresión y Correlación Simple

2.1. Explicada

2.1.1. Dependiente o endógena

2.2. Explicativas

2.2.1. Independientes o exógenas

2.3. Regresión de tipo I

2.3.1. Variable explicativa

2.3.1.1. Distribución Bidimensional (Xi, Yi, Ni)

2.3.1.2. Tomando Y variable para explicar

2.3.1.2.1. Variable cuantitativa

2.3.1.3. Tomando X variable explicativa

2.3.1.3.1. Variable cualitativa

2.3.2. Razón de correlación

2.3.2.1. Se ha minimizado SCE

2.3.2.1.1. Cuanto mas pequeña sea SCE mejor es la regresión.

2.3.2.2. Si se conoce el valor de X va emparejado cada valor de Y

2.3.2.2.1. Propiedad 2 de la media aritmética

2.3.2.3. La reducción proporcional en el error cometido

2.3.2.3.1. Ayuda a la variable X en la explicación de la variabilidad de la variable Y

2.3.2.4. Caso concreto de Y sobre X

2.3.2.5. Esta comprendida entre 0 y 1 puesto que si como consecuencia de la inclusión de la variable x

2.3.2.5.1. La suma de cuadrados del error de estimación no se reduce nada

2.3.3. Varianza debida a la regresión y varianza residual

2.3.3.1. se comprende la suma de dos componentes

2.3.3.1.1. la varianza de los errores de estimación y un porcentaje de la varianza de Y

2.4. Regresión de tipo II

2.4.1. Variable explicada con la explicativa

2.4.2. Es asignar a cada uno de los valores de una variable cuantitativa X y una valor estimado en Y

2.4.3. Cuando la variable explicativa es cuantitativa y puede tomar cualquier valor razonable

2.4.3.1. Si se estima Y mediante las medias de dicha variable correspondiente a cada valor de X

2.4.3.1.1. Se cometerá el menor error de estimación posible

2.4.4. Propiedad 2 de la media aritmética

2.4.4.1. Por las medias de Y para cada valor de X

2.4.4.1.1. Podrá ajustar un polinomio de grado demasiado elevado

2.4.5. La función mas común es la recta

2.4.5.1. existen otras como la parábola, la función exponencial, la potencial entre otras.

2.4.6. Coeficiente de determinación

2.4.6.1. es como medir el grado de dependencia de Y respecto de X

2.4.6.1.1. Bajo la suposición de que se estima Y mediante dicha función concreta de X

2.4.6.1.2. la dependencia será denotado por R2 Y/X cuando la regresión sea de X sobre Y

2.4.6.2. La eficiencia relativa de la regresion de Y sobre X

2.4.6.2.1. es la curva o función ajustada a la hora de recoger la dependencia estadística de Y respecto de X

3. Regresión Lineal

3.1. Dos interpretaciones

3.1.1. Linealidad en la variables

3.1.2. Linealidad en los parámetros

3.2. Una función y=f(x)

3.2.1. es la linea en X si la variable X aparece con potencia unitario y no esta multiplicada ni dividida por otra variable

3.2.2. es lineal en los parámetros si estos aparecen con frecuencia unitario y no están multiplicados ni divididos por cualquier otro parámetro

3.2.2.1. Yi = a+b+cx^2

3.3. Estimación de los parámetros de la regresión lineal

3.3.1. se presuma que la relación de dependencia de Y sobre x

3.3.1.1. es de carácter lineal

3.3.1.1.1. Yi = a+bx+ei

3.3.2. El coeficiente de regresión lineal Y sobre X

3.3.2.1. Cuyo signo es de la covarianza entre las variables

3.3.2.2. es la pendiente de la recta de regresión de Y sobre la variación Y ante un incremento unitario de X

3.4. Coeficiente de determinación lineal

3.4.1. función rectilínea para representar la relación de dependencia de Y sobre X

3.4.1.1. Estimados en parámetros a y b

3.4.2. r^2=0 significa la relación lineal entre Y y X

3.4.2.1. no reduce en absoluta la SCE

3.4.2.1.1. tiene lugar a la hora de proceder a la estimación de valores Y sin conocimientos de valores X

3.4.3. la raíz cuadrada del coeficiente de determinante lineal se conoce como coeficiente de correlación lineal simple

3.4.3.1. coincide en la regresión de Y sobre X y el de X sobre Y

3.4.4. r=1 variable presenta una relación funcional positiva

3.4.4.1. las rectas de regresión de Y sobre X y de X sobre Y coinciden

3.4.5. r= -1 variable presenta una relación funcional y negativa

3.4.5.1. las dos rectas de regresión coinciden si bien son decrecientes

3.4.6. r=0 no existe correlación lineal entre las variables y las rectas de regresión son perpendiculares

3.4.6.1. La recta de regresión de Y sobre X es una paralela al eje X

3.4.6.2. es la introducción de X en forma lineal no reduce la variedad de Y

3.4.6.2.1. -1<r<0

3.4.6.2.2. 0<r<1

3.5. Varianza debida a la regresión lineal y varianza residual

3.5.1. El primer término del lado derecho de la igualdad es la varianza debida a la regresión y el segundo la varianza residual

3.5.2. En el caso de la regresión de tipo II

3.5.3. La varianza de la variable Y se puede descomponer en dos partes

3.5.3.1. La variabilidad de Y que se explica por la inclusion de X

3.5.3.2. La varianza de los errores de estimación o varianza residual

3.6. Correlación lineal e independencia estadística

3.6.1. SxSy no es sino el valor absoluto del máximo valor de la covarianza entre dos variables

3.6.1.1. el coeficiente de correlación lineal no hace sino redimensionar el campo de variación de la covarianza entre -1 y 1

3.6.2. medir la correlación lineal entre X e Y es que mientras el campo de variación de la covarianza [-SxSy + SxSy]

3.6.2.1. depende de cada distribución bidimensional

3.6.2.1.1. coeficiente de correlación lineal es [-1;1]

3.6.3. en el caso de que dos variables X e Y fuesen estadísticamente independiente la covarianza era nula

3.6.3.1. la correlación lineal entre las variables X e Y puede ser nula (r=0)