1. Distribución Normal
1.1. Estudiada, por J.K.F. Gauss (Alemania, 1777-1855)
1.1.1. Es un ejemplo de las distribuciones continuas, y aparece en multitud de fenómenos sociales.
1.1.1.1. Al estudiar aspectos tan cotidianos como:
1.1.1.2. Caracteres morfológicos de individuos (personas, animales, plantas) de una misma raza. Como: tallas, pesos, envergaduras, etc.
1.1.1.3. Caracteres fisiológicos, como el efecto de una misma dosis de un fármaco, o de una misma cantidad de abono.
1.1.1.4. Caracteres sociológicos, como el consumo de ciertos productos por individuos de un mismo grupo humano.
1.1.1.5. Caracteres psicológicos, como el cociente intelectual, grado de adaptación a un medio.
1.1.1.6. Caracteres físicos, como la resistencia a la rotura de ciertas piezas todos ellos tienen en común que se distribuyen “normalmente”.
1.1.2. Definiciòn
1.1.2.1. Se dice que la v.a continua X es una v.a. normal con parámetros µ y σ ² si su función de densidad es:
1.1.2.1.1. Se denota X~ N(µ,σ²) y se dice X se distribuye normal con parámetros µ Una distribución normal de media μ y desviación típica σ se designa por N(μ, σ). Su gráfica es la campana de Gauss:
1.1.3. Propiedades:
1.1.3.1. Tiene una única moda, que coincide con su media y su mediana (aproximadamente).
1.1.3.2. La curva normal es asintótica al eje de las abscisas. Por ello, cualquier valor entre menos infinito e infinito es teóricamente posible. El área bajo la curva normal es igual a la unidad.
1.1.3.3. La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre -∞ y +∞ es teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
1.1.3.4. El área bajo la curva comprendida entre los valores situados aproximadamente a dos desviaciones estándar de la media es igual a 0.95.
1.1.4. Ejercicios
2. Distribución Normal Estandarizada N(0, 1)
2.1. Definiciòn:
2.1.1. Es aquella que tiene por media el valor cero, μ =0, y por desviación típica la unidad, σ =1.
2.2. Formula:
2.3. Uso de Tablas:
2.3.1. Para poder utilizar la tabla tenemos que transformar la variable X que sigue una distribución N(μ, σ) en otra variable Z que siga una distribución N(0, 1).
2.3.1.1. La tabla nos da las probabilidades de P(z ≤ k), siendo z la variable tipificada. Estas probabilidades nos dan la función de distribución Φ(k). Φ(k) = P(z ≤ k)
2.3.1.1.1. Casos:
2.4. Aproximación de la Binomial por la Normal:
2.4.1. Si: n•p ≥ 0 y n•q ≥ 0. La distribución binomial B(n,p) se puede aproximar mediante una distribución normal
2.5. Ejercicios:
3. Distribución Binomial
3.1. Estudiada por Jakob Bernoulli (Suiza, 1654-1705).
3.1.1. Es una distribución de probabilidad discreta
3.1.2. Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe: X- B(n,p)
3.1.3. Características
3.1.3.1. Es dicotómica, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p.
3.1.3.2. Cada uno de los ensayos o repeticiones del experimento son independientes entre sí.
3.1.3.3. Las probabilidades asociadas a cada uno de estos resultados son constantes, es decir no cambian.
3.1.3.4. El número de ensayos o repeticiones del experimento (n) es constante.
3.1.4. Formula de Distribución de Probabilidad:
3.1.4.1. n= es el número de pruebas. k=es el número de éxitos. p=es la probabilidad de éxito. q= es la probabilidad de fracaso. El número combinatorio
3.1.4.1.1. Media, Varianza y Desviación Típica
3.1.5. Uso de Tablas:
3.1.5.1. La distribución binomial se encuentra tabulada por lo que es fácil calcular probabilidades sin necesidad de hacer demasiadas cuentas. Para usar las tablas de la distribución binomial es necesario conocer:
3.1.5.1.1. Tablas:
3.1.5.2. El número de veces que se realiza el experimento (n).
3.1.5.3. La probabilidad de éxito (p).
3.1.5.4. El número de éxitos (k).
3.1.5.5. La probabilidad p se busca en la primera fila (valores desde 0’01 hasta 0’5).
3.1.5.6. El número de veces que se realiza el experimento, en la primera columna (valores desde 2 a 10) y el número de éxitos a su lado.
4. Distribución de Poisson
4.1. Definición:
4.1.1. Describe la probabilidad como un acontecimiento fortuito ocurrido en un tiempo o intervalo de espacio bajo las condiciones que la probabilidad de un acontecimiento ocurre es muy pequeña, pero el número de intentos es muy grande, entonces el evento actual ocurre algunas veces. “La probabilidad de obtener “X “éxitos en un intervalo continuo”
4.2. Se emplea para describir varios procesos:
4.3. La demanda de servicios en un hospital por parte de los pacientes
4.4. Los arribos de los camiones y automóviles a la caseta de cobro
4.5. El número de accidentes en un cruce
4.6. El número de defectos en una tela por m2
4.7. El número de bacterias por cm2
4.8. Características:
4.8.1. El número de resultados que ocurren en un intervalo de tiempo o región específicos es independiente de el número que ocurre en cualquier otro intervalo de tiempo o región
4.8.2. La probabilidad de que un resultado muy pequeño ocurra en un intervalo de tiempo muy corto o en una región pequeña es proporcional a la longitud del intervalo de tiempo o al tamaño de la región
4.8.3. La probabilidad de que más de un resultado ocurra en un intervalo de tiempo tan corto o en esa región tan pequeña es inapreciable, que se puede asignar el valor de 0
4.9. Ecuación:
4.9.1. Dónde: p(x, l) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de ellos es l l = media o promedio de éxitos por unidad de tiempo, área o producto e = 2.718 x = variable que nos denota el número de éxitos que se desea que ocurra
4.9.2. Media, Varianza y Desviación Estándar