Probabilidad y Estadística Tema 5

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
Rocket clouds
Probabilidad y Estadística Tema 5 por Mind Map: Probabilidad y Estadística Tema 5

1. Distribuciones discretas

1.1. Uniforme

1.1.1. La V.A. asume cada uno de sus valores con la misma probabilidad

1.1.1.1. Se denota X ~ uniforme (k)

1.2. Bernoulli

1.2.1. Tiene dos resultados posibles: éxito (e) o fracaso (f), con probabilidades p y q respectivamente.

1.2.1.1. f(x) = p^x (1-p)^(1-x)

1.2.2. Caracteristicas

1.2.2.1. Parámetros 0<p<1, p E R

1.2.2.2. Dominio k={0,1}

1.2.2.3. Mediana N/A

1.2.2.4. Moda

1.2.2.5. 0 si q > p (hay más fracasos que éxitos)

1.2.2.6. 1 si q < p (hay más éxitos que fracasos)

1.2.2.7. Varianza pq

1.2.3. Proceso

1.2.3.1. 1) El experimento consiste de n ensayos de Bernoulli.

1.2.3.2. 2) Los resultados de cada ensayo son éxito o fracaso.

1.2.3.3. 3) La probabilidad de éxito p, permanece constante para todos los ensayos.

1.2.3.4. 4) Los ensayos son independientes.

1.3. Binomial

1.3.1. X es una variable aleatoria que representa el número k de éxitos en n ensayos independientes, y p la probabilidad de éxito de cualquiera de éstos.

1.3.1.1. Se denota X ~ Binomial (n,p)

1.3.2. Características

1.3.2.1. Parámetros n>0 números de ensayos y 0≤p ≤ 1 probabilidad de éxito

1.3.2.2. Dominio k E {0,1,2,…,n}

1.4. Geométrica

1.4.1. El experimento se termina hasta que sucede el primer éxito.

1.4.1.1. fx(x)= {q^(x−1) p; x=1,2,3,…, n 0; otro caso

1.4.2. Características

1.4.2.1. 1 El experimento consta de ensayos independientes.

1.4.2.2. 2 Cada ensayo tiene sólo dos resultados éxito o fracaso.

1.4.2.3. 3 La probabilidad de éxito en un ensayo es p y la de fracaso es q= 1-p, y se mantienen constantes durante el ensayo.

1.4.2.4. 4 El experimento termina cuando ocurre el primer éxito en un ensayo

1.4.3. Expresión

1.4.3.1. P(X=1)= P(éxito)=P(e)=p

1.4.3.2. P(X=2)= P(fracaso, éxito)=P(fr)=qp

1.4.3.3. P(X=3)= P(fracaso, fracaso, éxito)=P(ffe)=q^2 p

1.4.3.4. P(X=4)= P(fracaso, fracaso, fracaso, éxito)=P(fffe)=q^3 p

1.4.3.5. P(X=x)=q^(x−1)p

1.5. Pascal (Binomial negativa)

1.5.1. La variable aleatoria es el número de ensayos necesarios para observar k-éxitos.

1.5.2. Para determinar la probabilidad de que en el n-ésimo ensayo ocurra el k-ésimo éxito, entonces el resultado del último ensayo fue éxito. Antes del último ensayo, habían ocurrido k-1 éxitos en n-1 éxitos.

1.5.3. El número de maneras distintas en las que pueden observarse k-1 en n-1 ensayos es:

1.5.3.1. (n-1 k-1)

1.5.4. P(x=k)=(n-1 k-1)p^k (1-p)^(n-k)

1.5.4.1. para n=k,k+1,,k+2,

1.5.4.1.1. X representa el número de ensayos requeridos para obtener k ocurrencias de éxito.

1.6. Hipergeométrica

1.6.1. Se considera que la población es finita de tamaño N (y sin reemplazo) y en ella existen r elementos que satisfacen la característica de interés (éxitos).

1.6.1.1. Se denota X ~ Hipergeométrica (r,n,N) o X ~ h (N,n,r)

1.6.2. Converge a la binomial cuando N->oo.

1.6.2.1. En la práctica, la distribución binomial representa una buena aproximación a la hipergeométrica siempre que n < 0.1N

1.6.3. X una variable aleatoria con distribución hipergeométrica con parámetros N , n y r, entonces:

1.6.3.1. MX=E(X)=n(r/N)

1.6.3.1.1. Este cociente debe interpretarse como la proporción de elementos que cumplen la característica de interés, o bien, como la probabilidad de observar un éxito en la primera extracción.

1.6.3.2. o(x^2) _X =Var(x) = n(r/N)(1−(r/N)) ((N−n)/(N−1))

1.6.3.3. E(X)=np

1.6.3.4. Var(X)=npq((N−n)/(N−1))

1.7. Poisson

1.7.1. Es un proceso estocástico de tiempo continuo, consiste en "contar “eventos raros” que ocurren a lo largo del tiempo.

1.7.1.1. El tiempo entre cada par de eventos consecutivos tiene una distribución exponencial con el parámetro λ, y cada uno de estos tiempos entre llegadas se supone que es independiente de otros tiempos entre llegadas.

1.7.2. Propiedades

1.7.2.1. 1 El número de resultados que ocurren en un intervalo de tiempo o región específicos es independiente del número que ocurre en cualquier otro intervalo de tiempo o región.

1.7.2.2. 2 La probabilidad de que un resultado sencillo ocurra en un intervalo de tiempo corto o una región pequeña es proporcional a la longitud del intervalo de tiempo o al tamaño de la región y no depende del número de resultados que ocurren fuera de esa región o tiempo.

1.7.2.3. 3 La probabilidad de que más de un resultado ocurra en ese intervalo de tiempo tan corto o en esa región es despreciable.

1.7.3. Características

1.7.3.1. 1) Estacionaridad

1.7.3.1.1. La probabilidad de que ocurra un evento en un intervalo de tiempo de longitud es t, con λ constante. λ recibe el nombre de intensidad del proceso.

1.7.3.2. 2) Unicidad o No multiplicidad

1.7.3.2.1. La probabilidad de que ocurra más de un evento en un intervalo (de tiempo) de longitud h (h->0) es despreciable comparada con la probabilidad de que ocurra solamente uno.

1.7.3.3. 3) Independencia

1.7.3.3.1. El número de ocurrencias en cualquier intervalo de tiempo es independiente del número de ocurrencias en cualquier otro intervalo.

1.7.4. Distribución

1.7.4.1. P(x)=(λ^x/z!)e^−λ; x=0,1,2,3,…

1.7.4.1.1. Se denota por X ~ Poisson(λ)

2. Distribución continua

2.1. Continua

2.1.1. La V.A. continua que se define en dicho modelo esta distribuida en el intervalo [a,b] de tal forma que la probabilidad de un subintervalo cualesquiera depende solo de su longitud.

2.1.1.1. Por lo tanto, su función de densidad dependerá de los valores de sus parámetros a y b.

2.1.2. X una variable aleatoria que se distribuye

2.1.2.1. fX(x)={(1/(b−a)); a<=x<= b 0; otro caso

2.1.2.1.1. X ~ Uniforme (a,b)

2.1.3. X es una variable aleatoria con distribución continua uniforme, entonces:

2.1.3.1. MX=(a+b)/2

2.1.3.2. o(^2)_x=(b−a)^2/12

2.1.4. Características

2.1.4.1. Parámetros a,b E(−00, 00)

2.1.4.2. Función de densidad 1/(b−a) para a<=x<=b

2.1.4.3. Función de distribución de probabilidad F(X){(0 para x<a (x−a)/(b−a) 1 para x>=b)

2.1.4.4. Función acumulada P(a<=x<=b)=F(b)−F(a)

2.1.4.5. Media (a+b)/2

2.1.4.6. Mediana (a+b)/2

2.1.4.7. Varianza (b−a)^2/12

2.1.4.8. Coeficiente de simetría 0

2.1.4.9. Curtosis 9/5

2.2. Exponencial

2.2.1. Calcula la probabilidad en tiempo de espera entre dos hechos que sigan un proceso de Poisson

2.2.1.1. T la variable aleatoria que representa el intervalo, que transcurre entre 2 ocurrencias sucesivas de un evento, entonces T tiene una distribución exponencial con parámetro λ y función de densidad

2.2.2. fT(t)={λ℮^−λt; t>0 0;otro caso

2.2.2.1. Se denota T~Exponencial(λ)

2.2.3. Características

2.2.3.1. Parámetros λ>0

2.2.3.2. Dominio [0,00)

2.2.3.3. Función de densidad λe^(−λt) o λe^(−λx)

2.2.3.4. Función de distribución 1-e^−λt o 1-e^-λx

2.2.3.5. Media 1/λ

2.2.3.6. Moda 0

2.2.3.7. Mediana ln(2)/λ

2.2.3.8. Varianza 1/λ^2

2.2.3.9. Esta distribución no tiene memoria

2.2.3.10. MT=E(T)=1/λ

2.2.3.11. o^2_T=Var(T)=1/λ^2

2.3. Normal

2.3.1. Una de las distribuciones de probabilidad de variable continua que es más utilizada en fenómenos naturales, sociales y psicológicos.

2.3.2. Teorema

2.3.2.1. Si tomamos muestras de una población que tenga cualquier tipo de distribución, pero una media y varianza finitas, entonces, la distribución de las medias tiende a la distribución normal. Entre mayor sea el número de muestras mejor será la aproximación a una distribución normal.

2.3.3. Teorema del Límite central

2.3.3.1. Si tiramos un dado la probabilidad de que caiga cualquier número es 1/6. Esta es una Distribución de Probabilidad Uniforme, es la misma probabilidad para todos los valores que toma la variable

2.3.4. X tiene una función de densidad dada por:

2.3.4.1. fX(x)=(1/(√2pi o))e^−(x−M)^2/(2o^2), -00<x< 00 para toda x

2.3.5. Propiedades

2.3.5.1. f_X(x)>0

2.3.5.2. Es simétrica si f_X(M+x)=fX(M−x)

2.3.5.3. El máximo ocurre en x=M

2.3.5.4. Puntos de inflexión x=M+-o

2.3.5.5. Curtosis igual a 3

3. Elaborado por: Aguilar Bartolo Fernando Hernández García Alejandro Manuel Monroy Barragán Bryan Alexis

3.1. UNAM