PROBABILIDAD

Probabilidad mapa mental

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
PROBABILIDAD por Mind Map: PROBABILIDAD

1. Distribuciones

1.1. Uniforme Discreta

1.1.1. Definición

1.1.1.1. Modela la distribución de probabilidades de una variable donde todos sus posibles valores tienen la misma probabilidad de ocurrencia.

1.1.1.1.1. La media y la varianza de la distribución uniforme discreta f(x;k) son

1.1.2. Tipos

1.1.2.1. Modela la distribución de probabilidades de una variable que se refiere a la cantidad de éxitos que se pueden lograr al realizar una cierta cantidad de experimentos simples con probabilidad de éxito constante y con repeticiones independientes.

1.1.2.1.1. Toda variable binomial esta caracterizada por 2 constantes (parametros): n y p

1.1.2.1.2. Una variable binomial tiene función de masa de probabilidad (la cual depende de n y p) b(x; n, p)=(nx)px(1−p)n−x

1.1.2.1.3. Ejemplos

1.1.2.1.4. La media y la varianza de la distribución binomial b (x;n,p)son µ=np y σ^2=npq

1.1.2.2. Binomial

1.1.2.3. Binomial Negativa

1.1.2.3.1. Centra su interés en el número de ensayos necesarios hasta obtener k-ésimo éxito en la x-ésima prueba

1.1.2.4. Bernoulli

1.1.2.4.1. Modela la distribución de probabilidades para variables dicotómicas con recorrido RX = {0,1}.

1.1.2.5. Multinomial

1.1.2.5.1. Este modelo puede considerarse una generalización de la distribución binomial, o sea aplicable al cálculo de la probabilidad de obtener n1, n2, ..., nk ocurrencias en k categorías (mutuamente excluyentes) de una muestra de tamaño nc=n1+n2+...+ nk.

1.1.2.6. Hipergeométrica

1.1.2.6.1. Modela la probabilidad de seleccionar x éxitos de los k artículos considerados como éxitos y n-x fracasos de los N-k artículos que se consideran fracasos cuando una muestra aleatoria de tamaños n se selecciona de N artículos

1.1.2.7. Geométrica

1.1.2.7.1. Modela la distribución de la probabilidad de valores numéricos de una variable aleatoria X y el número de resultados de que ocurra un evento raro en un periodo de tiempo o cierto espacio.

1.1.2.8. Poisson

1.1.2.8.1. Modela la distribución de probabilidades de una variable que se refiere a realizar cierto número de experimentos antes de obtener un éxito.

1.2. Uniforme Continua

1.2.1. Definición

1.2.1.1. La función de densidad de la variable aleatoria uniforme continua X en el intervalo uniforme [A, B] es f(x;A,B)={1/B-A , A<- x <- B,

1.2.1.1.1. La media y varianza de la distribución uniforme son µ=A+B/2 y σ^2=(B-A)^2/12

1.2.2. Normal

1.2.2.1. Se dice que una variable aleatoria X se encuentra normalmente distribuida con media u y varianza o^2,si su función de densidad de probabilidad f(x) n(x;u,o)= 1/√2πo .e^-1/2o^2(x-u)^2, siendo -∞<x<∞ donde π=3,14159... y e=2,71828

1.2.2.1.1. Propiedades de la Curva

1.2.3. t de Student

1.2.3.1. Sea X1,X2,…,Xn una muestra pequeña de una población normal con media µ. Entonces, la cantidad X-µ/(s/√n) tiene una distribución t de Student con n-1 grados de libertad, denotada por t n-1

1.2.4. Ji Cuadrado

1.2.4.1. Paramétrica

1.2.4.1.1. Prueba para una varianza

1.2.4.2. No paramétrica

1.2.4.2.1. Prueba de bondad de ajuste

1.2.4.2.2. Prueba de independencia

1.2.4.2.3. Prueba de homogeneidad

2. Teoremas

2.1. Probabilidad compuesta

2.1.1. Sea A₁,A₂,…,An ⊂ E una colección de sucesos aleatorios. Entonces: P(A1,A2,…,An)=P(A1).P(A2|A1).P(A2).P(A3|A1.A2). … . P(An|A1.A2…An-1)

2.2. Probabilidad total

2.2.1. Sea A₁,A₂,…,An ⊂ E un sistema exaustivo y excluyente de sucesos ∀B ⊂ E, ⇒ P(B) = Σ P(B|Ai).P(Ai)

2.3. Bayes

2.3.1. Sea A₁,A₂,…,An ⊂ E un sistema exaustivo y excluyente de sucesos. Sea B ⊂ E un suceso del que conocemos todas las cantidades P(B|Ai), i=1,2,…,n, a las que denominamos verosimilitudes, entonces se verifica: ∀j =1,2,…,n, P(Aj|B)= P(B|Aj).P(Aj)/ Σ P(B|Aj).P(A)

2.4. Regla aditiva

2.4.1. Probabilidad de la unión de dos eventos

2.4.1.1. P(E1∪E2)=P(E1)+P(E2)−P(E1∩E2)

2.4.2. Eventos disjuntos

2.4.3. Eventos complementarios

2.4.3.1. La probabilidad de un evento es el complemento a 1 de la de su evento complementario

2.4.3.1.1. P(E)+P(E')=1

2.5. Probabilidad condicional

2.5.1. La probabilidad condicional de B, dado A, que se denota con P(B|A), se define como: P(B│A)=P(A∩B)/P(A)

2.6. Eventos independientes

2.6.1. Dos eventos A y B son independientes si y sólo si P(B|A)=P(B) o P(A|B)=P(A) si se asume la existencia de probabilidad condicional. De otra forma, A y B son DEPENDIENTES.

2.7. Regla del producto

2.7.1. P(E1∩E2)=P(E1) P(E2∣E1)=P(E2) P(E1∣E2)

2.7.1.1. Si los eventos son independientes de cumple

2.7.1.1.1. P(E1∩E2)=P(E1)P(E2)=P(E2)P(E1)

3. Experimento determinista

3.1. Da lugar a un resultado cierto o seguro, es decir, cuando partiendo de unas mismas condiciones iniciales tenemos la certeza de lo que va a suceder

4. EXPERIMENTO ALEATORIO

4.1. Resultados del experimento

4.1.1. ESPACIO MUESTRAL: conjunto de todos los resultados posibles de un experimento aleatorio.

4.1.1.1. Tipos

4.1.1.1.1. Espacio muestral finito

4.1.1.1.2. Espacio muestral infinito numerable

4.1.1.1.3. Espacio muestral infinito no numerable

4.1.1.2. Soporte: conjunto de valores posibles de la variable aleatoria

4.1.1.2.1. VARIABLE ALEATORIA X : S→C⊆ℝ s→ X(s)

4.1.1.3. Tamaño del espacio muertral: está dado por el número total de puntos muéstrales que pertenecen al espacio muestral

4.1.1.3.1. Espacio muestral finito

4.1.1.3.2. Espacio muestral infinito numerable

4.1.1.3.3. Espacio muestral infinito no numerable

4.1.2. PUNTO MUESTRAL

4.1.2.1. Cada uno de los posibles resultados

4.1.3. EVENTO

4.1.3.1. Conjunto de puntos muéstrales

4.1.3.1.1. PROBABILIDAD DE UN EVENTO: es la medida del evento E tomada en forma relativa a la medida del espacio muestral. Toma valores entre 0 y 1

5. Enfoques

5.1. Probabilidad clásica

5.2. Probabilidad frecuentista

5.3. Probabilidad subjetiva

5.4. Probabilidad como medida

5.5. Probabilidad axiomática