Get Started. It's Free
or sign up with your email address
ESTADISTICA DESCRIPTIVA by Mind Map: ESTADISTICA DESCRIPTIVA

1. El objetivo mas importante en la estadistica es comprender la naturaleza general de las distribuciones de probabilidad reforzará el conocimiento del concepto valor-P, que se estudió

2. PROBABILIDAD

2.1. ESPACIO MUESTRAL

2.1.1. Es el conjunto de todos los posibles resultados de un experimento estadístico, el cual se representa con el símbolo S. A cada resultado en un espacio muestral se le llama miembro del espacio muestral o punto muestral. Si en el espacio muestral se halla un número finito de elementos, estos se pueden separar mediante comas y encerrarlos entre llaves.

2.1.1.1. En el lanzamiento de una moneda al aire, el espacio muestral S, muestra los posibles resultados y se puede escribir como S = {H, T}, en donde H y T corresponden a “caras” y “cruces”, respectivamente.

2.1.1.1.1. En algunos experimentos es útil listar los elementos del espacio muestral de forma sistemática utilizando un diagrama de árbol.

2.1.2. TIPOS DE ESPACIO MUESTRAL

2.1.2.1. Espacios muestrales discretos: Son aquellos cuyos elementos resultan de hacer conteos, y por lo general general son subconjuntos de los números enteros.

2.1.2.2. Espacios muestrales continuos: Son aquellos cuyos elementos resultan de hacer mediciones y por lo general son intervalos en la recta real.

2.2. EVENTOS

2.2.1. Un evento es un subconjunto de un espacio muestral. Y representa la totalidad de los elementos para los que el evento es cierto. Y por lo general se le representa por las primeras letras del alfabeto.

2.2.2. Clasificación de eventos:

2.2.2.1. Eventos simples: son aquellos que solo puede asumir un solo resultado en el espacio muestral. Eventos Compuestos: son aquellos que pueden asumir más de un resultado en el espacio muestral

2.2.3. Relaciones entre eventos

2.2.3.1. Unión de eventos:

2.2.3.1.1. Dados dos eventos A y B de un mismo espacio muestral su unión se representa por A∪B y es el evento que contiene los elementos que están en A o en B, o en ambos. El evento ocurre si al menos uno de los dos eventos ocurre.

2.2.3.2. Intersección de eventos

2.2.3.2.1. Dados dos eventos A y B de un mismo espacio muestral su intersección se representa por A ∩ B y es el evento que contiene los elementos que están en A y B al mismo tiempo. El evento ocurre cuando los eventos ocurren simultáneamente.

2.2.3.3. Evento complemento

2.2.3.3.1. El complemento de un evento A se representa por Ā y es el evento que contiene contiene todos los elementos que no están en A. El evento ocurre si A no ocurre.

2.2.3.4. Propiedades de relaciones entre eventos

2.2.3.4.1. Donde A, B y C son elementos de un mismo espacio muestral S.

2.2.4. Tipos de eventos

2.2.4.1. Mutuamente excluyentes

2.2.4.1.1. Hace referencia a que dos elementos no se pueden dar simultáneamente. P(AoB) = P(A∪B) = P(A)+P(B)

2.2.4.2. No excluyentes

2.2.4.2.1. Cuando sucede, no se descarta la posibilidad de que otro evento suceda. P(AoB) = P(A)+P(B)- P(AyB)

2.3. CONTEO DE PUNTOS MUESTRALES

2.3.1. En muchos casos se resuelven problemas de probabilidad mediante el conteo del número de puntos en el espacio muestral.

2.3.1.1. Regla de multiplicación

2.3.1.1.1. Permite encontrar la probabilidad de que ocurra el evento A y el evento B al mismo tiempo. Esta regla depende de si los eventos son dependientes o independientes.

2.3.1.2. Permutación

2.3.1.2.1. Una permutación es un arreglo de todo o parte de un conjunto de objetos. Son eventos de tipo multiplicativo, donde el número de posibilidades va disminuyendo y donde si importa el orden.

2.3.1.3. Combinación

2.3.1.3.1. Son eventos similares a las permutaciones pero el orden ya no importa

2.4. PROBABILIDAD DE UN EVENTO

2.4.1. La ocurrencia de un evento resulta de un experimento estadístico el cual se evalúa utilizando números reales que van de 0 (imposible) a 1 (seguro). Cada ejecución de un experimento se denomina ensayo.

2.4.1.1. S es el espacio muestral

2.4.1.1.1. Ejemplo

2.5. REGLAS ADITIVAS

2.5.1. Esta regla es útil al tener dos eventos y se desea conocer la probabilidad de que ocurra al menos uno de ellos.

2.5.1.1. EJEMPLO

2.5.2. Sin embargo esta regla se puede extender cuando existen mas de dos eventos, teniendo la misma analogia que tan solo ocurra uno de ellos.

2.5.3. Cuando son mutuamente excluyentes, es decir, son eventos independientes.

2.5.3.1. EJEMPLO

2.6. PROBABILIDAD CONDICIONAL, INDEPENDENCIA Y REGLA DEL PRODUCTO

2.6.1. PROBABILIDAD CONDICIONAL

2.6.1.1. Estudia la probabilidad existente de que ocurra un evento B luego de que halla ocurrido otro A.

2.6.1.1.1. EJEMPLO

2.6.2. EVENTOS INDEPENDIENTES

2.6.2.1. Este tipo de eventos se refiere a la probabilidad en la cual un evento ocurra sin que intervenga otro evento,es decir, son independientes porque no se influyen entre si.

2.6.3. REGLA DE PRODUCTO

2.6.3.1. Esta regla va conjunta con la probabilidad condicional ya que para obtener la probabilidad de que ocurra un evento A y un evento B, se debe de multiplicar la probabilidad de que ocurra A con la probabilidad de que ocurra B después de ocurrido A. Esto cuando los eventos son dependientes.

2.6.3.1.1. EJEMPLO

2.6.3.2. De igual manera esta regla influye en eventos independientes, dando la multiplicación de la probabilidad de que ocurra A Y B.

2.6.3.2.1. EJEMPLO

2.7. TEOREMA DE BAYES

2.7.1. PROBABILIDAD TOTAL

2.7.1.1. El evento A1,A2....An, deben de ser particiones de un espacio muestra Ω y el evento B es un evento cualesquiera.

2.7.1.1.1. EJEMPLO

2.7.1.2. Es un teorema el cual nos permite calcular la probabilidad de un evento a partir de la probabilidad condicional.

2.7.2. REGLA DE BAYES

2.7.2.1. El Teorema de Bayes es tomado como el primer intento para dar solución al problema de estimaciones, dicho teorema propone un método para calcular la posibilidad de que ocurra un evento denominado A dado que ya ha trascurrido el evento B.

2.7.2.1.1. EJEMPLO

2.8. POSIBLES RIESGOS Y ERRORES CONCEPTUALES; RELACIÓN CON EL MATERIAL DE OTROS CAPÍTULOS

2.8.1. Como se pudo analizar este capítulo incluye las definiciones, reglas y teoremas fundamentales que convierten a la probabilidad en una herramienta importante. Ahora bien, ¿qué relación existe entre el material de este capítulo y el material de otros capítulos? La mejor forma de responder esta pregunta es dando un vistazo al capítulo posterior, ya que surgen nuevos conceptos que permiten tener una mayor estructura basada en el concepto de una variable aleatoria y su distribución de probabilidad en la resolución de problemas científicos.

3. VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD

3.1. CONCEPTO DE VARIABLE ALEATORIA

3.1.1. Una variable aleatoria es una función que asocia un número real con cada elemento del espacio muestral.

3.1.1.1. De una urna que contiene 4 bolas rojas y 3 negras se sacan 2 bolas de manera sucesiva, sin reemplazo. Los posibles resultados y los valores y de la variable aleatoria Y, donde Y es el número de bolas rojas, son

3.2. DISTRIBUCIONES DISCRETAS DE PROBABILIDAD

3.2.1. Una distribución de probabilidades para una variable aleatoria discreta es un listado mutuamente excluyente de todos los resultados numéricos posibles para esa variable aleatoria tal que una probabilidad específica de ocurrencia se asocia con cada resultado.

3.3. DISTRIBUCIONES DE PROBABILIDAD

3.3.1. Denotacion de una funcion de variables aleatorias (X). Tambien llamada función de probabilidad;de masa de probabilidad; o distribución de probabilidad

3.3.1.1. Distribuciones de Probabilidad

3.3.1.1.1. Distribucion Continua

3.3.1.1.2. Distribucion Conjunta

3.3.1.1.3. Distribucion Discreta

3.4. POSIBLES RIESGOS Y ERRORES CONCEPTUALES EN LA ESTADISTICA DESCRIPTIVA

3.4.1. Las distribuciones de probabilidad representan la estructura mediante la cual las probabilidades que se calculan ayudan a evaluar y a comprender un proceso

3.4.1.1. En lo que concierne a los riesgos potenciales de utilizar el material de este capítulo, la advertencia para el lector sería no interpretar el material más allá de lo que sea evidente. La naturaleza general de la distribución de probabilidad para un fenómeno cientíi co determinado no es obvia a partir de lo que se estudió aquí. La i nalidad de este capítulo es que los lectores aprendan a manipular una distribución de probabilidad, no que aprendan a identii car un tipo especíi co. Los capítulos 5 y 6 avanzan un largo trecho hacia la identii cación de acuerdo con la naturaleza general del sistema cientíi co.

4. INTEGRANTES: PAUL CASTRO; CHRISTIAN CHUNCHI; CAMILA ESPINOZA; WALTER BUESTAN