PROBABILIDAD Y ESTADISTICA KASSANDRA LIZBETH GONZÁLES DÍAZ JOSE DE JESUS ESPARZA SEGOVIA MARTIN D...

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
PROBABILIDAD Y ESTADISTICA KASSANDRA LIZBETH GONZÁLES DÍAZ JOSE DE JESUS ESPARZA SEGOVIA MARTIN DE JESUS RAMOS GUERRERO BRAYAN ALEXIS CERVANTES SALINAS JOSUE MEDINA GOMEZ por Mind Map: PROBABILIDAD Y ESTADISTICA KASSANDRA LIZBETH GONZÁLES DÍAZ JOSE DE JESUS ESPARZA SEGOVIA MARTIN DE JESUS RAMOS GUERRERO BRAYAN ALEXIS CERVANTES SALINAS JOSUE MEDINA GOMEZ

1. Estadística descriptiva

1.1. Base de datos:

1.1.1. Una base de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso.

1.1.1.1. Población:

1.1.1.1.1. Es un conjunto de sujetos o elementos que presentan características comunes.

1.1.1.2. Muestra:

1.1.1.2.1. Es un subconjunto de casos o individuos de una población.

1.1.1.3. Variable:

1.1.1.3.1. Se refiere a una característica o cualidad de un individuo que está propenso a adquirir diferentes valores.

1.1.1.4. Datos:

1.1.1.4.1. Información que brinda acceso a un conocimiento preciso y concreto.

1.2. Medidas de posición:

1.2.1. Dividen a una distribución ordenada en partes iguales. Para calcular las medidas de posición es necesario que los datos estén ordenados de menor a mayor.

1.2.1.1. Cuartil:

1.2.1.1.1. Son valores que dividen una muestra de datos en cuatro partes iguales. Utilizando cuartiles puede evaluar rápidamente la dispersión y la tendencia central de un conjunto de datos

1.2.1.2. Percentil:

1.2.1.2.1. Es una medida de posición no central, es utilizada para comparar datos. Consiste en un número de 0 a 100 que indica el porcentaje de datos que son igual o menor que determinado valor.

1.2.1.3. Deciles:

1.2.1.3.1. Un decil es cualquiera de los nueve valores que dividen a un grupo de datos ordenados en diez partes iguales, de manera que cada parte representa 1/10 de la muestra o población.

1.2.1.4. inf.

1.3. Medidas de dispersión:

1.3.1. Parámetros estadísticos que permiten conocer la dispersión de los datos.

1.3.1.1. Rango intercuartil:

1.3.1.1.1. Se le llama rango intercuartílico o rango intercuartil, a la diferencia entre el tercer y el primer cuartil de una distribución.

1.3.1.2. Varianza:

1.3.1.2.1. La varianza es una medida de dispersión que representa la variabilidad de una serie de datos respecto a su media.

1.3.1.3. Coeficiente de variación:

1.3.1.3.1. Es una medida estadística que nos informa acerca de la dispersión relativa de un conjunto de datos.

1.3.1.4. Desviación estándar:

1.3.1.4.1. Es la medida de dispersión más común, que indica qué tan dispersos están los datos con respecto a la media. Mientras mayor sea la desviación estándar, mayor será la dispersión de los datos.

1.3.1.5. Rango:

1.3.1.5.1. El rango es un valor numérico que indica la diferencia entre el valor máximo y el mínimo de una población o muestra estadística.

1.3.1.6. inf.

1.4. Medidas de centralización:

1.4.1. Habitualmente necesitamos disponer de un valor numérico que represente la disparidad de datos de una distribución de frecuencias. Estos valores son los llamados parámetros centrales o medidas de centralización, ya que son valores "intermedios" que se sitúan alrededor del centro de la distribución.

1.4.1.1. Mediana:

1.4.1.1.1. Es el valor medio cuando un conjunto de datos se ordena de menor a mayor.

1.4.1.2. Media:

1.4.1.2.1. (promedio) de un conjunto de datos se encuentra al sumar todos los números en el conjunto de datos y luego al dividir entre el número de valores en el conjunto.

1.4.1.3. Moda:

1.4.1.3.1. Es el número que se presenta con más frecuencia en un conjunto de datos.

1.4.1.4. inf.

1.5. Medidas de forma:

1.5.1. Permiten comprobar si una distribución de frecuencia tiene características especiales como simetría, a simetría, nivel de concentración de datos y nivel de apuntamiento que la clasifiquen en un tipo particular de distribución.

1.5.1.1. Sesgo:

1.5.1.1.1. También conocida como asimetria es la medida que indica la simetría de la distribución de una variable respecto a la media aritmética, sin necesidad de hacer la representación gráfica.

1.5.1.2. Curtosis:

1.5.1.2.1. (También conocida como medida de apuntamiento) es una medida estadística, que determina el grado de concentración que presentan los valores de una variable alrededor de la zona central de la distribución de frecuencias.

1.5.1.3. inf.

1.6. Análisis gráfico:

1.6.1. Es una forma sencilla de presentar la información y facilitar se comprensión.

1.6.1.1. Histograma:

1.6.1.1.1. Es una representación gráfica de datos agrupados mediante intervalos. Los datos provienen de una variables cuantitativas continuas. Gracias a él puedes hacerte rápidamente una idea de la distribución de los datos o muestra.

1.6.1.2. Diagrama de caja y bigotes:

1.6.1.2.1. Son una presentación visual que describe varias características importantes, al mismo tiempo, tales como la dispersión y simetría.

2. Estadística inferencial

2.1. Distribuciones de probabilidad

2.1.1. continuas

2.1.1.1. Una variable aleatoria es un valor numérico determinado por el resultado de un experimento.

2.1.1.1.1. tipos

2.1.2. discretas

2.1.2.1. puede asumir sólo valores claramente separados. Estos valores surgen de un proceso de conteo.

2.1.2.1.1. tipos

3. Probabilidad

3.1. Reglas básicas de la probabilidad

3.1.1. Regla especial de adición

3.1.1.1. Si los eventos A1 , A2,.. An son mutuamente excluyentes, la regla especial de la adición indica que la probabilidad de que ocurra uno u otro de los eventos, es igual a la suma de sus probabilidades.

3.1.2. La regla del complemento

3.1.2.1. Requisitos los eventos deben de ser mutuamente excluyentes y colectiva mente exhaustivos. La regla del complemento es utilizada para determinar la probabilidad de que un evento ocurra, restando a 1 la probabilidad de que no ocurra dicho evento.

3.1.3. Regla general de la adición.

3.1.3.1. Es la probabilidad que evalúa la posibilidad de que dos o más eventos ocurran en forma simultanea.

3.1.4. Regla especial de la multiplicación.

3.1.4.1. Para la aplicación de esta regla se requiere que los eventos sean independientes. Un evento independiente es cuando la ocurrencia de un evento no afecta a la ocurrencia del otro.

3.1.5. Regla general de multiplicación.

3.1.5.1. Es la probabilidad de que ocurra un evento determinado, dado que otro evento ya haya ocurrido. La probabilidad de que ocurra el evento A dado que el evento B ha ocurrido se escribe P(AlB).

3.2. Técnicas de conteo.

3.2.1. Principio Multiplicativo

3.2.1.1. Si se desea realizar una actividad u ordenamiento. que consta de r pasos u opciones, en donde el primer paso de la actividad a realizar puede ser llevado a cabo de N1 maneras o formas, el segundo paso de N2 maneras o formas y el último paso de Nr maneras o formas, entonces esta actividad puede ser llevada a efecto de; N1 x N2 x ..........x Nr maneras o formas

3.2.2. Principio Aditivo

3.2.2.1. Si se desea llevar a efecto una actividad, la cuál tiene formas alternativas para ser realizada, donde la primera de esas alternativas puede ser realizada de M maneras o formas, la segunda alternativa puede realizarse de N maneras o formas ..... y la última de las alternativas puede ser realizada de W maneras o formas, entonces esa actividad puede ser llevada a cabo de, M + N + .........+ W maneras, formas o alternativas.

3.2.3. Diagrama de árbol.

3.2.3.1. Es una representación gráfica de los posibles resultados del experimento, el cual consta de una serie de pasos, donde cada uno de estos tiene un número finito de maneras de ser llevado a cabo. Se utiliza en los problemas de conteo y probabilidad.

3.2.4. Combinaciónes

3.2.4.1. Es todo arreglo de elementos en donde no nos interesa el lugar o posición que ocupa cada uno de los elementos que constituyen dicho arreglo.

3.2.5. Permutaciónes

3.2.5.1. Es todo arreglo de elementos en donde el lugar o posición que ocupa cada uno de los elementos que constituyen dicho arreglo es un resultado posible, es decir el orden importa.

3.3. Tipos Probabilidad

3.3.1. Probabilidad subjetiva.

3.3.1.1. Si no existen datos o experiencia en la que se pueda basar una probabilidad estaremos hablando de una probabilidad subjetiva.

3.3.2. Probabilidad Objetiva

3.3.2.1. Clasica

3.3.2.1.1. La probabilidad clásica predice un resultado en base a todos los resultados posibles de un evento o experimento. Esta probabilidad se encarga que todos los sucesos o resultados tengan la misma posibilidad de darse, dicho de diferente manera, la probabilidad se distribuye equitativamente entre todos los suceso elementales. Con la probabilidad clásica también es posible calcular la probabilidad que tiene un conjunto de sucesos a darse.

3.3.2.2. Empírica

3.3.2.2.1. La probabilidad empírica se obtiene en base a resultados obtenidos de un evento o experimento, esta probabilidad se basa en la frecuencia con la que cierto resultado suceda. Para poder calcular una probabilidad empírica es necesario realizar el evento o experimento unas cuantas ocasiones, porque esta probabilidad se calcula analizando los resultados anteriormente obtenidos.