
1. Introducción a la Probabilidad
1.1. Definición
1.1.1. La probabilidad es una medida que cuantifica la posibilidad de que un evento ocurra. Se expresa como un número entre 0 y 1, donde 0 significa que el evento es imposible y 1 significa que es seguro que ocurra.
1.2. Espacio muestral y eventos:
1.2.1. El espacio muestral es el conjunto de todos los posibles resultados de un experimento aleatorio.
1.2.2. Un evento es un subconjunto del espacio muestral que representa un resultado específico o una combinación de resultados.
1.3. Reglas básicas de probabilidad
1.3.1. La suma de las probabilidades de todos los eventos posibles en el espacio muestral es igual a 1.
1.4. Propuesta
1.4.1. En operaciones policiales, se utiliza para evaluar la probabilidad de ocurrencia de crímenes en áreas específicas, lo que permite una mejor asignación de recursos.
1.4.1.1. Estimar la probabilidad de que ocurra un crimen een datos históricos.n una zona específica basándose en datos históricos.
1.5. Ejemplo
1.5.1. Si históricamente hay 10 crímenes por semana en un barrio con 100 incidentes reportados, la probabilidad de que ocurra un crimen en cualquier semana es del 10%.
2. Medidas de Forma Simetría y Asimetría
2.1. Simetría
2.1.1. La simetría en distribuciones se refiere a la forma en que los datos están distribuidos alrededor de un punto central
2.1.1.1. Ejemplos de distribuciones simétricas: la campana de Gauss (normal) y la distribución uniforme.
2.2. Asimetría
2.2.1. El coeficiente de asimetría (Skewness) mide la falta de simetría en una distribución.
2.2.1.1. Ejemplos de distribuciones asimétricas incluyen la distribución exponencial y la distribución gamma.
2.3. Propuesta
2.3.1. Relacionadas con el análisis descriptivo de datos, proporcionando información sobre la distribución de variables clave.
2.4. Ejemplo
2.4.1. Analizar las edades de los delincuentes y encontrar que la mayoría tiene entre 20 y 30 años, con una distribución sesgada a la derecha, indicando que hay menos delincuentes de mayor edad.
3. Análisis de Dispersión. Medidas de Forma
3.1. Rango
3.1.1. El rango es la diferencia entre el valor máximo y el valor mínimo en un conjunto de datos numéricos.
3.2. Varianza y Desviación Estándar
3.2.1. La varianza mide la dispersión de los datos alrededor de la media. La desviación estándar es la raíz cuadrada de la varianza y proporciona una medida de la dispersión en las mismas unidades que los datos originales.
3.3. Coeficiente de Variación
3.3.1. El coeficiente de variación compara la variabilidad relativa entre diferentes conjuntos de datos.
3.4. Propuesta
3.4.1. Medición de la variabilidad en las tasas de criminalidad entre diferentes barrios de una ciudad.
3.5. Ejemplo
3.5.1. Comparar las tasas de criminalidad de diferentes barrios y encontrar que varían significativamente, con algunos barrios teniendo tasas tres veces mayores que otros.
4. Diagrama de Caja de Bigotes (Box Plot)
4.1. El box plot es una representación gráfica que muestra la distribución de un conjunto de datos.
4.1.1. Teorema de Chebyshov:
4.1.1.1. Permite estimar la probabilidad de un evento descrito en términos de una variable aleatoria X, al proporcionarnos una cota que no depende de la distribución de la variable aleatoria, sino de su varianza.
4.1.2. Regla empírica
4.1.2.1. Si tenemos una distribución normal con media μ = 100 y desviación estándar σ = 15, podemos aplicar la regla empírica para estimar la proporción de datos en diferentes intervalos alrededor de la media.
4.1.2.1.1. Ejemplo
4.1.3. Teorema de Bayes
4.1.3.1. Permite expresar la probabilidad condicional de un evento A dado B en términos de la distribución de probabilidad de B dado A y la distribución de probabilidad de solo A.
4.1.3.1.1. Ejemplo
4.1.3.1.2. En una distribución normal, establece que: ▪ El 68% de los datos están dentro de una desviación estándar de la media. ▪ El 95% de los datos están dentro de dos desviaciones estándar de la media. ▪ El 99.7% de los datos están dentro de tres desviaciones estándar de la media.
4.1.4. Teorema de la probabilidad total
4.1.4.1. Es la suma de la probabilidad de tener esa partición multiplicada por la probabilidad de tener ese suceso en esa partición específica.
4.1.4.1.1. Ejemplo
4.1.5. Teorema de Chebyshov
4.1.5.1. Establece que, para cualquier distribución de probabilidad con una varianza finita, la proporción de datos dentro de un cierto número de desviaciones estándar alrededor de la media es acotada.
4.1.5.1.1. Ejemplo
4.1.6. Propuesta
4.1.6.1. En operaciones policiales, puede utilizarse para analizar los tiempos de respuesta, identificando distritos con tiempos de respuesta inusualmente altos o bajos y así optimizar el rendimiento.