
1. Algoritmos
1.1. Supervisados
1.1.1. Regresión Lineal
1.1.1.1. Predice un valor continuo basado en una variable independiente.
1.1.2. Regresión Logística
1.1.2.1. Predice un resultado binario (p.ej., sí/no).
1.1.3. Árboles de Decisión
1.1.3.1. Divide los datos en subconjuntos basados en el valor de los atributos.
1.1.4. Bosques Aleatorios
1.1.4.1. Conjunto de árboles de decisión para mejorar la precisión.
1.1.5. Máquinas de Soporte Vectorial (SVM)
1.1.5.1. Encuentra el hiperplano que mejor separa las clases.
1.1.6. Redes Neuronales
1.1.6.1. Simula el funcionamiento del cerebro humano para procesos de aprendizaje complejos.
1.2. No supervisados
1.2.1. K-Means
1.2.1.1. Agrupa datos en k clusters basados en similaridad.
1.2.2. Análisis de Componentes Principales (PCA)
1.2.2.1. Reduce la dimensionalidad de los datos conservando la mayor varianza posible.
1.2.3. Análisis de Clusters Jerárquicos
1.2.3.1. Crea un dendrograma para representar las fusiones o divisiones de clusters.
1.2.4. Modelado de Temas Latentes (LDA)
1.2.4.1. Identifica grupos temáticos en colecciones de texto.
1.2.5. Algoritmo Apriori
1.2.5.1. Utilizado para encontrar reglas de asociación en conjuntos de datos.
1.3. Semi-Supervisasdo
1.3.1. Transductive Support Vector Machines (TSVM)
1.3.1.1. Una variación de SVM que utiliza datos etiquetados y no etiquetados.
1.3.2. Self-training
1.3.2.1. Utiliza predicciones de un clasificador para etiquetar datos no etiquetados y entrenar nuevamente.
1.4. Reforzamiento
1.4.1. Q-learning
1.4.1.1. Aprendizaje basado en importar recompensas en una política específica.
1.4.2. Deep Q-learning
1.4.2.1. Combina Q-learning con redes neuronales.
1.4.3. SARSA
1.4.3.1. Algoritmo de aprendizaje para acciones y estados.
1.4.4. Actor-Critic
1.4.4.1. Método que usa tanto una política (actor) como una crítica (valor estimado).
1.4.5. Aprendizaje de Políticas Profundas
1.4.5.1. Utiliza redes neuronales profundas para mejorar la toma de decisiones basadas en estados.
2. Datos
2.1. Preprocesamiento
2.1.1. Limpieza de datos
2.1.1.1. Eliminación de ruido y corrección de errores en los datos.
2.1.2. Normalización
2.1.2.1. Asegurar que los datos estén en una escala común.
2.1.3. Escalado
2.1.3.1. Ajustar características a una escala similar.
2.1.4. Imputación de valores faltantes
2.1.4.1. Llenar huecos en los datos con estimaciones.
2.1.5. Codificación
2.1.5.1. Convertir datos categóricos en formato numérico (p.ej., one-hot encoding).
2.2. División de datos
2.2.1. Conjunto de Entrenamiento
2.2.1.1. Subconjunto de datos utilizado para entrenar el modelo.
2.2.2. Validación cruzada
2.2.2.1. Técnica para evaluar el desempeño del modelo mediante particionamiento.
2.2.3. Conjunto de validación
2.2.3.1. Subconjunto del conjunto de entrenamiento utilizado para afinar el modelo.
2.2.4. Conjunto de prueba
2.2.4.1. Utilizado para medir la precisión del modelo final.
2.3. Pasos clave en el preprocesamiento
2.3.1. 1.Recolección de datos: Obtenemos todos los datos necesarios para el análisis. 2.Limpieza de datos: Revisamos y corregimos inconsistencias. 3.Transformación de datos: Ajustamos y convertimos variables según sea necesario. 4.Normalización y escalado: Aseguramos que todas las variables estén en una misma escala. 5.División del conjunto de datos: División en conjuntos de entrenamiento, validación y prueba.
3. Modelos
3.1. Regresión
3.1.1. Regresión Lineal
3.1.1.1. Modelo que asume una relación lineal entre la variable independiente (input) y la variable dependiente (output).
3.1.2. Regresión Logística
3.1.2.1. Utilizado para problemas de clasificación binaria y puede extenderse a la clasificación multinomial.
3.1.3. Regresión Ridge y Lasso
3.1.3.1. Variaciones de la regresión lineal que usan regularización para reducir la complejidad del modelo.
3.2. Árboles de Decisión
3.2.1. Árboles de Clasificación
3.2.1.1. Utilizados para clasificar instancias categóricas.
3.2.2. Árboles de Regresión
3.2.2.1. Empleados para prever valores continuos.
3.2.3. Bosques Aleatorios
3.2.3.1. Conjuntos de árboles de decisión para mejorar la precisión y reducir el sobreajuste.
3.3. Redes Neuronales
3.3.1. Perceptrón Multicapa (MLP)
3.3.1.1. Una red neuronal simple que consiste en capas de neuronas artificiales.
3.3.2. Redes Neuronales Convolucionales (CNN)
3.3.2.1. Usadas principalmente en tareas de procesamiento de imágenes, como reconocimiento de objetos y clasificación.
3.3.3. Redes Neuronales Recurrentes (RNN)
3.3.3.1. Utilizadas para tareas que implican datos secuenciales, como series temporales o procesamiento del lenguaje natural.