1. 5. Relaciones Entre Algoritmos
1.1. Estas relaciones muestran cómo las técnicas de IA se interconectan y complementan entre sí, permitiendo la creación de soluciones más robustas y eficaces en diversas aplicaciones.
1.1.1. Aprendizaje Supervisado y No Supervisado: Algoritmos de aprendizaje supervisado como árboles de decisión y SVM pueden ser combinados con técnicas de reducción de dimensionalidad como PCA para mejorar la eficiencia y la precisión.
1.1.2. Redes Neuronales y Aprendizaje por Refuerzo: Las redes neuronales profundas (como DQN) se utilizan en el aprendizaje por refuerzo para aproximar funciones de valor y políticas complejas.
1.1.3. NLP y Redes Neuronales: Los modelos de lenguaje avanzados como GPT y BERT se basan en redes neuronales profundas y se benefician de técnicas de aprendizaje transferido y de atención desarrolladas en el campo de redes neuronales.
1.1.4. Aprendizaje No Supervisado y Aprendizaje Supervisado: Algoritmos de agrupamiento como k-Means pueden ayudar a etiquetar datos no etiquetados que luego se usan para entrenar modelos supervisados.
2. 1. ¿QUÉ ES LA IA?
2.1. Es un campo de la informática que se encarga de crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la resolución de problemas.
3. 2. HISTORIA DE LA IA
3.1. Orígenes (1950s-1960s)
3.1.1. Las raíces de la IA se remontan a la década de 1950, cuando los expertos en informática comenzaron a imaginar la posibilidad de crear máquinas que pudieran simular la inteligencia humana Alan Turing: Concepto de la máquina de Turing y la prueba de Turing. (1952): Arthur Samuel creó un software capaz de aprender a jugar al ajedrez de forma autónoma. Primeros Programas: Logic Theorist (1955) y General Problem Solver (1957).
3.2. Primera Era Dorada (1970s-1980s)
3.2.1. Sistemas Basados en Reglas: MYCIN para diagnóstico médico. Redes Neuronales: Primeros experimentos con perceptrones.
3.3. Inverno de la IA (1980s-1990s)
3.3.1. 1966: Informe ALPAC en EE.UU. critica avances en traducción automática durante la Guerra Fría. 1973: Informe Lighthill en Reino Unido señala decepciones en IA. Consecuencia: Recortes y cancelación de proyectos de investigación. Renacimiento (1980-1987) 1980: Creación de R1 (XCON) por Digital Equipment Corporations. Impacto: Aumento de inversiones en sistemas expertos; crecimiento del sector. Segundo invierno de la IA (1987) 1987: Colapso del mercado de máquinas “Lisp” por alternativas más baratas. Consecuencia: Disminución del interés en sistemas expertos; recortes en proyectos gubernamentales.
3.4. Resurgimiento y Era Moderna (2000s-actualidad)
3.4.1. 2008: Avances tecnológicos -Google introduce reconocimiento de voz en smartphones. Big Data: Avances en el procesamiento de grandes volúmenes de datos. 2012: Deep Learning: Redescubrimiento y desarrollo de redes neuronales profundas. Andrew Ng entrena una red neuronal con 10 millones de vídeos de YouTube.
4. 3. PRESABERES
4.1. Matemáticas y Estadísticas
4.1.1. Álgebra Lineal: Vectores, matrices. Cálculo: Derivadas e integrales. Probabilidad y Estadística: Teoremas, distribuciones
4.2. Computación
4.2.1. Algoritmos y Estructuras de Datos Programación: Python, R.
4.3. Teoría de la Información
4.3.1. Entropía y Teorema de Shannon.
5. 4.CONCEPTOS CLAVES
5.1. Datos: Los datos son fundamentales para la IA, ya que son la materia prima para entrenar los algoritmos.
5.2. Aprendizaje automático: Es la capacidad de un software para aprender por sí mismo.
5.2.1. Aprendizaje Automático (Machine Learning)
5.2.2. Supervisado: Clasificación, regresión. No Supervisado: Agrupamiento, reducción de dimensionalidad. Refuerzo: Aprendizaje basado en recompensas.
5.3. Procesamiento del lenguaje natural: Es un área de la IA que se centra en la capacidad de las máquinas para comprender el lenguaje.
5.3.1. Procesamiento del Lenguaje Natural (NLP)
5.3.1.1. Modelos de Lenguaje: GPT, BERT. Tareas: Análisis de sentimientos, traducción automática.
5.4. Redes neuronales: Son estructuras computacionales inspiradas en el cerebro humano, que están compuestas por unidades llamadas neuronas.
5.4.1. Redes Neuronales
5.4.2. Perceptrón: Unidad básica. Redes Neuronales Convolucionales (CNN): Procesamiento de imágenes. Redes Neuronales Recurrentes (RNN): Datos secuenciales.
5.5. Big data: Es un término que se refiere a un gran volumen de datos.
5.5.1. Ética y Seguridad
5.5.1.1. Bias: Sesgo en los datos y algoritmos. Privacidad: Protección de datos personales. Impacto Social: Desplazamiento de trabajos, decisiones automatizadas.
5.6. Data sets: Son conjuntos de datos organizados en estructuras rectangulares en forma de tabla o matri
5.7. Bot: Es un programa que realiza tareas repetitivas, predefinidas y automatizadas
6. Algoritmo: Es una secuencia de pasos bien definidos que resuelven un problema.
7. 5.ALGORITMOS RELEVANTES
7.1. El algoritmo o combinación de algoritmos que se utilice depende del problema, los datos y los requisitos del proyecto
7.1.1. 1. Algoritmos de Aprendizaje Supervisado
7.1.1.1. Técnicas de aprendizaje automático utilizan datos etiquetados para entrenar modelos que predicen con precisión valores desconocidos. Incluyen regresión lineal, árboles de decisión y SVM para clasificación y regresión.
7.1.1.1.1. Regresión Lineal
7.1.1.1.2. Árboles de Decisión
7.1.1.1.3. Máquinas de Vectores de Soporte (SVM)
7.1.2. 2. Algoritmos de Aprendizaje No Supervisado
7.1.2.1. Técnicas de aprendizaje automático sin etiquetas predefinidas para hallar patrones en datos y encontrar relaciones subyacentes entre variables. Ejemplos: k-means y PCA.
7.1.2.1.1. k-Means
7.1.2.1.2. Análisis de Componentes Principales (PCA)
7.1.3. 3. Algoritmos de Aprendizaje por Refuerzo
7.1.3.1. Técnicas de aprendizaje automático en las que un agente toma decisiones mediante la interacción con el entorno, recibiendo recompensas o castigos para mejorar su comportamiento. Ideal para control de robots y estrategias en juegos.
7.1.3.1.1. Q-Learning
7.1.3.1.2. Algoritmos Basados en Políticas (e.g., REINFORCE)
7.1.4. 4. Algoritmos de Redes Neuronales
7.1.4.1. Son técnicas de aprendizaje automático inspiradas en el cerebro humano, consisten en nodos organizados en capas para reconocer patrones y hacer predicciones ajustandoEstos algoritmos se utilizan para reconocer patrones, clasificar datos, y hacer predicciones al ajustar los pesos de las conexiones entre nodos a través de un proceso de entrenamiento basado en datos.Son clave en reconocimiento de imágenes, procesamiento de lenguaje y recomendaciones.
7.1.4.1.1. Perceptrón
7.1.4.1.2. Redes Neuronales Convolucionales (CNN)
7.1.4.1.3. Redes Neuronales Recurrentes (RNN)
7.1.5. 5. Algoritmos de Procesamiento del Lenguaje Natural (NLP)
7.1.5.1. Son técnicas y métodos para que las computadoras puedan entender, interpretar, y generar el lenguaje humano de manera significativa. NLP es una subdisciplina de la IA que se centra en la interacción entre las computadoras y el lenguaje humano.
7.1.5.1.1. Modelos de Lenguaje (e.g., GPT, BERT
7.2. Estos son algunos algoritmos relevantes
7.2.1. Redes neuronales artificiales (RNA)
7.2.2. Algoritmo genético
7.2.3. Máquinas de vectores de soporte (SVM)
7.2.4. Clustering o algoritmos de agrupamiento
7.2.5. Redes Bayesianas
7.2.6. Algoritmos de procesamiento de lenguaje natural (PNL)
7.3. Y tambien se pueden encontrar de esta forma
7.3.1. Regresión Lineal: Modelado de relaciones lineales.
7.3.2. Árboles de Decisión: Decisiones basadas en reglas.
7.3.3. k-Means: Agrupamiento en clústeres.
7.3.4. Redes Neuronales Convolucionales (CNN): Visión por computadora.
7.3.5. Transformers: Modelos de lenguaje avanzados.