Tipos de capas en Redes Neuronales Profundas

Começar. É Gratuito
ou inscrever-se com seu endereço de e-mail
Tipos de capas en Redes Neuronales Profundas por Mind Map: Tipos de capas en Redes Neuronales Profundas

1. Capas Densas:

1.1. Definición: En estas capas, cada neurona está conectada a todas las neuronas de la capa anterior. Esto permite que la red aprenda relaciones muy complejas entre los datos.

1.2. Uso: Son esenciales para la "toma de decisiones" final de la red, como clasificar imágenes o predecir valores.

1.3. Función: Transforman los datos de una forma que permite a la red reconocer patrones globales.

1.4. Ejemplo: Al final de una red que clasifica fotos de animales, una capa densa puede decidir si la imagen es de un perro, un gato o un pájaro.

1.5. Parámetros: ReLU, Sigmoid, Tanh, etc.

2. Capas Convolucionales (CNNs)

2.1. Definición: Estas capas son especialistas en procesar datos con estructura de cuadrícula, como imágenes. Utilizan "filtros" para detectar características locales, como bordes, texturas o formas.

2.2. Uso: Son la base de la visión por computadora, utilizadas en reconocimiento de imágenes, detección de objetos y más.

2.3. Función: Extraen características relevantes de los datos, reduciendo la información innecesaria.

2.4. Ejemplo: En una red que reconoce caras, las capas convolucionales detectan primero los bordes, luego los ojos y la nariz, y finalmente la cara completa.

2.5. Parámetros

2.5.1. Número de filtros: Cuántos filtros se aplican a la entrada. Tamaño del filtro (kernel): El tamaño de cada filtro (ej., 3x3 o 5x5). Stride: La cantidad de movimiento del filtro sobre la imagen. Padding: Cuánto espacio extra se añade a la entrada para controlar la dimensión de la salida.

3. Capas Recurrentes (RNNs)

3.1. Definición: Estas capas están diseñadas para procesar secuencias de datos, como texto o series de tiempo. Tienen "memoria" y pueden recordar información de pasos anteriores.

3.2. Uso: Son cruciales para el procesamiento del lenguaje natural, la traducción automática y la predicción de series de tiempo.

3.3. Función: Modelan dependencias temporales, permitiendo a la red entender el contexto en secuencias de datos.

3.4. Ejemplo: En una red que traduce texto, una capa recurrente puede recordar las palabras anteriores para traducir correctamente la siguiente.

3.5. Parámetros

3.5.1. LSTM (Long Short-Term Memory) Mitigan el problema de desvanecimiento de gradiente. y GRU (Gated Recurrent Unit) Una variante más simplificada de LSTM. son tipos de redes neuronales recurrentes (RNNs) que son capaces de recordar información a largo plazo y evitar el problema del desvanecimiento del gradiente, número de neuronas.

4. Capas de Agrupación (Pooling)

4.1. Definición: Estas capas reducen el tamaño de los datos, conservando la información más importante. Esto reduce la carga computacional y ayuda a la red a generalizar mejor.

4.2. Uso: Se utilizan comúnmente en redes convolucionales para reducir la dimensionalidad de las imágenes.

4.3. Función: Simplifican la información, haciendo que la red sea más eficiente y robusta.

4.4. Ejemplo: Después de que una capa convolucional detecta bordes en una imagen, una capa de pooling puede reducir la resolución de la imagen, manteniendo solo los bordes más destacados.

4.5. Parámetros: Tamaño del filtro de pooling.

4.5.1. Tamaño de la ventana: El tamaño del área sobre la que se realiza el pooling (ej., 2x2). Stride: Cuánto se mueve la ventana sobre la imagen.

5. Capas de Normalización

5.1. Definición: Estas capas ayudan a estabilizar el entrenamiento de la red, asegurando que las activaciones de las neuronas tengan una distribución adecuada

5.2. Uso: Se utilizan para acelerar el entrenamiento y mejorar el rendimiento de la red.

5.3. Función: Hacen que el entrenamiento sea más estable y eficiente.

5.4. Ejemplo: La normalización por lotes ajusta las activaciones de cada capa para que tengan una media y varianza consistentes.

6. Capas Dropout

6.1. Definición: Estas capas son una técnica de regularización que ayuda a prevenir el sobreajuste. Durante el entrenamiento, desactivan aleatoriamente algunas neuronas.

6.2. Uso: Se utilizan para mejorar la capacidad de generalización de la red.

6.3. Función: Reducen la dependencia excesiva de neuronas individuales.

6.4. Ejemplo: Al desactivar aleatoriamente algunas neuronas, la red se ve obligada a aprender características más robustas y generales.

6.5. Parámetros

6.5.1. Tasa de dropout: El porcentaje de neuronas que se desactivan durante el entrenamiento (ej., 0.5 significa que la mitad de las neuronas se apagan).

7. Capa de Activación

7.1. Definición: Las capas de activación introducen no linealidades en el modelo, permitiendo que las redes neuronales aprendan funciones complejas

7.2. Función: ReLU (Rectified Linear Unit): Si la entrada es negativa, la salida es cero. Si la entrada es positiva, la salida es la misma. Sigmoid: Devuelve valores entre 0 y 1, útil para tareas de clasificación binaria. Tanh (Tangente Hiperbólica): Devuelve valores entre -1 y 1, es similar al Sigmoid pero centrado en 0.

7.3. Ejemplo: en la construcción de una red neuronal para clasificación binaria (por ejemplo, detectar si una imagen es un gato o un perro), la función Sigmoid en la capa de salida permite generar una probabilidad de que la imagen pertenezca a la clase "gato".

7.4. Parámetros: No requieren parámetros adicionales.

8. Capas de Normalización (Batch Normalization)

8.1. Definición: Esta capa normaliza las activaciones de una capa anterior para que tengan una media de 0 y una desviación estándar de 1. Esto acelera el entrenamiento, estabiliza la red y ayuda a prevenir el sobreajuste.

8.2. Función: Estabiliza y acelera el entrenamiento al normalizar las activaciones de las capas.

8.3. Ejemplo: Al entrenar una red profunda para reconocer objetos en imágenes, la capa de normalización ayuda a mantener las activaciones dentro de un rango adecuado, acelerando el proceso de convergencia.

8.4. Parámetros

8.4.1. Momento de normalización: El factor de suavizado para las medias y desviaciones estándar. Escala y desplazamiento: Parámetros que se aprenden para ajustar la normalización.

9. Capa de Salida

9.1. Definición: Esta capa produce la salida final de la red neuronal, ya sea una predicción continua en tareas de regresión o una probabilidad para cada clase en tareas de clasificación.

9.2. Ejemplo: Si se clasifican imágenes de dígitos escritos a mano (MNIST), la capa de salida tendrá 10 neuronas (una por cada dígito) y una función de activación softmax para convertir las salidas en probabilidades de cada clase.

9.3. Parámetros

9.3.1. Número de neuronas: Depende del número de clases (para clasificación multiclase). Función de activación: Softmax (multiclase), Sigmoid (binaria).