Pedro Atencio - 2019
Repositorio del taller - Introducción a las redes neuronales en Keras - desarrollado en la Universidad Nacional del Sur, Bahía Blanca, Argentina.
- Conceptos generales (días 1 y 2)
- Regresor logistico como una neurona. link
- Análisis desde el grafo de cómputo.
- Implementación tradicional.
- Broadcasting / Vectorization.
- Implementación vectorizada.
- Descenso del gradiente.
- El operador XOR. link
- Clasificación no-lineal.
- XOR y su descomposición lineal.
- Regresores lineales en capas.
- Red Neuronal y Backpropagation (descenso del gradiente generalizado) link
- Notación.
- Forward propagation.
- Backpropagation.
- Errores y funciones de activación.
- Regresor logistico como una neurona. link
- Conceptos tecnológicos (tensorflow.keras) (días 3 y 4)
- Introducción a Keras. link
- Primera red en Keras.
- Ensamble de la red: a) Construcción como lista b) Agregación de capas (model.add) b) "Cableado" manual.
- Compilación.
- Preparacion del dataset. Split. K-Fold.
- Entrenamiento y validación. model.evaluate() Evaluacion durante el entrenamiento.
- Ejemplo: MNIST.
- Aplicaciones
- Clasificación y Regresión.
- Convolución 2D (concepto).
- Series de tiempo (redes recurrentes).
- Introducción a Keras. link
- Conceptos utilitarios (día 5)
- Fine-tuning: Utilizar una red pre-entrenada y afinarla para que trabaje con nuestros datos.
- Callbacks: Tomar decisiones durante el proceso de entrenamiento.
- Grid search: Encontrar los mejores parámetros de la red.
- Lamba layers: Construir nuestras propias capas de red neuronal.
- Custom losses: Construir nuestras propias funciones de error.
- Activations: Construir nuestras propias funciones de activación.