Curso: Taller de Aprendizaje Automático | FING

  • 1

    Clases:

    • Clase 1 (martes 5/3): Teórico - Introducción y conceptos fundamentales
      • Contenidos: Introducción al curso. Componentes del problema de aprendizaje. Tipos de aprendizaje. Repaso de conceptos fundamentales: generalización, sobreajuste, compromiso sesgo-varianza, regularización, validación, selección de modelos.
      • Capítulos del libro: 1
    • Clase 2 (jueves 7/3): Teórico - Proyecto de aprendizaje automático
      • ContenidosDefinición del problema, requerimientos de la solución, medidas de desempeño. Manejo, visualización y preparación de datos. Transformación y selección de características. Entrenamiento y selección de modelos. Ajuste fino y evaluación. Despliegue y monitoreo.
      • Capítulos del libro: 2
  • 2

    Clases:

    • Clase 3 (martes 12/3): Taller 1 - Presentación Proyecto 1
      • Contenidos: Se realiza el primer taller. Se presenta el primer proyecto del curso. Se implementan las primeras etapas, con énfasis en la creación de un pipeline de pre-procesado de datos en scikit-learn.
      • Capítulos del libro: 2
    • Clase 4 (jueves 14/3): Teórico - Clasificación y regresión con modelos clásicos
      • ContenidosClasificación con regresión logística y SVM. Descenso por gradiente. Regularización. Clasificación multiclase. Medidas de desempeño: matriz de confusión, precision-recall, curva ROC. Análisis de error.
      • Capítulos del libro: 3 y 4

  • 3

    Clases:

    • Clase 5: Taller - Clasificación con modelos clásicos
      • ContenidosSe consideran diferentes técnicas de pre-procesado de datos y se eligen las más relevantes mediante la selección de hiperparámetros de un pipeline. Se utilizan diferentes métricas para evaluar el desempeño de un clasificador lineal.
      • Capítulos del libro: 3, 4 y 5
    • Clase 6: Teórico - Ensambles de predictores
      • Contenidos: Métodos de combinación de predictores. Voting y bagging. Árboles de decisión y Random forests. Boosting y stacking
      • Capítulos del libro: 6 y 7

  • 4
    Semana de Turismo. No hay clases.

  • 5

    Clases:

    • Clase 7: Taller - Clasificación con ensambles de clasificadores (martes 2/4)
      • Contenidos: Se aplican varios métodos de combinación de clasificadores, como Random forests, AdaBoost y gradient boosting.
      • Capítulos del libro: 6 y 7
    • Clase 8: Teórico - Aprendizaje no supervisado (jueves 4/4)
      • ContenidosReducción de dimensionalidad. Proyección y aprendizaje de variedades. Agrupamiento para pre-procesado de datos y para aprendizaje semi-supervisado. Estimación de densidades para detección de datos anómalos.
      • Capítulos del libro: 8 y 9
  • 6

    Clases:

    • Clase 9: Taller - Ingeniería de características y limpieza de datos (martes 9/4)
      • Contenidos: Se aplican métodos de reducción de dimensionalidad y de agrupamiento como pre-procesado de los datos y se evalúa su impacto en el problema. Se aplican técnicas de detección de datos anómalos.
      • Capítulos del libro: 8 y 9
    • Clase 10: Teórico - Implementación de redes neuronales (jueves 11/4)
      • ContenidosIntroducción al ambiente de trabajo Keras y TensorFlow 2. Implementación de redes multicapa. API secuencial, funcional y dinámica. Selección de hiperparámetros.
      • Capítulos del libro: 10
  • 7

    Clases:

    • Clase 11: Taller - Clasificación con perceptrón mutlicapa
      • Contenidos:  Se implementan redes multicapa poco profundas y se aplican métodos para seleccionar los hiperparámetros. 
      • Capítulos del libro: 10

    • Clase 12: Teórico - Selección de hiperparámetros (jueves 18/4)
      • Contenidos:  Ajuste fino de hiperparámetros: número de capas ocultas, número de neuronas, tasa de aprendizaje, tamaño del lote, función de activación, optimizador, etc.
      • Capítulos del libro10

  • 8

    Clases:

    • Consultas sobre Talleres y Proyecto 1
      • Martes 23/4: presencial
      • Jueves 25/4: por zoom
  • 9

    Consultas sobre el Proyecto 1

      • Martes 28/4: presencial
      • Jueves 30/4: por zoom

  • 10

    • Martes 7/5, 13h00: Entrega del Proyecto 1
    • Jueves 9/5 (de 8h a 12h y de 13h a 15h): Defensas del Proyecto 1


    • Icono Tarea
      Proyecto 1 - Entrega informe Tarea
      No disponible hasta que: Eres un Estudiante
    • Icono Tarea
      Proyecto 1 - Entrega presentación Tarea
      No disponible hasta que: Eres un Estudiante
  • 11

    Clases:

    • Clase 13 (martes 14/5): Teórico - Entrenando redes profundas I
      • Contenidos: Desvanecimiento y explosión de gradiente. Inicialización, función de activación, normalización por lote. Aprendizaje por transferencia.
      • Capítulos del libro: 11
    • Clase 14 (jueves 16/5)Teórico - Entrenando redes profundas II
      • ContenidosOptimizadores rápidos. Regularización y droput.
      • Capítulos del libro: 11
  • 12

    Clases:

    • Clase 15 (martes 21/5):  Taller TF  - Modelos y algoritmos de entrenamiento personalizados. Presentación Proyecto 2.
      • Contenidos: Modelos y algoritmos de entrenamiento personalizados. Ingesta y pre-procesado de grandes cantidades de datos. Presentación proyecto 2.
      • Capítulos del libro: 12 y 13

    • Clase 16 (jueves 23/5): Teórico Redes neuronales de convolución I
      • Contenidos: Capas de convolución, filtros, pooling. Arquitecturas. Aumentado de datos. Aplicaciones en visión por computadora.
      • Capítulos del libro: 14

  • 13

    Clases:

    • Clase 17 (28 de mayo): Taller 6  - Redes neuronales de convolución
      • Contenidos: Implementación y entrenamiento de redes profundas. Se deben resolver los problemas que aparecen en el entrenamiento.
      • Capítulos del libro: 11 y 14

    • Clase 18 (30 de mayo) Teórico  - Redes neuronales de convolución II
      • Contenidos: Aprendizaje por transferencia. Detección de objetos y segmentación en imágenes. Interpretabilidad, visualización.
      • Capítulo del libro: 14

  • 14

    Clases:

    • Clase 19 (4 de junio) Taller 7  - Redes neuronales de convolución
      • Contenidos: Se aplican redes neuronales de convolución a un problema de visión por computadora.
      • Capítulos del libro: 11 y 14

    • Clase 20 (6 de junio): Teórico  - Redes neuronales recurrentes I
      • ContenidosProcesamiento de series temporales usando RNN y CNN. Propagación hacia atrás a través del tiempo. Normalización y dropout recurrente. Secuencias largas con LSTM y GRU. CNN 1-D para secuencias.
      • Capítulo del libro: 15

  • 15

    Clases:

    • Clase 21 (11 de junio): Taller 8  - Redes neuronales recurrentes
      • Contenidos: Se aplican redes neuronales recurrentes al procesamiento de series temporales.
      • Capítulos del libro: 15

    • Clase 22 (13 de junio):  Teórico  - Redes neuronales recurrentes II
      • ContenidosProcesamiento de lenguaje natural usando RNN y mecanismo de atención. Arquitectura encoder-decoder. Mecanismo de atención. Arquitectura Transformer.
      • Capítulo del libro: 16
  • 16

    Clases:

    • Clase 23: Taller 9 (18 de junio) - Redes neuronales recurrentes
      • Contenidos: Se aplican redes neuronales recurrentes al procesamiento de lenguaje natural.
      • Capítulo del libro: 16

    • Clase 24 (20 de junio): -Consultas (por zoom)
      • Contenidos: Se trabaja en el proyecto de aprendizaje automático, el reporte final y la presentación.
  • 17

    Clases:

    • Clase 26 (25 de junio): Taller - Proyecto 2
      • Contenidos: Se trabaja en el proyecto de aprendizaje automático, el reporte final y la presentación

    • Clase 27 (27 de junio)Taller - Proyecto 2 (por zoom)
      • Contenidos: Se trabaja en el proyecto de aprendizaje automático, el reporte final y la presentación.
  • 18

    Clases:

    • Clase 28 (2 de julio): Taller - Proyecto 2
      • Contenidos: Se trabaja en el proyecto de aprendizaje automático, el reporte final y la presentación
    • Clase 29 (4 de julio)Taller - Proyecto 2 (por zoom)
      • Contenidos: Se trabaja en el proyecto de aprendizaje automático, el reporte final y la presentación.

  • 19

    • Entrega Proyecto 2 (9 de julio)
    • Defensa Proyecto 2 (11 de julio)