Diagrama de temas

  • Aprendizaje Profundo para Visión Artificial

    ¡Bienvenidos al curso 2024!

    Descripción

    En los últimos años, el aprendizaje profundo (deep learning) se ha convertido en una herramienta fundamental en el aprendizaje de máquinas para una amplia variedad de dominios y aplicaciones. Uno de sus mayores éxitos ha sido su aplicación a la visión artificial, donde el desempeño en problemas como el reconocimiento de objetos y acciones ha permitido importantes mejoras en la última década.

    El aprendizaje profundo es una técnica que emplea redes neuronales para aprender representaciones a partir de una serie de datos observados, que puedan ser de utilidad para resolver problemas de alto nivel como ser predicción, restauración o clasificación de señales. Dichas representaciones se denominan profundas por estar construidas a partir de una jerarquía compuesta de sucesivas capas que representan las observaciones con un nivel creciente de abstracción. El aprendizaje profundo pretende descubrir las propiedades intrínsecas de grandes volúmenes de datos construyendo representaciones distribuidas, tanto en contextos supervisados como no supervisados.

    Este curso brinda una introducción al aprendizaje profundo con un enfoque práctico en la visión artificial. El objetivo principal es presentar a los estudiantes los principales aspectos de modelado, algorítmicos y de optimización de forma de que ellos mismos puedan implementar (diseñar, entrenar y validar) sus propios modelos. Se presentarán modelos simples basados en redes convolucionales que permiten explicar matemáticamente algunas de las propiedades claves para su éxito. Todos los conceptos serán ilustrados con aplicaciones específicas en los campos de visión artificial y procesamiento de imágenes.

    Comienzo

    El curso comienza el jueves 19 de septiembre.

    Habilitación

    El curso está habilitado sólo como curso de posgrado y actualización, no está habilitado para grado (por alternativas ver: [cursos DPS]).

    Inscripciones

    Las inscripciones están disponibles según la modalidad y sujetas a criterio:

    1. Criterio (Entrega de documentación en link de la siguiente sección).
    2. Inscripción  Posgrado: pueden inscribirse gratuitamente.
    3. Inscripción Actualización: en esta modalidad deberán abonar la matrícula o pedir una beca.

    Temario

    Ver temario_tentativo.pdf

    Evaluación

    La evaluación consiste en: 

    1) La entrega de tres obligatorios con ejercicios de máquina.  

    2) Tres controles, uno por cada obligatorio, distribuidos a lo largo del curso.

    Importante: cada par obligatorio/control se calificará de forma conjunta, de modo que se evalúen los temas que se abordaron en los bloques de curso correspondientes.

    3) El estudio de un trabajo publicado recientemente y presentación oral de un resumen del mismo.

    Conocimientos

    Exigidos:

    • Cálculo diferencial e integral
    • Álgebra Lineal
    • Probabilidad y estadística
    • Programación (conocimientos sólidos en al menos un lenguaje de programación).

    Recomendados:

    • Familiaridad con conceptos básicos de reconocimiento de patrones, procesamiento de imágenes, optimización
    • Programación en lenguaje Python.

    Horario de clase

    • Teóricos: martes y jueves de 8h a 10h, salón 727 (edificio central, 7o piso).
    • Los teóricos grabados de la edición 2020 están disponibles aquí: https://www.youtube.com/@DLVISFing
    • El curso es presencial. El contenido se actualiza y varía todos los años. Por este motivo, y porque en clase también haremos discusiones y pasaremos avisos, recomendamos fuertemente asistir a clase
    • Consultas: A definir.

    Créditos

    10 créditos.

    Docentes

    Fichas

    Materiales

    Calendario (Tentativo)

    1 Introducción al aprendizaje profundo, motivación, reseña histórica. Jue, Sep 19
    2
    Aprendizaje supervisado, regla del k-vecino más cercano.
    Publicación Obligatorio 1
    Mar, Sep 24
    3 Perceptrón - SVM. Jue, Sep 26
    4 Introducción a las redes neuronales. Mar, Oct 01
    5 Algoritmo de backpropagation. Jue, Oct 03
    6 Redes de convolución. Mar, Oct 08
    7
    Capacidad/sobreajuste/regularización.
    Entrega Obligatorio 1 / Publicación Obligatorio 2
    Jue, Oct 10
    8 Evaluación Obligatorio 1
    Entrenamiento estocástico, SGD y variantes.
    Mar, Oct 15
    9 Entrenamiento "tips", batchnorm, hiperparámetros, Transfer Learning. Jue, Oct 17
    10 Bibliotecas / Hardware. Mar, Oct 22
    11 Arquitecturas. Jue, Oct 24
    12 Detección de objetos / segmentación. Mar, Oct 29
    13 Visualización / Análisis de redes / Deepdream / Ataques adversarios. Jue, Nov 31
    14 Redes recurrentes (RNN - LSTM).
    Entrega Obligatorio 2 / Publicación Obligatorio 3
    Jue, Nov 07
    15 Evaluación Obligatorio 2
    Transformers.
    Mar, Nov 12
    16 Modelos Generativos - Pixel CNN, Pixel RNN, Normalizing Flows, autoencoders. Variational autoencoders - GAN (I). Jue, Nov 14
    17 Modelos Generativos - Pixel CNN, Pixel RNN, Normalizing Flows, autoencoders. Variational autoencoders - GAN (II). Mar, Nov 19
    18 Generalización / Aprendizaje profundo Bayesiano.
    Jue, Nov 21
    19  Aprendizaje auto-supervisado.
    Mar, Nov 26
    20 Modelos de difusión / Charla invitada (José Lezama). Jue, Nov 28
    E Evaluación Obligatorio 3
    Mar, Dic 03
    E Entrega Obligatorio 3.
    Sab, Dic 07
    P    Presentación del Trabajo Final (15 min x estudiante)                                                                                                                Jue, Dic 12