Salta al contenido principal
FING
  • Enlaces de interés
    FING Bedelia SGAE OpenFing Noticias Redes sociales Orientacion y consulta Convivencia
  • Cursos
    Institutos Tecnólogos Posgrados Extensión Institucional
  • Más
Cerrar
Selector de búsqueda de entrada
En este momento está usando el acceso para invitados
Acceder
FING
Página Principal
Expandir todo Colapsar todo

Bloques

Salta Buscar en los foros

Buscar en los foros

Búsqueda avanzada
Salta Próximos eventos

Próximos eventos

No hay eventos próximos
Ir al calendario...
Salta Actividad reciente

Actividad reciente

Actividad desde sábado, 17 de mayo de 2025, 17:18
Informe completo de la actividad reciente...

Sin actividad reciente

  1. Institutos
  2. Ingeniería Eléctrica
  3. Cursos que no se dictan en 2025
  4. DLvis
  5. Semana 5 - Clases 8 y 9

Aprendizaje Profundo para Visión Artificial

Perfilado de sección

  • General
  • Semana 1 - Clase 1
  • Semana 2 - Clases 2 y 3
  • Semana 3 - Clases 3 (cont.) y 4
  • Semana 4 - Clases 5 y 6
  • Semana 5 - Clase 7
  • Semana 5 - Clases 8 y 9
  • Semana 6 - Clases 10, 11 y 12
  • Semana 7 - Clases 13 y 14
  • Semana 8 - Clases 14 (cont.) y 15
  • Semana 9 - Clases 16 y 17
  • Semana 10 - Clases 18 y 19
  • Semana 11 - Control 3 y Clase 20
  • Ediciones anteriores
    • Los estudiantes deben
      Marcar como hecha

      Clase 8

      • Descenso por Gradiente Estocástico (SGD)
      • SGD+Momentum / SGD Nesterov
      • AdaGrad / RMSProp / ADAM
      • Learning rate decay
      • Optimización por métodos de segundo orden

    • Clase 8 - Slides URL
      Los estudiantes deben
      Marcar como hecha
    • "Deep learning" Goodfellow, Bengio, Courville, 2016. MIT press. (Capítulo 8) URL
      Los estudiantes deben
      Marcar como hecha
    • "Large-scale machine learning with stochastic gradient descent." Bottou, L., 2010. URL
      Los estudiantes deben
      Marcar como hecha
    • Gradient Descent Converges to Minimizers, J. D. Lee, M, Simchowitz, M. Jordan, B. Recht, 2016 URL
      Los estudiantes deben
      Marcar como hecha
    • Visualizing the Loss Landscape of neural nets, H. Li, Z. Xu , G. Taylor, C. Studer , T. Goldstein URL
      Los estudiantes deben
      Marcar como hecha
    • Escaping Saddles with Stochastic Gradients, H. Daneshmand, J. Kohler, A. Lucchi, T. Hofmann, 2018 URL
      Los estudiantes deben
      Marcar como hecha
    • Los estudiantes deben
      Marcar como hecha

      Clase 9

      • Funciones de Activación: Entrenamiento
      • Preprocesamiento de datos
      • Inicialización de parámetros de red (pesos)
      • Batch Normalization y variantes
      • Hiperparámetros: ¿cómo fijarlos?
      • Monitoreo del proceso de aprendizaje

    • Clase 9 - Slides URL
      Los estudiantes deben
      Marcar como hecha
    • Notas Redes Neuronales 2 (cs231n Stanford) URL
      Los estudiantes deben
      Marcar como hecha
    • "Deep learning" Goodfellow, Bengio, Courville, 2016. MIT press. (Capítulo 11) URL
      Los estudiantes deben
      Marcar como hecha
    • Ioffe, S. and Szegedy, C., Batch normalization: Accelerating deep network training by reducing internal covariate shift. ICML 2015 URL
      Los estudiantes deben
      Marcar como hecha
    • Yuxin Wu, Kaiming He - Group Normalization Archivo
      Los estudiantes deben
      Marcar como hecha
    • Santurkar et al., How Does Batch Normalization Help Optimization? Archivo
      Los estudiantes deben
      Marcar como hecha
    • A Recipe for Training Neural Networks (A. Karpathy) URL
      Los estudiantes deben
      Marcar como hecha
◄Semana 5 - Clase 7
►Semana 6 - Clases 10, 11 y 12
En este momento está usando el acceso para invitados (Acceder)
Resumen de retención de datos
Descargar la app para dispositivos móviles
Desarrollado por Moodle