Hola:
reenvio mensaje del Dr. Ernesto Dufrechou sobre un curso que puede ser de interés.
saludos
Lorena
----------------------------------------------
Hola,
Te invitamos a participar del curso intensivo de posgrado "Taller de optimización de algoritmos paralelos", que será dictado por el prof. Nicolás Wolovick de la Universidad Nacional de Córdoba (Argentina).
Está orientado
a estudiantes de cualquier rama de la ciencia y la ingeniería que hagan
un uso intensivo de herramientas computacionales en su
investigación o trabajo diario, o que estén interesados en conocer sobre
los últimos avances en plataformas de hardware de alto desempeño y su
utilización eficiente.
El curso consta de 5 encuentros presenciales, los días martes 29/10, miércoles 30/10, viernes 1/11, martes 5/11, miércoles 6/11, de 9:00 a 12:00, en la sala 301 del INCO (arriba de la cocina).
Se podrán validar 2 créditos en el programa de Maestría y Doctorado del PEDECIBA Informática por esta actividad.
El
prof. Wolovick es un docente con amplia experiencia en el campo de la
computación de alto desempeño, y es director del CCAD-UNC.
Completá esta encuesta para inscribirte (o manifestar tu interés en asistir) al curso
==============================================
Cronograma:
martes 29 oct: CPU
---
Intensidad aritmética, memory-bound, compute-bound, límites.
Progreso algorítmico vs. progreso arquitectural.
Jerarquía de memoria. Registros. Cache. Caché line. DRAM. Latencia. Ancho de banda.
Todo es latencia, computación local. El ancho de banda es casi gratis.
Paralelismo de instrucciones. ILP, OoO, registros físicos. Como sacarle el jugo.
Proebsting's Law.
Paralelismo de datos. DLP. ISA vectorial. Vectorización de loops. Compiladores. Medición. Problemitas con las implementaciones de DLP.
Paralelismo de hilos. Consistencia de caché. Localidad. Mensajes. OMP es una mentira.
Miércoles 30 oct: GPU
---
Las mismas ideas, otra implementación. Latency computing vs. throughput computing.
Unidades de ejecución, jerarquía de memoria, tipos especiales de DRAM.
ILP, DLP, TLP en GPUs.
Viernes 1 nov: scale up
---
CPU. 1P, 2P, 4P. Topología.
GPU. MultiGPU, comunicación estándar y especial. Topología.
Mediciones y optimización de comunicaciones.
Martes 5 oct: taller de aplicaciones
---
Se trabajará en aplicaciones que las/os alumnos usen o necesiten: ML, MD, CFD, etc.
Habrá también miniapps para trabajar.
Miércoles 6 oct: taller de aplicaciones
---
Continúa el trabajo anterior.