Introduciremos las Graph Neural Networks (GNN), mediante las cuales se busca extender el éxito de las redes convolucionales (CNNs) al procesamiento de señales de alta dimensión en dominios no Euclideos. Esto se logra explotando la estructura irregular del dominio de los datos (estructuras que naturalmente representamos mediante un grafo). Se cubrirán los siguientes temas:
Convoluciones de señales en grafos y arquitecturas GNN. El concepto fundametal que permite la definición de GNNs es el filtro convolucional para señales en grafos, cuyo origen puede trazarse a la literatura de Graph Signal Processing (GSP). Las arquitecturas GNN componen filtros con no linealidades formando capas. Se cubrirán ejemplos ilustrativos.
Propiedades fundamentales de las GNN. Por ejemplo, los filtros convolucionales y las GNN son arquitecturas ideales para procesar señales en grafos debido a su equivariancia respecto a las permutaciones. O cómo (y por qué) una GNN entrenada en un grafo relativamente pequeño sigue funcionando en uno enorme.
En la medida que el tiempo lo permita, cubriremos algunos temas más avanzados de GNNs, como ser Attention o Transformers.