Slides de la Clase 2
Slides de la Clase 2
En esta clase introduciremos las Graph Neural Networks (GNN), mediante las cuales se busca extender el éxito de las redes convolucionales (CNNs) al procesamiento de señales de alta dimensión en dominios no Euclideos. Esto se logra explotando la estructura irregular del dominio de los datos (estructuras que naturalmente representamos mediante un grafo). Se cubrirán los siguientes temas:
- Convoluciones de señales en grafos y arquitecturas GNN. El concepto fundametal que permite la definición de GNNs es el filtro convolucional para señales en grafos, cuyo origen puede trazarse a la literatura de Graph Signal Processing (GSP). Las arquitecturas GNN componen filtros con no linealidades formando capas. Se cubrirán ejemplos ilustrativos sobre sistemas de recomendación y atribución de autoría en textos.
- Propiedades fundamentales de las GNN. Los filtros convolucionales y las GNN son arquitecturas ideales para procesar señales en grafos debido a su equivariancia respecto a las permutaciones. Las GNNs tienden a ser mas efectivas que los filtros lineales porque son Lipschitz-estables a las deformaciones del grafo subyacente. Esta es una propiedad que los filtros convolucionales lineales no pueden tener.
- Control distribuido de sistemas multiagente. Un dominio de aplicación interesante para las GNNs es el control distribuido de sistemas multiagente a gran escala. Se desarrollarán aplicaciones referentes al control de equipos de robots autónomos y a la signación de recursos en redes de comunicación inalámbrica.
Haga clic en 000-FINGseminar-handout.pdf para ver el archivo.