Reconocimiento de Patrones
Sección | Nombre | Descripción |
---|---|---|
Programa del curso |
||
Topic 2 | Introducción |
|
Preguntas |
||
http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ |
||
Ejemplo que analiza compromiso complejidad del modelo, sesgo, varianza, error para árbol de decisión |
||
link visualización k-means |
||
Artículo |
||
Information fusion in biometrics- Ross, Jain |
||
Topic 3 | Arboles |
|
Ejemplo de árboles de decisión |
||
Topic 4 | Selección de características |
|
Extracción de características |
||
Link al curso |
||
Wrappers |
||
Topic 5 | Maxima verosimilitud y Estimación Bayesiana de parámetros |
|
Teoría Decisión Neyman Pearson |
||
Teoria Decisión Bayesiana |
||
Diseño de clasificador con función objetivo F-measure |
||
Articulo: diseño de clasificadores optimos para una medida de desempeño seleccionada. |
||
Evaluation |
||
Evaluación empírica de estimadores |
||
MLE empírico |
||
Comparación de Rocs de distintos clasificadores |
||
Riesgos Bayesianos |
||
Naive Bayes |
||
Topic 6 | ||
Comparación k-vecinos |
||
Estimación kde y costos |
||
Topic 7 | ||
Relación de la función de costo con la divergencia de Kullback-Leibler y la entropía cruzada. |
||
Topic 8 | Support Vector Machines: principio, definición del criterio, y deducción (optimizacíon) del hiperplano y los vectores de soporte. |
|
Topic 9 | Redes Neuronales Multicapa |
|
Topic 10 | Mezcla de densidades |
|
Artículo en donde las muestras saturadas por los captores de una imagen se tratan como datos faltantes |
||
Clustering particional y aglomerativo |
||
Este método es sumamente apropiado para situaciones en las que el ruido o la cantidad de outliers domina, y los clusters de interés contienen pocos puntos con respecto a los outliers. El método detecta automáticamente la clusters relevantes, sin necesidad de especificar cuántos son, considerándolos como eventos raros si éstos siguieran la distribución "de fondo" que da orígen a los outliers. |
||
Topic 11 | Generalidades. Comités de clasificadores, bagging y boosting. |
|
Random Forests, Gradient Boosting, Mezcla de expertos. |
||
Leo Breiman. "Bagging Predictors", Machine Learning, 24, 123–140 (1996) . |
||
Y. Freund and R.E. Schapire. "A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting". Journal of computer and system sciences 55, 119-139 (1997) .
|
||
Una aplicación de la metodología desde la extracción de características hasta la clasificación. |
||
Topic 12 | ||
Topic 13 | Links a tutoriales y recursos de python |
|
Instalación de herramientas del curso |
||
Ejemplo de árbol de clasificación usando scikit-learn |
||
Bibliotecas de python que se utilizarán en el curso |
||
Fecha límite de entrega 4/9/2017 |
||
Base de datos con 5 características de 2500 patrones de digitos 0, 3 y 8 de MNIST. |
||
electrocardiogramas en formato weka |
||
Práctico 2 |
||
Archivos necesarios para realizar el práctico 2 |
||
Letra práctico 3 |
||
Archivos necesarios para realizar el práctico 3 |
||
Topic 14 | Guía para la confección de la propuesta de proyecto a entregar por parte de los estudiantes. |
|
Son Dos archivos train_dataset.zip y train_genre.csv de tamaño 6GB y 820k. En la secretaría del instituto se dejará un pendrive con los datos por si es demasiado pesado para que los bajen por Internet. |
||
Son Dos archivos train_dataset.zip y train_genre.csv de tamaño 711MB y 94k. |
||
Archivo de todos los informes de trabajos de años culminados. |
||