Salta al contenido principal
Panel lateral
Enlaces de interés
FING
Bedelia
SGAE
OpenFing
Noticias
Redes sociales
Orientacion y consulta
Convivencia
Cursos
Institutos
Tecnólogos
Posgrados
Extensión
Institucional
Más
Buscar
Cerrar
Buscar
Selector de búsqueda de entrada
En este momento está usando el acceso para invitados
Acceder
Página Principal
Abrir índice del curso
Institutos
Ingeniería Eléctrica
recpat
Selección de características
Selección de características
Selección de características
Selección de características
Haga clic en
Selección de características.pdf
para ver el archivo.
◄ Arboles_decisión_python
Ir a...
Ir a...
Programa del curso
Consultas 2017
Formulario de inscripción
Formulario de evaluación
Cronograma 2018
Foro novedades 2018
Foro consultas 2018
Introducción
Preguntas Tema 1
Preguntas realizadas en la clase II
Link a introducción visual- ej:árbol
Link visual: Complejidad del modelo, errores, sobreajuste...
link visualización k-means
Statistical Pattern Recognition: A Review, 2000, Jain et al. URL
Information fusion in biometrics
Métodos de clasificación sin métrica- Árboles de decisión
Pregunta Tema 2
ID3
Arboles_decisión_python
Extracción de caracteristicas
Artículo Feature Selection
Feature Extraction Course- Guyon
Wrappers for feature subset selection
Maxima verosimilitud y Estimación Bayesiana de parámetros
Preguntas Tema 4/1
Teoría Decisión Neyman Pearson
Preguntas Tema 4/2
Teoria Decisión Bayesiana
Preguntas Tema 4/3
Novel classifier scheme for imbalanced problems
A new framework for optimal classifier design
Evaluation Measures for Models Assessment over Imbalanced Data Sets
Evaluación empírica de estimadores
MLE empírico
ROCs
Ejemplo- Clasificador con Riesgos Bayesianos
Naive Bayes
Tecnicas Supervisadas No Parametricas I
Tecnicas Supervisadas No Parametricas II
Adaptive Nearest Neighbor Pattern Classification- Geva, Sitte
Comparación k-vecinos
Estimación densidades kde
Transparencias de clase
Preguntas Tema 6
Notas complementarias sobre regresión logística
Transparencias de clase, Support Vector Machines
Notas de clase, Support Vector Machines
Preguntas Tema 7
Transparencias de clase (Redes Multicapa)
Transparencias de clase: no supervisado paramétrico
Ejemplo de uso de EM en High Dynamic Range Imaging
Preguntas Tema 7 / 1
Transparencias de clase: clustering
Artículo "Data Clustering: 50 Years Beyond K-Means", A. K. Jain.
Lectura recomendada: clustering en presencia de outliers
Lectura recomendada: Bayesian Hierarchical Clustering
Preguntas Tema 7 / 2
Combinación de clasificadores clase 1
Combinación de clasificadores clase 2
Artículo original de Bagging
Artículo original de Random Forests (Breiman, 2001)
Artículo original de AdaBoost
Artículo Viola y Jones: detección de caras con boosting
Otro ejemplo: clasificación de lesiones de piel con imágenes dermatoscópicas
The class imbalance problem in pattern classification and learning
Metacost (Domingos)
Cost-sensitive learning (Elkan)
SMOTE
Links a tutoriales y recursos de python
Instalación de herramientas del curso
ejemplo árbol de clasificación
Machine Learning in Python
Hoja de ejercicios (tp1_2018.pdf)
Datos 0,3,8 MNIST
ecg mit en formato weka
Entrega Práctico 1
2018- Hoja de ejercicios (tp2_2018.pdf)
Archivos práctico 2 (archivos_practico2_2018.zip)
Entrega Práctico 2
Hoja de ejercicios (tp3_2018.pdf)
Archivos práctico 3 (archivos_practico3_2018.zip)
Entrega Práctico 3
Guía para propuestas de proyecto
Proyecto estándar 2018
Enlace a los datos del proyecto de curso estándar 2018
Enlace a los datos de test del proyecto de curso estándar 2018
Entrega plan de proyecto 2018
Entrega Informe Proyecto 2018
Trabajos Finales de años anteriores
Trabajos Finales 2015
Trabajos Finales 2016
Trabajos Finales 2017
Entrega Presentación Defensa proyecto 2018
Extracción de caracteristicas ►