Salta al contenido principal
FING
  • Enlaces de interés
    FING Bedelia SGAE OpenFing Noticias Redes sociales Orientacion y consulta Convivencia
  • Cursos
    Institutos Tecnólogos Posgrados Extensión Institucional
  • Más
Cerrar
Selector de búsqueda de entrada
En este momento está usando el acceso para invitados
Acceder
FING
Página Principal
Expandir todo Colapsar todo
  1. Postgrados
  2. Maestría en Ingeniería Matemática
  3. EMC
  4. Curso 2024: video de las clases

Estadistica Multivariada Computacional

Perfilado de sección

  • General
  • Curso 2024: video de las clases
  • Materiales
  • Materiales R
  • Modelización e introducción al aprendizaje automático
  • Matriz de datos - Distribuciones multivariadas
  • Análisis de Componentes Principales
  • Escalado Multidimensional (MDS), Isomap
  • Clustering
  • Clasificación
  • Arboles de clasificación y de regresión (CART)
  • Métodos de agregación de modelos
    • 15/8: presentación del curso, evaluaciòn y pasos básicos con R URL
      Los estudiantes deben
      Marcar como hecha

      ut!1kNJq

    • 20/8: media, varianza, covarianza, matriz de datos multivariados, matriz de covarianzas URL
      Los estudiantes deben
      Marcar como hecha

      @@V9czPp

    • 22/8: propiedades de la matriz de covarianzas, variables redundantes URL
      Los estudiantes deben
      Marcar como hecha

      LQ**gf.5

    • 27/8: medidas de variablidad, distancias URL
      Los estudiantes deben
      Marcar como hecha

      AVF8#MU+

    • 29/8: distancia de Mahalanobis, datos multivariados atípicos URL
      Los estudiantes deben
      Marcar como hecha

      W&+8j1F8

      La clase salió cortada por problemas con la cámara, el video quedó corto y sigue en el próximo.


    • 29/8: distancia de Mahalanobis y datos atípicos multivariados (parte 2) URL
      Los estudiantes deben
      Marcar como hecha

      a%B#T49F

    • 3/9: valores y vectores propios, matrices ortogonales, teorema espectral, teorema de la esfera unidad URL
      Los estudiantes deben
      Marcar como hecha

      nxEUs$t7

    • 5/9: componentes principales URL
      Los estudiantes deben
      Marcar como hecha
    • 10/9: componentes principales en R, obtención de las componentes, matriz ortogonal (de rotación), biplot. URL
      Los estudiantes deben
      Marcar como hecha

      Qc4xi#6H

    • 12/9: componentes principales, longitud de los vectores y ángulo de los mismos en el biplot URL
      Los estudiantes deben
      Marcar como hecha

      w+xM5t1?

    • 17/9: gráfico del porcentaje de varianza explicada, redondeo final del tema URL
      Los estudiantes deben
      Marcar como hecha

      &VY$U9!d

    • 19/9: clustering, primeros conceptos URL
      Los estudiantes deben
      Marcar como hecha

      J&CFS#J6

    • 24/9: algoritmo de k-means URL
      Los estudiantes deben
      Marcar como hecha

      SYZc0=E*

    • 1/10: redondeo de kmeans, pam y dendrogramas URL
      Los estudiantes deben
      Marcar como hecha

      3?p@IP3T

    • 3/10: método Ward para dendrograma, función hclust, heatmaps URL
      Los estudiantes deben
      Marcar como hecha

      t!esTV1t

    • 8/10: coeficiente de cophenetic, coeficientes de Silhouette y Dunn, paquete NbClust URL
      Los estudiantes deben
      Marcar como hecha

      @c6*%@1D


    • 10/10: tendencia en clustering, clustering espectral, fuzzy clustering, clustering basados en modelos, índices de Rand y Jaccard URL
      Los estudiantes deben
      Marcar como hecha

      29Avh+QG

      NOTA: es conveniente saltearse los minutos 38 al 54, que tiene que ver con  el estadístico de Hopkins. Hay algunos errores. Para el tema del estadístico de Hopkins, sugiero vean el video complementario que está entre esta clase y la siguiente.


    • Estadístico de Hopkins (para evaluar tendencia en clustering) URL
      Los estudiantes deben
      Marcar como hecha
      gB4+0k2E
    • 15/10: teorema de imposibilidad de Kleinberg y maldición de la dimensionalidad URL
      Los estudiantes deben
      Marcar como hecha

      Hy&*c36q

    • 17/10: concepto de clasificación, regla óptima de Bayes URL
      Los estudiantes deben
      Marcar como hecha

      x!9sr.%3

    • 24/10: redondeo de KNN, elección del K, cross validation, error test y training error URL
      Los estudiantes deben
      Marcar como hecha

      3yMueN=8

      NOTA: la clase anterior no quedó grabada (aunque se supone que se grabó), en dicha clase expliqué el método de clasificación por vecinos más cercanos (KNN), en el comienzo de esta clase está explicado nuevamente (y rápidamente) este método.

    • 29/10: modelo logístico para clasificación URL
      Los estudiantes deben
      Marcar como hecha

      7.u9.cf*

    • 31/10: discriminante lineal (LDA) y cuadrático (QDA) URL
      Los estudiantes deben
      Marcar como hecha

      1hGJt9??

    • 5/11: Naive Bayes y comparaciòn entre los 5 criterios de clasificación URL
      Los estudiantes deben
      Marcar como hecha

      5C+#2Cp.

    • 7/11: algo sobre optimización y support vector machines (caso separable) URL
      Los estudiantes deben
      Marcar como hecha

      @SsPH%8%

    • 12/11: support vector machines (final) URL
      Los estudiantes deben
      Marcar como hecha

      Ems4K%.G

    • 14/11: curvas ROC, CART (presentación) URL
      Los estudiantes deben
      Marcar como hecha

      1.GijP=D

    • Arboles de clasificación y regresión (CART) URL
      Los estudiantes deben
      Marcar como hecha
    • 21/11: Bagging y random forest URL
      Los estudiantes deben
      Marcar como hecha

      ba%NCV?2

◄General
►Materiales
En este momento está usando el acceso para invitados (Acceder)
Resumen de retención de datos
Descargar la app para dispositivos móviles
Desarrollado por Moodle