Curso Math-ML [Online]
El aprendizaje de Machine Learning va de la mano del aprendizaje de los fundamentos matemáticos que hacen posible la ejecución de algoritmos optimizados de Aprendizaje Automático. El instituto DaSCI ha diseñado, para seguir de forma online, los cinco módulos que conforman este curso.
Metodología docente
El curso distribuye los conceptos matemáticos asociados al Machine Learning en cinco módulos. Los contenidos pueden ser seguidos de forma independiente gracias a que cada módulo es auto-contenido. Para ello cada módulo consta de 4-6 videos cortos de un total de aproximadamente 90 minutos. Se cuenta con material adicional en pdf para obtener los conceptos del curso, disponer de lecturas recomendadas, así como de propuestas prácticas con ejercicios asociados.
Cada módulo tiene una carga académica aproximada de 0.6 ECTS. El participante puede contactar con el responsable del módulo para aclarar dudas.
Contenidos Académicos
Módulo 1 – Normas y Técnicas de Regularización para Machine Learning
- Introducción y motivación
- Motivación: concepto de overfitting.
- La regularización como una solución del overfitting.
- Normas vectoriales
- Motivación del uso de normas vectoriales.
- Definición de norma vectorial.
- Normas más usadas: Las normas Lp.
- Representación de las normas como esfera unidad.
- Ampliación: Otras normas.
- Técnicas de regularización en ML
- Concepto de regularización en ML.
- Regularizaciones más comunes y su relación con las normas vectoriales.
- Comparativa entre regularizaciones.
- Ejemplo práctico en Python. Objetivo: ilustrar de forma gráfica todo lo impartido en el curso
Investigador
Módulo 2 – Álgebra Lineal y Reducción de la Dimensionalidad
- Introducción
Representación de conjuntos de datos
Espacios vectoriales
Maldición de la dimensionalidad - Fundamentos de álgebra lineal
Operaciones con matrices
Transformaciones lineales
Subespacios lineales y afines - Análisis de componentes principales
Problema de mínimos cuadrados
Resolución
Cálculo de PCA en alta dimensión - Métodos de reducción de la dimensionalidad
Técnicas lineales (PCA, Factor Analysis, Linear Discriminant Analysis)
Técnicas no lineales, manifold learning (KPCA, MDS, Isomap, LLE)
Modelos neuronales: autoencoders
Modelos neuronales probabilísticos - Uso práctico de autoencoders
Estructura general
Autoencoders regularizados para manifold learning
Autoencoders convolucionales para reducción de ruido
Autoencoders generativos y generación de instancias
Investigador
Módulo 3 – Probabilidad, Distribuciones y Modelos Probabilísticos
- Variables y vectores aleatorios
Espacio de probabilidad
Distribución de una variable aleatoria
Vector aleatorio
Independencia de variables - Esperanza, varianza y estimadores
Esperanza y varianza
Estimadores
Correlación - Distribuciones marginales y condicionadas
Distribuación marginal
Distribución condicionada
Teorema de la probabilidad total
Teorema de bayes - Distribuciones comunes en ML
Distribuciones discretas
Distribuciones continuas
Distribuciones multivariadas - Estimación de parámetros de un modelo
Estimación de parámetros
Estimación por máxima verosimilitud
Estimación por máximo a posteriori
Estimación bayesiana - Introducción a las redes bayesianas
Fundamentos de redes bayesianas
Construcción de la red
Estimación de parámetros
Naive Bayes
Investigador
Módulo 4: Optimización Convexa/No Convexa y Heurísticos de Optimización
- Introducción
Definición de problema de optimización
Tipos de problemas de optimización
Clase de complejidad NP: definición y relación con los problemas de optimización - Restricciones en los problemas de optimización
Intuición detrás de los problemas de optimización con restricciones
Problema con restricciones dual. Problema primal-dual, Lagrangiano. Dualidad débil del problema. Cálculo del hiperplano para SVM
Métodos de penalización exterior e interior
Problema de satisfacción de restricciones - Problemas de Optimización Convexo/No Convexo
Definición de conjunto convexo y función convexa. Importancia de problemas convexos
Caracterización de convexidad y de funciones convexas. Relación con los problemas de optimización con restricciones
Ejemplos sobre problemas de Machine Learning
Definiciones y características de la no convexidad
Tratamiento de los problemas no convexos - Gradiente Descendente
Descripción de la idea intuitiva del algoritmo.
Formulación matemática del Gradiente Descendente. Explicación de parámetros. Ejemplo práctico
Análisis del Gradiente Descendente
Variantes del Gradiente Descendente - Metaheurísticas para Machine Learning
Introducción a las Metaheurísticas
Metaheurísticas para Feature Selection
Metaheurísticas para Hyperparameter Tuning
Metaheurísticas para Instance Selection
Metaheurísticas como algoritmos de optimización
Investigador
Módulo 5: Test de Contraste de Hipótesis, Validación y Comparativa de Modelos ML
- Introducción
Test de hipótesis nula y validación de modelos
Caso de estudio - Test paramétricos
t-test
ANOVA test
Intervalos y curvas de confianza
T^2 de Hotelling para multiples medidas - Test no paramétricos
Comprobación de precondiciones
Comparación de dos muestras
Comparación de convergencia
Test no paramétrico para múltiples medidas
Comparación de múltiples muestras
Procedimientos post-hoc - Test bayesianos
Críticas a NHST
t-test bayesiano correlado
Test bayesianos de signo y de rangos con signo
Proceso impreciso de Dirichlet
Test bayesiano de Friedman
Test bayesiano para múltiples medidas