DaSCI Seminars
Charlas de un investigador destacado que nos presenta los avances disruptivos en Inteligencia Artificial. Tienen una duración aproximada de 1 hora y 30 minutos (45 min. de exposición y 30 minutos para preguntas)
DaSCI Seminars 2024
Inteligencia artificial sostenible, precisa, justa y digna de confianza
Fecha: 03/12/2024
Resumen: El crecimiento de las aplicaciones de Inteligencia Artificial requiere el desarrollo de modelos de gestión de riesgos que puedan equilibrar las oportunidades con los riesgos. En la charla, contribuimos al desarrollo de modelos de riesgo de Inteligencia Artificial presentando un conjunto de métricas estadísticas integradas que pueden medir la «Sostenibilidad"
, «Exactitud», «justicia" y
«Explicabilidad'» de cualquier aplicación de Inteligencia Artificial, en línea con las peticiones de la ley europea de Inteligencia Artificial. Las métricas propuestas son coherentes entre sí, ya que todas se derivan de una metodología estadística subyacente común. Son muy generales y pueden aplicarse a cualquier método de aprendizaje automático, independientemente de los datos y el modelo subyacentes. Su validez empírica se evaluará mediante su aplicación práctica a un conjunto de casos de uso. La aplicación revelará que las métricas propuestas son más interpretables y más coherentes con las expectativas, con respecto a métricas estándar como AUC, RMSE, valores de Shapley y métricas clásicas de equidad.
Ponente: Paolo Giudici es Profesor de Estadística en la Universidad de Pavía y Profesor de Aprendizaje Automático en el Instituto Universitario Europeo. Autor de varias publicaciones científicas, con un índice h de 49 (Google scholar), 38 (Scopus), 33 (Web of Science). Las publicaciones proponen modelos de aprendizaje estadístico que pueden medir riesgos y oportunidades de innovaciones de gran impacto, como la inteligencia artificial y las tecnologías financieras. Editor jefe de la revista científica «Statistics» (Taylor and Francis). Editor de «Artificial Intelligence in Finance» (Frontiers) y de «International journal of data science and analytics» (Springer). Coordinador de 13 proyectos científicos financiados, entre los que destacan los proyectos europeos Horizonte2020 «PERISCOPE: Pan-European response to the impacts of covid-19 and future pandemics and epidemics (2020-2023)» y “FIN-TECH: Financial supervision and Technological compliance” (2019-2020). Los proyectos han apoyado la actividad investigadora de 18 estudiantes de doctorado y de 13 investigadores postdoctorales. Investigador en el Banco de Pagos Internacionales. Experto en investigación para la Comisión Europea, la Autoridad Europea de Seguros y Pensiones de Jubilación, el Ministerio de Desarrollo italiano, el Banco de Italia y la Asociación Bancaria Italiana. Miembro del Consejo de Administración del banco Credito Valtellinese (2010-2018). Miembro honorario de la Asociación Italiana de Gestión de Riesgos Financieros. Miembro electo del Instituto Internacional de Estadística (ISI). Miembro del Institute of Mathematical Statistics (IMS), de la Association for Computing Machinery (ACM), de la European Network for Business and Industrial Statistics (ENBIS) y de la Sociedad Italiana de Estadística (SIS). Véase también: https://en.wiki.topitalianscientists.org/Paolo_Giudici
Grabación: Inteligencia artificial sostenible, precisa, justa y digna de confianza
Causethical ML: de la teoría a la práctica
Fecha: 19/11/2024
Resumen: En esta charla daré una visión general del papel de la causalidad en el aprendizaje automático ético y, en particular, en el ML justo y explicable. En concreto, primero detallaré cómo utilizar el razonamiento causal para estudiar los problemas de equidad e interpretabilidad en la toma de decisiones algorítmicas, haciendo hincapié en las principales limitaciones que encontramos cuando pretendemos abordar estos problemas en la práctica. A continuación, daré algunas pistas sobre cómo resolver algunas de estas limitaciones prácticas mediante el uso de modelos generativos causales. Una nueva clase de modelos generativos profundos que no sólo se ajustan con precisión a los datos observacionales, sino que también pueden proporcionar estimaciones precisas a las consultas de intervención y contrafactuales. Por último, discutiré los retos pendientes en el diseño de estos modelos generativos causales.
Ponente: Isabel Valera es Profesora Titular de Aprendizaje Automático en el Departamento de Informática de la Universidad de Saarland (Saarbrücken, Alemania), y Profesora Adjunta en el MPI de Sistemas de Software de Saarbrücken (Saarbrücken, Alemania). Ha recibido una subvención ERC Starting Grant sobre «Society-Aware ML» y es miembro del European Laboratory for Learning and Intelligent Systems (ELLIS). Anteriormente, fue jefa de grupo independiente en el MPI de Sistemas Inteligentes de Tubinga (Alemania). Obtuvo su doctorado en 2014 y su máster en 2012 por la Universidad Carlos III de Madrid, España, y trabajó como investigadora postdoctoral en el MPI for Software Systems (Alemania) y en la Universidad de Cambridge (Reino Unido). Su investigación se centra en el desarrollo de métodos de aprendizaje automático fiables que puedan utilizarse en el mundo real. Su investigación puede clasificarse en tres grandes temas: aprendizaje automático justo, interpretable y robusto. Sus intereses de investigación abarcan una amplia gama de enfoques de ML, incluyendo el aprendizaje profundo, el modelado probabilístico, la inferencia causal, el análisis de series temporales, y muchos más.
Grabación: Causethical ML: de la teoría a la práctica
Aprendizaje distribuido, semántica de la información, modelos generativos, aprendizaje multiagente bajo restricciones de comunicación.
Fecha: 30/10/2024
Resumen:
Ponente: El Dr. Marios Kountouris es un destacado investigador y académico en el área de las telecomunicaciones y las redes de comunicaciones. Es conocido por sus contribuciones a la teoría de la información, redes inalámbricas y el diseño de algoritmos de comunicación. Ha trabajado en instituciones de prestigio como el Laboratorio de Informática de París (LIX) en la École Polytechnique, Francia, donde ha liderado investigaciones sobre comunicación y redes 5G, redes inalámbricas y la optimización de redes para mejorar su eficiencia y capacidad. Su trabajo abarca tanto aspectos teóricos como aplicados de las telecomunicaciones, y ha contribuido significativamente a áreas como las redes multiusuario, comunicación en dispositivos de baja potencia y sistemas de comunicación masiva. También ha sido un autor prolífico en conferencias y revistas de renombre y es frecuentemente invitado a hablar en eventos internacionales. El Dr. Marios Kountouris es uno de los nuevos miembros del Instituto Andaluz de Investigación en Ciencia de Datos e Inteligencia Computacional (DaSCI) de la Universidad de Granada y ha sido galardonado con una de las prestigiosas ayudas del Consejo Europeo de Investigación (ERC). Su investigación en el DaSCI está enfocada en temas avanzados de telecomunicaciones e inteligencia artificial, reforzando el liderazgo de este instituto en áreas de vanguardia tecnológica.
Esta conferencia es parte del Proyecto “Inteligencia Artificial Ética, Responsable y de Propósito General: Aplicaciones En Escenarios De Riesgo. (IAFER) Exp.: TSI-100927-2023-1 financiado a través de la Creación de cátedras universidad-empresa (Cátedras Enia), destinadas a la investigación y desarrollo de la inteligencia artificial, para su difusión y la formación en el marco del Plan de Recuperación, Transformación y Resiliencia Europeo, financiado por la Unión Europea-Next Generation EU
Investigación e industrialización de sistemas de realidad aumentada para órganos blandos en CMI abdominal
Fecha: 08/10/2024
Resumen: La cirugía miniinvasiva (CMI) se realiza con una cámara llamada endoscopio, que se introduce junto con instrumentos quirúrgicos a través de pequeñas incisiones en la pared abdominal. El cirujano mira una pantalla y maneja los instrumentos directamente o mediante un telemanipulador en la CMI asistida por robot. A pesar de sus numerosas ventajas, la CMI presenta problemas, ya que las estructuras internas de los órganos objetivo pueden ser difíciles de localizar para el cirujano. Puede tratarse de estructuras que hay que tratar, como los tumores, o de estructuras que hay que evitar, como los vasos sanguíneos. Hemos propuesto facilitar la localización de estructuras ocultas en la CMI mediante realidad aumentada, lo que se consigue transfiriendo la información disponible de las imágenes de diagnóstico, como la TC y la RM, adquiridas antes de la cirugía. La transferencia de esta información plantea numerosos retos científicos, técnicos y clínicos. Esta presentación describe el desarrollo académico de una posible solución y su transferencia a la industria.
Ponente: Adrien Bartoli es catedrático de Informática en la Université Clermont Auvergne desde otoño de 2009 y miembro del Institut Universitaire de France desde 2016. Actualmente está en excedencia como investigador científico en el Hospital Universitario de Clermont-Ferrand y como director científico de SurgAR (2021-2024). Fundó y dirige el grupo de investigación EnCoV (Endoscopy and Computer Vision) junto con Michel Canis. Fue titular de una subvención ERC Consolidator (2013-2018) y una subvención ERC Proof-of-Concept (2018-2019). Anteriormente, fue científico investigador del CNRS en el Institut Pascal desde el otoño de 2004, donde dirigió ComSee, el grupo de investigación de Visión por Computador, junto con Thierry Chateau. Fue profesor visitante en DIKU en la Universidad de Copenhague entre 2006-2009 e investigador postdoctoral en el Grupo de Geometría Visual de la Universidad de Oxford bajo la dirección de Andrew Zisserman en 2004. Adrien Bartoli obtuvo su Habilitación (HDR) en la Universidad Blaise Pascal en junio de 2008. Completó su doctorado en el grupo de Percepción de Inria Grenoble con Peter Sturm y Radu Horaud. Adrien Bartoli ha recibido varios galardones, entre ellos el premio de tesis doctoral Grenoble-INP 2004, la medalla de bronce del CNRS 2008 y el premio de investigación de la Université d’Auvergne 2016. Los principales intereses de investigación de Adrien Bartoli incluyen el registro de imágenes y Shape-from-X para escenarios rígidos y no rígidos, y el aprendizaje automático en el campo de la visión por ordenador teórica y médica. Ha publicado alrededor de 100 artículos científicos y ha formado parte de los comités de programa de conferencias de alto nivel en este campo. Forma parte del consejo editorial de IJCV y JAIR y fue miembro del consejo editorial de IET CV y ELCVIA.
IA para la democracia: Retos éticos y políticos
Fecha: 11/09/2024
Resumen: Tras la reciente publicación de su nuevo libro «Por qué la IA socava la democracia y qué hacer al respecto», Mark Coeckelbergh propone un debate sobre
Ponente: El Dr. Mark Coeckelbergh
Grabación: IA para la demoscracia: Retos éticos y políticos
El papel de la inteligencia artificial en la consecución de los Objetivos de Desarrollo Sostenible
Fecha: 28/05/2024
Resumen: El surgimiento de la inteligencia artificial (IA) y su impacto cada vez más amplio en muchos sectores requiere una evaluación de su efecto en el logro de los Objetivos de Desarrollo Sostenible. Utilizando un proceso de obtención de expertos basado en el consenso, encontramos que la IA puede permitir el logro de 134 objetivos en todos los objetivos, pero también puede inhibir 59 objetivos. Sin embargo, los focos de investigación actuales pasan por alto aspectos importantes. El rápido desarrollo de la IA debe estar respaldado por el conocimiento regulatorio y la supervisión necesarios para que las tecnologías basadas en IA permitan el desarrollo sostenible. No hacerlo podría dar lugar a lagunas en la transparencia, la seguridad y los estándares éticos.
Ponente: El Dr. Ricardo Vinuesa es profesor asociado en el Departamento de Ingeniería Mecánica del Real Instituto de Tecnología KTH de Estocolmo. También es subdirector de la Plataforma de Digitalización de KTH y profesor principal del Centro de Acción Climática de KTH. Estudió Ingeniería Mecánica en la Universidad Politécnica de Valencia (España) y se doctoró en Ingeniería Mecánica y Aeroespacial en el Illinois Institute of Technology de Chicago. Su investigación combina simulaciones numéricas y métodos basados en datos para comprender, controlar y predecir flujos turbulentos complejos delimitados por paredes, como las capas límite que se desarrollan alrededor de las alas y los entornos urbanos. El Dr. Vinuesa ha recibido, entre otros, una ERC Consolidator Grant (el programa de investigación más prestigioso de Europa), el TSFP Kasagi Award, el Goran Gustafsson Award for Young Researchers, el IIT Outstanding Young Alumnus Award, el SARES Young Researcher Award y lidera varios grandes proyectos de Horizonte Europa. También es miembro de la Joven Academia de Ciencias de España.
Grabación: El papel de la inteligencia artificial en la consecución de los Objetivos de Desarrollo Sostenible
La regresión de cresta prevalidada como sustituto altamente eficiente de la regresión logística para datos de alta dimensión
Fecha: 07/05/2024
Resumen: Los modelos lineales se utilizan mucho en clasificación, y son especialmente eficaces para datos de alta dimensión en los que los límites de decisión lineales / hiperplanos de separación suelen ser eficaces para separar clases, incluso para datos complejos. Un ejemplo reciente de una técnica que utiliza eficazmente clasificadores lineales es la familia de clasificadores ROCKET para la clasificación de series temporales. Una de las razones por las que la familia ROCKET es tan rápida se debe a que utiliza un clasificador lineal basado en la regresión de cresta de error cuadrático estándar. Ajustar un modelo lineal basado en el error cuadrático es mucho más rápido y estable que ajustar una regresión logística multinomial regularizada estándar basada en la pérdida logarítmica (es decir, máxima verosimilitud regularizada), ya que en este último caso las soluciones sólo pueden encontrarse mediante una búsqueda numérica. Aunque es rápida, una desventaja de la regresión de cresta con error cuadrático es que no puede producir predicciones probabilísticas. Demostraré algunos trabajos muy recientes sobre cómo utilizar la regresión de cresta regular para entrenar modelos de regresión logística multinomial regularizados con L2 para un gran número de características, incluida la elección de un grado adecuado de regularización, con una complejidad temporal que no es mayor que un ajuste por mínimos cuadrados ordinario. Esto contrasta con la regresión logística, que requiere un reajuste completo para cada valor del parámetro de regularización considerado y cada pliegue utilizado para la validación cruzada. Nuestro nuevo enfoque permite que los modelos basados en la tecnología de clasificación lineal proporcionen predicciones probabilísticas bien calibradas con una sobrecarga computacional adicional mínima. Si el tiempo lo permite, también expondré algunas ideas sobre cuándo cabe esperar un buen rendimiento de estos clasificadores lineales.
Ponente: Daniel Schmidt es profesor asociado de Informática en el Departamento de Ciencia de Datos e Inteligencia Artificial de la Universidad de Monash (Australia). Obtuvo su doctorado en el área de inferencia estadística teórica de la información en 2008 en la Universidad de Monash. De 2009 a 2018 estuvo empleado en la Universidad de Melbourne, trabajando en el campo de la genómica estadística (GWAS, epigenética y cáncer). Desde 2018 trabaja en la Universidad de Monash en un puesto de enseñanza e investigación. Sus intereses de investigación son principalmente la clasificación y predicción de series temporales, particularmente a escala, y la inferencia bayesiana y MCMC, con énfasis en la sparsity y la contracción, la optimización bayesiana y la aproximación bayesiana de funciones. También está muy interesado en las mejores formas de impartir formación en estadística y aprendizaje automático.
AI verde
Fecha: 09/04/2024
Resumen: Los cómputos requeridos para la investigación del aprendizaje profundo se han estado duplicando cada pocos meses, lo que resulta en un aumento estimado de 5000x de 2018 a 2022. Esta tendencia ha conducido a un éxito sin precedentes en una serie de tareas de IA. En esta charla hablaré de algunos efectos secundarios preocupantes de esta tendencia, tocando temas como la falta de inclusión dentro de la comunidad investigadora y una huella medioambiental cada vez mayor. A continuación, presentaré la IA ecológica, un enfoque alternativo para ayudar a mitigar estos problemas. La IA ecológica se compone de dos ideas principales: informar más sobre los presupuestos computacionales y hacer de la eficiencia un criterio de evaluación de la investigación junto con la precisión y otras medidas afines. Me centraré en este último tema, analizando varios enfoques recientes para reducir el coste computacional de la IA, algunos basados en reducir el tamaño de la caché LLM, otros en demostrar que los LM más pequeños pueden ser tan precisos como los más grandes. Se trata de un trabajo conjunto con Michael Hassid, Yossi Adi, Matanel Oren, Tal Remez, Jesse Dodge, Noah A. Smith, Oren Etzioni y Jonas Gehring.
Ponente: Roy Schwartz es profesor titular (adjunto) en la Facultad de Informática e Ingeniería de la Universidad Hebrea de Jerusalén (HUJI). Roy estudia el procesamiento del lenguaje natural y la inteligencia artificial. Antes de unirse a HUJI, Roy fue postdoc (2016-2019) y luego científico investigador (2019-2020) en el Allen institute for AI y en The University of Washington, donde trabajó con Noah A. Smith. Roy completó su doctorado en 2016 en HUJI, donde trabajó con Ari Rappoport. El trabajo de Roy ha aparecido en la portada de la revista CACM, y ha aparecido, entre otros, en el New York Times , MIT Tech Review y Forbes.
Grabación: IA verde
Ingeniería inversa de los mecanismos cerebrales humanos de percepción y aprendizaje de objetos
Fecha: 6/02/2024
Resumen: La especie humana se encuentra inmersa en una gran búsqueda científica: comprender los mecanismos neuronales de la inteligencia humana (de los primates). Los recientes avances en múltiples subcampos de la investigación cerebral sugieren que los próximos pasos clave en esta búsqueda serán la construcción de modelos de redes capaces de funcionar en el mundo real y a nivel sistémico que pretendan abstraer, emular y explicar los mecanismos neuronales de los primates que subyacen al comportamiento inteligente natural. En esta charla, describiré la historia de cómo la neurociencia, la ciencia cognitiva y la informática convergieron para crear modelos de redes neuronales profundas, específicos y computables con imágenes, destinados a abstraer, emular y explicar adecuadamente los mecanismos del reconocimiento de objetos visuales centrales en primates. Basados en un gran número de datos neurofisiológicos y conductuales de primates, algunos de estos modelos de red son actualmente las teorías científicas más avanzadas (es decir, las más precisas) sobre los mecanismos internos del flujo visual ventral de los primates y sobre cómo estos mecanismos sustentan la capacidad de los humanos y otros primates para inferir con rapidez y precisión el contenido latente del mundo (por ejemplo, la identidad del objeto, la posición, la pose, etc.) a partir del conjunto de píxeles de la mayoría de las imágenes naturales.
Aunque todavía están lejos de ser completos, estos modelos científicos punteros ya tienen muchos usos en la ciencia del cerebro y más allá, y describiré tres ejemplos recientes de nuestro equipo. En primer lugar, describiré un reciente trabajo neural y conductual que compara y contrasta la percepción de objetos por primates con la percepción de objetos por modelos en el contexto de un ataque adversario. En segundo lugar, describiré trabajos recientes sobre el comportamiento que comparan y contrastan la percepción de objetos por primates con la percepción de objetos modelo en el contexto del aprendizaje rápido de objetos. En tercer lugar, si el tiempo lo permite, destacaré el uso de los principales modelos para diseñar patrones de energía luminosa en la retina (es decir, imágenes sintéticas personalizadas) para modular con precisión la actividad neuronal en las profundidades del cerebro. En nuestra opinión, se trata de una nueva y apasionante vía de posibles beneficios clínicos para el ser humano.
Ponente: Jim DiCarlo es catedrático de Sistemas y Neurociencia Computacional en el Instituto Tecnológico de Massachusetts. El principal objetivo de su equipo de investigación es descubrir y emular artificialmente los mecanismos cerebrales que subyacen a la inteligencia visual humana. A lo largo de los últimos 20 años, DiCarlo y sus colaboradores han contribuido a desarrollar, utilizando el organismo modelo animal primate no humano, nuestra comprensión contemporánea a nivel de ingeniería de los mecanismos neuronales que subyacen al procesamiento de la información visual en la corriente visual ventral -una compleja serie de áreas cerebrales interconectadas- y cómo ese procesamiento sustenta capacidades cognitivas básicas como el reconocimiento de objetos y rostros. Él y sus colaboradores pretenden utilizar estos nuevos conocimientos científicos para guiar el desarrollo de sistemas de visión artificial («IA») más robustos, revelar nuevas formas de modular beneficiosamente la actividad cerebral a través de la modulación de las imágenes que llegan a nuestros ojos, exponer nuevos métodos para acelerar el aprendizaje visual, sentar las bases de nuevas prótesis neurales (interfaces cerebro-máquina) para restaurar los sentidos perdidos y proporcionar una base científica para entender cómo se altera el procesamiento sensorial en afecciones como la agnosia, el autismo y la dislexia.
DiCarlo se formó en ingeniería biomédica, medicina, neurofisiología de sistemas e informática en Northwestern (BSE), Johns Hopkins (MD/PhD) y Baylor College of Medicine (Postdoc). Fue Director del Departamento de Ciencias Cognitivas y del Cerebro del MIT de 2012 a 2021, y actualmente es Director del MIT Quest for Intelligence (2021-presente), donde él y su equipo de liderazgo trabajan para avanzar en la investigación interdisciplinaria en la interfaz de la inteligencia natural y artificial. DiCarlo es Alfred P. Sloan Research Fellow, Pew Scholar in Biomedical Sciences, McKnight Scholar in Neuroscience y miembro electo de la American Academy of Arts & Sciences.
Grabación: Ingeniería inversa de los mecanismos cerebrales humanos de percepción y aprendizaje de objetos
Aprendizaje automático cuántico en física de altas energías
Fecha: 16/01/2024
Resumen: Los avances teóricos y algorítmicos, la disponibilidad de datos y la potencia de cálculo han abierto la puerta a perspectivas excepcionales para aplicación del aprendizaje automático clásico en los campos más diversos de la ciencia, la empresa y la sociedad en general. de la ciencia, la empresa y la sociedad en general, y en particular en la Física de Altas Energías (HEP). En particular, el aprendizaje automático es uno de los enfoques más más prometedores para analizar y comprender los datos que producirá la próxima generación de detectores HEP. El aprendizaje automático es también una tarea prometedora para los dispositivos cuánticos a corto plazo que pueden aprovechar representaciones comprimidas de alta dimensión y utilizar la naturaleza estocástica de las mediciones cuánticas como fuente aleatoria. Se están investigando varias arquitecturas de arquitecturas. Implementaciones cuánticas de Boltzmann, clasificadores o codificadores automáticos, entre los enfoques clásicos más populares. clásicas más populares, para diferentes aplicaciones. Las máquinas de Born son modelos puramente cuánticos que pueden generar distribuciones de probabilidad de una forma única, inaccesible para los ordenadores clásicos. En esta charla se dará una visión general del estado actual de la en términos de Aprendizaje Automático en ordenadores cuánticos, centrándose en su aplicación a la HEP.
Ponente: Sofia Vallecorsa es una física del CERN con amplia experiencia en el desarrollo de software en el ámbito de la física de altas energías, en particular en aplicaciones de aprendizaje profundo y computación cuántica dentro del CERN openlab (https://openlab.cern/index.php/ [1]). Es doctora en física por la en la Universidad de Ginebra. Antes de incorporarse al CERN openlab, Sofia era responsable del desarrollo de tecnologías basadas en aprendizaje profundo para para la simulación del transporte de partículas a través de detectores en el CERN. También de simulación del detector GeantV en arquitecturas de hardware modernas. arquitecturas de hardware modernas.
Véase https://scholar.google.com/citations?user=OQpf9YsAAAAJ&hl=en [2] para una extensa lista de publicaciones.
Grabación: Aprendizaje automático cuántico en física de altas energías
DaSCI Seminars 2023
Aprendizaje profundo 2.0: Hacia una IA que construya y mejore la IA
Fecha: 10/10/2023
Resumen: A lo largo de la historia de la IA, existe un patrón claro según el cual los elementos manuales de los métodos de IA acaban siendo sustituidos por otros de mejor rendimiento encontrados automáticamente; por ejemplo, el aprendizaje profundo (DL) sustituyó la ingeniería manual de características por representaciones aprendidas. El siguiente paso lógico en el aprendizaje de representaciones es también (meta-)aprender las mejores arquitecturas para estas representaciones, así como los mejores algoritmos e hiperparámetros para aprenderlas. En esta charla, discutiré varios trabajos con este objetivo en el área de AutoML, destacando que AutoML puede ser eficiente y argumentando a favor de un énfasis en AutoML multi-objetivo para tener en cuenta también las diversas dimensiones de la fiabilidad (como la equidad algorítmica, la robustez y la calibración de la incertidumbre). Por último, llevando al extremo la idea del metaaprendizaje, profundizaré en un enfoque novedoso que aprende un algoritmo de clasificación completo para pequeños conjuntos de datos tabulares que alcanza un nuevo estado de la técnica a costa de una única pasada hacia delante.
Ponente: Frank Hutter es catedrático de Aprendizaje Automático en la Universidad de Friburgo (Alemania). Es doctor por la Universidad de Columbia Británica (UBC, 2009), por la que recibió el premio CAIAC 2010 a la mejor tesis doctoral en IA de Canadá. También ha ganado varios premios al mejor artículo y premios en concursos internacionales de ML. Es miembro de ELLIS y EurAI, director de la unidad ELLIS de Friburgo y beneficiario de 3 subvenciones del ERC. Frank es conocido sobre todo por su investigación sobre aprendizaje automático de máquinas (AutoML), que incluye la búsqueda de arquitecturas neuronales, la optimización eficiente de hiperparámetros y el metaaprendizaje. Es coautor del primer libro sobre AutoML y de las destacadas herramientas AutoML Auto-WEKA, Auto-sklearn y Auto-PyTorch, ganó los dos primeros desafíos AutoML con su equipo, es codocente del primer MOOC sobre AutoML, coorganizó 15 talleres relacionados con AutoML en ICML, NeurIPS e ICLR, y fundó la conferencia AutoML como presidente general en 2022.
Grabación: Aprendizaje profundo 2.0: Hacia una IA que construya y mejore la IA
Modelos basados en datos para una asistencia sanitaria eficaz
Fecha: 26/09/2023
Resumen: Esta charla cubrirá varios proyectos en los que combinamos Machine Learning y Optimización para tratar a más pacientes, utilizando la programación impulsada por la productividad para reducir los retrasos en contextos dinámicos /online y para reducir el tiempo de tratamiento para la atención oncológica. Cubriremos proyectos de colaboración con servicios de urgencias, radiología, radio-oncología y servicios de ambulancia.
Ponente: Louis-Martin Rousseau es profesor en el Departamento de Matemáticas e Ingeniería Industrial de la École Polytechnique de Montréal. Desde 2016, ocupa la Cátedra de Investigación de Canadá en Analítica y Logística Sanitarias, que estudia problemas complejos e interconectados en los servicios de atención domiciliaria, el tratamiento del cáncer y la logística hospitalaria. Louis-Martin también fue el fundador y Director Científico de Planora antes de su adquisición por JDA en 2012, donde se desempeñó como asesor científico después. Con estudiantes y colegas, ha cofundado recientemente Gray Oncology Solution (www.gray-os.com), que propone al sector sanitario una solución SaaS de programación de pacientes.
Grabación: Modelos basados en datos para una asistencia sanitaria eficaz
Aprendizaje automático en medicina: Predicción de sepsis y de resistencia a los antibióticos
Fecha: 13/06/2023
Resumen: La sepsis es una de las principales causas de mortalidad en las unidades de cuidados intensivos de todo el mundo. Si se reconoce a tiempo, a menudo puede tratarse con éxito, pero la predicción precoz de la sepsis es una tarea extremadamente difícil en la práctica clínica. El acervo de datos de las unidades de cuidados intensivos, cada vez más disponible para la investigación, permite ahora estudiar este problema de predicción de la sepsis utilizando enfoques de aprendizaje automático y minería de datos. En esta charla, describiré nuestros esfuerzos para el reconocimiento precoz de la sepsis basado en datos y el problema relacionado de la predicción de la resistencia a los antibióticos.
Ponente: Karsten Borgwardt es director del Departamento de Aprendizaje Automático y Biología de Sistemas del Instituto Max Planck de Bioquímica de Martinsried (Alemania) desde febrero de 2023. Su trabajo ha sido galardonado con varios premios, entre ellos el Premio Krupp para Jóvenes Profesores, dotado con un millón de euros en 2013, y una beca Starting Grant 2014 del programa ERC-backup de la Fundación Nacional Suiza para la Ciencia. El profesor Borgwardt ha dirigido grandes consorcios de investigación nacionales e internacionales, como el «Estudio personalizado suizo sobre la sepsis» (2018-2023) y el posterior flujo nacional de datos sobre los resultados relacionados con la infección en las UCI suizas (2022-2023), y dos redes de formación innovadoras Marie Curie sobre aprendizaje automático en medicina (2013-2016 y 2019-2022).
Grabación: Aprendizaje automático en medicina: Predicción de sepsis y de resistencia a los antibióticos
Modelos aleatorios multiescala de redes neuronales profundas
Fecha: 16/05/2023
Resumen: Las redes neuronales profundas tienen aplicaciones espectaculares, pero siguen siendo en su mayor parte un misterio matemático. Una cuestión pendiente es entender cómo sortean la maldición de la dimensionalidad para generar o clasificar datos. Inspirándose en el grupo de renormalización de la física, explicamos cómo las redes profundas pueden separar fenómenos que aparecen a diferentes escalas y capturar interacciones de escala. Proporciona modelos de alta dimensionalidad, que se aproximan a la distribución de probabilidad de campos físicos complejos, como turbulencias o imágenes estructuradas. Para la clasificación, el aprendizaje se asemeja a un problema de detección comprimida, en el que las estructuras discriminatorias de baja dimensión se identifican con proyecciones aleatorias. Introducimos un modelo de características aleatorias multiescala de redes profundas para clasificación, que se valida numéricamente.
Ponente: Stéphane Mallat fue catedrático de informática en la Universidad de Nueva York hasta 1994, y después en la Escuela Politécnica de París y Jefe de Departamento. De 2001 a 2007 fue cofundador y consejero delegado de una empresa emergente de semiconductores. Desde 2017, ocupa la cátedra de «Ciencias de los datos» en el Collège de France. Es miembro de la Academia Francesa de Ciencias, de la Academia de Tecnologías y miembro extranjero de la Academia Nacional de Ingeniería de Estados Unidos. Los intereses de investigación de Stéphane Mallat incluyen el aprendizaje automático, el procesamiento de señales y el análisis armónico. Desarrolló la teoría y los algoritmos de ondículas multirresolución en el origen de la norma de compresión JPEG-2000, y representaciones de señales dispersas en diccionarios mediante búsquedas de coincidencias. Actualmente trabaja en modelos matemáticos de redes neuronales profundas, para análisis de datos y física.
Grabación: Modelos aleatorios multiescala de redes neuronales profundas
Aprendizaje geométrico profundo: Cuadrículas, grafos, grupos, geodésicas y gálibos
Fecha: 28/03/2023
Resumen:
La última década ha sido testigo de una revolución experimental en la ciencia de datos y el aprendizaje automático, personificada por los métodos de aprendizaje profundo. De hecho, muchas tareas de aprendizaje de alta dimensión que antes se creían inalcanzables -como la visión por ordenador, jugar al Go o el plegamiento de proteínas- son de hecho factibles con una escala computacional adecuada. Sorprendentemente, la esencia del aprendizaje profundo se construye a partir de dos principios algorítmicos sencillos: en primer lugar, la noción de representación o aprendizaje de características, por la que características adaptadas, a menudo jerárquicas, capturan la noción adecuada de regularidad para cada tarea, y en segundo lugar, el aprendizaje mediante métodos locales de tipo gradiente-descenso, típicamente implementados como retropropagación.
Mientras que el aprendizaje de funciones genéricas en altas dimensiones es un problema de estimación maldito, la mayoría de las tareas de interés no son genéricas, y vienen con regularidades esenciales predefinidas que surgen de la baja dimensionalidad subyacente y de la estructura del mundo físico. Esta charla se ocupa de exponer estas regularidades a través de principios geométricos unificados que puedan aplicarse en un amplio espectro de aplicaciones.
Este esfuerzo de «unificación geométrica» en el espíritu del Programa de Erlangen de Felix Klein tiene un doble propósito: por un lado, proporciona un marco matemático común para estudiar las arquitecturas de redes neuronales más exitosas, como las CNNs, RNNs, GNNs y Transformers. Por otro lado, ofrece un procedimiento constructivo para incorporar conocimientos físicos previos a las arquitecturas neuronales y proporciona principios para construir futuras arquitecturas aún por inventar.
Ponente: Petar Veličković (ver https://petar-v.com/ para una breve biografía)
Grabación: Aprendizaje geométrico profundo: Cuadrículas, grafos, grupos, geodésicas y gálibos
Inteligencia sin modelos, basada en modelos e inteligencia general: Aprendizaje de representaciones para actuar y planificar
Fecha: 07/03/2023
Resumen: Durante los años 60 y 70, los investigadores de IA exploraron las intuiciones sobre la inteligencia escribiendo programas que mostraban un comportamiento inteligente. De este trabajo surgieron muchas buenas ideas, pero los programas escritos a mano no eran robustos ni generales. A partir de los años 80, la investigación se orientó cada vez más hacia el desarrollo de aprendices capaces de inferir comportamientos y funciones a partir de la experiencia y los datos, y de solucionadores capaces de abordar modelos bien definidos pero intratables como SAT, planificación clásica, redes bayesianas y POMDP. El enfoque de aprendizaje ha logrado un éxito considerable, pero da lugar a cajas negras que no tienen la flexibilidad, transparencia y generalidad de sus homólogos basados en modelos. Los enfoques basados en modelos, por su parte, requieren modelos y algoritmos escalables. Ambos tienen estrechos paralelismos con los Sistemas 1 y 2 de Daniel Kahneman: el primero, una mente intuitiva rápida, opaca e inflexible; el segundo, una mente analítica lenta, transparente y flexible. En esta charla, repasaré los aprendices y los solucionadores, y el reto de integrar sus capacidades de Sistema 1 y Sistema 2, centrándome después en nuestro trabajo reciente dirigido a salvar esta brecha en el contexto de la acción y la planificación, donde se utilizan enfoques de aprendizaje combinatorio y profundo para aprender modelos de acción generales, políticas generales y estructuras de submetas generales.
Ponente: Héctor Geffner es Profesor Alexander Humbolt en la Universidad RWTH de Aquisgrán (Alemania) y Profesor Invitado Wallenberg en la Universidad de Linköping (Suecia). Héctor creció en Buenos Aires y se doctoró en Informática en la UCLA en 1989. Posteriormente trabajó en el IBM T.J. Watson Research Center de Nueva York, en la Universidad Simón Bolívar de Caracas y en el Instituto Catalán de Investigación Avanzada (ICREA) y la Universidad Pompeu Fabra de Barcelona. Héctor imparte cursos sobre lógica, IA y cambio social y tecnológico, y actualmente investiga sobre el aprendizaje de representaciones para la actuación y la planificación como parte del proyecto del ERC RLeap 2020-2025.
DaSCI Seminars 2022
Con un poco de ayuda de la PNL: Mi lenguaje Aplicaciones tecnológicas con impacto en la sociedad
Fecha: 21/11/2022
Resumen: La charla presentará metodologías originales desarrolladas por el ponente, en las que se basan herramientas implementadas de Tecnología del Lenguaje que ya están teniendo impacto en los siguientes ámbitos de la sociedad: aprendizaje electrónico, traducción e interpretación y atención a personas con discapacidades lingüísticas. En la primera parte de la ponencia se presentará una metodología y una herramienta originales para generar pruebas de elección múltiple a partir de libros de texto electrónicos. La aplicación se basa en diversas técnicas de Procesamiento del Lenguaje Natural (PLN) que incluyen la extracción de términos, la computación semántica y la transformación de frases. La presentación incluirá una evaluación de la herramienta que demuestra que la generación de ítems de tests de elección múltiple con la ayuda de esta herramienta es casi cuatro veces más rápida que la construcción manual y la calidad de los ítems del test no se ve comprometida. Esta aplicación beneficia a los usuarios de e-learning (tanto profesores como alumnos) y es un ejemplo de cómo la PNL puede tener un impacto social positivo, en el que el ponente cree fervientemente. También se presentará brevemente la última versión del sistema basada en técnicas de aprendizaje profundo. La charla continuará con la discusión de otros dos proyectos originales recientes que también están relacionados con la aplicación de la PNL más allá del ámbito académico. En primer lugar, se presentará brevemente un proyecto cuyo objetivo es desarrollar herramientas de memoria de traducción de nueva generación para traductores y, en un futuro próximo, para intérpretes. Por último, se esbozarán una metodología y un sistema originales que ayudan a los usuarios con autismo a leer y comprender mejor los textos. La presentación terminará con un breve esbozo de los últimos (y próximos) temas de investigación (que serán) seguidos por el ponente y su visión sobre las futuras aplicaciones de la PNL.
Ponente: El Prof. Dr. Ruslan Mitkov trabaja desde principios de los años 80 en los campos del Procesamiento del Lenguaje Natural (PLN), la Lingüística Computacional, la Lingüística de Corpus, la Traducción Automática, la Tecnología de la Traducción y áreas afines. Aunque el profesor Mitkov es más conocido por sus contribuciones fundamentales en las áreas de la resolución de anáforas y la generación automática de pruebas de elección múltiple, su investigación, ampliamente citada (más de 270 publicaciones, incluidos 20 libros, 35 artículos de revistas y 40 capítulos de libros), también abarca temas como el aprendizaje profundo para la PNL, la traducción automática, la memoria de traducción y la tecnología de traducción en general, la extracción de términos bilingües, la identificación automática de cognados y falsos amigos, la generación de lenguaje natural, el resumen automático, el procesamiento del lenguaje asistido por ordenador, el centrado, la evaluación, la anotación de corpus, el estudio de universales de traducción basado en corpus impulsado por PNL, la simplificación de textos, la PNL para personas con trastornos del lenguaje y la fraseología computacional. Además, Ruslan Mitkov es conocido por su visión de la investigación basada en ideas innovadoras y su impulso a la producción de investigaciones que buscan mejorar la eficiencia laboral de distintas profesiones (por ejemplo, para profesores, traductores e intérpretes) o que buscan mejorar la calidad de vida (por ejemplo, para personas con discapacidades lingüísticas) y que tienen un impacto significativo más allá del mundo académico. Mitkov es autor de la monografía Anaphora resolution (Longman) y editor del manual de mayor éxito de Oxford University Press: The Oxford Handbook of Computational Linguistics, cuya segunda edición, sustancialmente revisada, se publicó en junio de 2022.
Grabación: With a little help from NLP: My Language Technology applications with impact on society
Aprendizaje fiable en redes heterogéneas
Fecha: 08/11/2022
Resumen: El aprendizaje federado plantea una serie de retos que van más allá de los escenarios tradicionales de aprendizaje distribuido. Además de ser precisos, los métodos federados deben escalar a redes de dispositivos potencialmente masivas y heterogéneas, y deben mostrar un comportamiento fiable, abordando preocupaciones pragmáticas relacionadas con cuestiones como la equidad, la solidez y la privacidad del usuario. En esta charla, hablaré de cómo la heterogeneidad se encuentra en el centro de las limitaciones del aprendizaje federado, no sólo afectando a la precisión de los modelos, sino también compitiendo con otras métricas críticas como la equidad, la robustez y la privacidad. Para abordar estas métricas, hablo de nuevos objetivos y algoritmos de aprendizaje federado escalables que tienen en cuenta y abordan rigurosamente las fuentes de heterogeneidad. Aunque nuestro trabajo se basa en la aplicación del aprendizaje federado, demuestro que muchas de las técnicas y compensaciones fundamentales van mucho más allá de este caso de uso.
Ponente: Tian Li es estudiante de quinto año de doctorado en el Departamento de Informática de la Universidad Carnegie Mellon y trabaja con Virginia Smith. Sus intereses de investigación se centran en la optimización distribuida, el aprendizaje automático a gran escala, el aprendizaje federado y los sistemas de datos intensivos. Antes de incorporarse a la CMU, se licenció en Informática y Economía por la Universidad de Pekín. Fue becaria de investigación en Google Research en 2022. Recibió el premio al mejor artículo en el ICLR Workshop on Security and Safety in Machine Learning Systems (2021), fue seleccionada como Rising Stars in Machine Learning por la UMD (2021), Rising Stars in Data Science por la UChicago (2022) y fue invitada a participar en el EECS Rising Stars Workshop (2022).
Grabación: Aprendizaje fiable en redes heterogéneas
Abordar el cambio climático con aprendizaje automático
Fecha: 18/10/2022
Resumen: El aprendizaje automático puede ser una poderosa herramienta para ayudar a la sociedad a reducir las emisiones de gases de efecto invernadero y adaptarse a un clima cambiante. En esta charla, exploraremos las oportunidades y los retos de la IA para el clima, desde la optimización de las redes eléctricas hasta el seguimiento del rendimiento de los cultivos, y cómo las innovaciones metodológicas en el aprendizaje automático pueden ser impulsadas por problemas de impacto relevantes para el clima.
Ponente: David Rolnick es Profesor Adjunto y Catedrático de IA del CIFAR de Canadá en la Facultad de Informática de la Universidad McGill y en el Instituto de IA Mila Quebec. Es cofundador y presidente de Climate Change AI y codirector científico de Sustainability in the Digital Age. El Dr. Rolnick se doctoró en Matemáticas Aplicadas en el MIT. Fue becario de investigación posdoctoral en Ciencias Matemáticas de la NSF, becario de investigación de posgrado de la NSF y becario Fulbright, y fue incluido en la lista de 2021 de «35 innovadores menores de 35 años» de MIT Technology Review.
Grabación: Abordar el cambio climático con aprendizaje automático
Resolución coevolutiva de problemas
Fecha: 04/10/2022
Resumen: La coevolución es un tema de investigación antiguo pero muy interesante en computación evolutiva. Esta charla presenta algunas de las aplicaciones de la coevolución en el aprendizaje y la optimización. En primer lugar, examinaremos un escenario clásico de aprendizaje coevolutivo cuando no se dispone de datos de entrenamiento. De hecho, tampoco se dispone de información sobre el profesor. A continuación, examinamos cómo podría utilizarse la coevolución para abordar la optimización global a gran escala en el escenario de optimización de caja negra. Por último, exploramos cómo podría aprovecharse la coevolución para diseñar automáticamente solucionadores generales para problemas difíciles de optimización combinatoria.
Ponente: Xin Yao es catedrático de Informática en la Southern University of Science and Technology (SUSTech) de Shenzhen (China) y profesor a tiempo parcial de Informática en la Universidad de Birmingham (Reino Unido). Es miembro del IEEE y fue conferenciante distinguido de la Sociedad de Inteligencia Computacional del IEEE (CIS). Fue presidente (2014-15) de la CIS del IEEE y redactor jefe (2003-08) de IEEE Transactions on Evolutionary Computation. Sus principales intereses de investigación incluyen la computación evolutiva, el aprendizaje por conjuntos y sus aplicaciones a la ingeniería de software. Sus trabajos de investigación ganaron el premio IEEE Donald G. Fink Prize Paper Award 2001; los premios IEEE Transactions on Evolutionary Computation Outstanding Paper Awards 2010, 2016 y 2017; el premio IEEE Transactions on Neural Networks Outstanding Paper Award 2011; y muchos otros premios al mejor trabajo en congresos. Recibió el premio Wolfson Research Merit Award de la Royal Society en 2012, el premio IEEE CIS Evolutionary Computation Pioneer Award en 2013 y el premio IEEE Frank Rosenblatt Award en 2020.
Grabación: Resolución coevolutiva de problemas
Inteligencia evolutiva para el análisis y la optimización de datos
Fecha: 13/07/2022
Resumen: La Inteligencia Evolutiva (IE) se ha utilizado ampliamente durante las dos últimas décadas y ha seguido siendo un tema muy investigado, especialmente para problemas complejos del mundo real. Las técnicas de IE son un subconjunto de la inteligencia artificial, pero difieren ligeramente de los métodos clásicos en el sentido de que la inteligencia de la IE procede de los sistemas biológicos o de la naturaleza en general. La eficacia de la IE se debe a su gran capacidad para imitar las mejores características de la naturaleza, que han evolucionado por selección natural a lo largo de millones de años. El tema central de esta presentación son las técnicas de IE y su aplicación a problemas complejos de ingeniería del mundo real. Sobre esta base, primero hablaré de un enfoque de aprendizaje automatizado llamado programación genética. A continuación, se presentará el aprendizaje evolutivo aplicado y, después, se mencionarán sus nuevos avances. Aquí se presentarán, en particular, algunos de mis estudios sobre análisis y modelización de big data mediante IE y programación genética. En segundo lugar, se presentará la optimización evolutiva, incluyendo aplicaciones clave en la optimización del diseño de sistemas de ingeniería complejos y no lineales. También se explicará cómo se han adoptado estos algoritmos a problemas de ingeniería y cómo se aprovechan en la práctica sus ventajas sobre los problemas de optimización clásicos. Se presentarán resultados de optimización de torres a gran escala y problemas multiobjetivo que demuestran la aplicabilidad de la IE. Por último, se explicarán las heurísticas adaptables con EI que pueden mejorar significativamente los resultados de la optimización.
Ponente: Amir H. Gandomi es catedrático de Ciencia de Datos y becario ARC DECRA en la Facultad de Ingeniería y Tecnología de la Información de la Universidad Tecnológica de Sídney. Antes de incorporarse a la UTS, fue profesor adjunto en el Stevens Institute of Technology (EE.UU.) e investigador distinguido en el centro BEACON de la Michigan State University (EE.UU.). El profesor Gandomi ha publicado más de trescientos artículos en revistas y 12 libros que, en conjunto, han sido citados más de 30.000 veces (índice H = 79). Ha sido nombrado una de las mentes científicas más influyentes y Highly Cited Researcher (1% de publicaciones y 0,1% de investigadores más citados) durante cinco años consecutivos, de 2017 a 2021. También ocupa el puesto 17 en la bibliografía GP entre más de 12.000 investigadores. Ha recibido múltiples premios prestigiosos por su excelencia e impacto en la investigación, como el Premio Walter L. Huber 2022, que se conoce como el premio de investigación a mitad de carrera de más alto nivel en todas las áreas de la ingeniería civil. Ha sido editor asociado, editor y editor invitado en varias revistas prestigiosas como AE de IEEE TBD e IEEE IoTJ. El profesor Gandomi participa activamente en conferencias magistrales y charlas invitadas. Sus intereses de investigación se centran en la optimización global y el análisis de (grandes) datos, en particular mediante el aprendizaje automático y los cálculos evolutivos.
Grabación: Inteligencia evolutiva para el análisis y la optimización de datos
Investigación sobre conducción autónoma en el CVC/UAB
Fecha: 06/07/2022
Resumen: El desarrollo de vehículos autónomos es un reto complejo. Implica entrenar y probar a los conductores de IA utilizando datos supervisados recogidos en una diversidad de episodios de conducción. Podríamos decir que los datos son el motor de la conducción autónoma, especialmente en la era del aprendizaje profundo. En este contexto, la charla se centra en los esfuerzos realizados en el CVC para minimizar los esfuerzos de etiquetado de datos. Esto incluye el uso de datos simulados para apoyar el entrenamiento de modelos visuales, el desarrollo de procedimientos de autoetiquetado, así como la exploración de paradigmas no estándar para la conducción autónoma, como la conducción de extremo a extremo mediante el aprendizaje por imitación.
Ponente: Antonio M. López tiene una larga trayectoria investigando en la intersección de la visión por ordenador, la simulación, el aprendizaje automático, la asistencia al conductor y la conducción autónoma. Antonio ha estado muy involucrado en la creación del conjunto de datos SYNTHIA y el simulador de código abierto CARLA, ambos para democratizar la investigación sobre conducción autónoma. Colabora activamente con socios de la industria para llevar las técnicas más avanzadas al campo de la conducción autónoma.
Grabación: Investigación sobre conducción autónoma en el CVC/UAB
Neurosymbolic Computing for Accountability in AI
Fecha: 11/05/2022
Resumen: A pesar de haber cosechado muchos éxitos, el enfoque de aprendizaje profundo de la IA ha sido criticado por ser una «caja negra»: las decisiones tomadas por sistemas de aprendizaje tan grandes y complejos son difíciles de explicar o analizar. Si el sistema comete un error en una situación crítica, las consecuencias pueden ser graves. El uso de sistemas de caja negra tiene implicaciones evidentes para la transparencia, pero también para la equidad y, en última instancia, para la confianza en la IA actual. A los desarrolladores de sistemas también les gustaría aprender de los errores del sistema para poder corregirlos. El área de la IA explicable (XAI) ha tratado de abrir la caja negra proporcionando explicaciones para los grandes sistemas de IA, principalmente mediante el uso de técnicas de visualización y estudios de usuarios que tratan de asociar las decisiones tomadas por el sistema con características conocidas del modelo de aprendizaje profundo. En esta charla, argumentaré que XAI necesita extracción de conocimiento y una medida objetiva de fidelidad como prerrequisito para la visualización y los estudios de usuario. Como parte de un enfoque neurosimbólico, la extracción de conocimiento crea un puente entre el aprendizaje profundo subsimbólico y la IA simbólica basada en la lógica con una semántica precisa. Ejemplificaré cómo se puede utilizar la extracción de conocimiento en el análisis de imágenes de rayos X de tórax como parte de un proyecto de colaboración con Fujitsu Research para encontrar y corregir errores en la clasificación de imágenes. Concluiré argumentando que la extracción de conocimiento es una herramienta importante, pero es sólo uno de los muchos elementos necesarios para abordar la equidad y la responsabilidad en la IA.
Ponente: Artur Garcez es Catedrático de Informática y Director del Data Science Institute de la City University de Londres. Es doctor en Informática (2000) por el Imperial College de Londres. Es miembro de la British Computer Society (FBCS) y presidente del comité directivo de la Neural-Symbolic Learning and Reasoning Association. Es coautor de dos libros: Neural-Symbolic Cognitive Reasoning, 2009, y Neural-Symbolic Learning Systems, 2002. Sus investigaciones han dado lugar a publicaciones en las revistas Behavioral & Brain Sciences, Theoretical Computer Science, Neural Computation, Machine Learning, Journal of Logic and Computation, IEEE Transactions on Neural Networks, Journal of Applied Logic, Artificial Intelligence y Studia Logica, así como en las principales conferencias sobre IA y computación neuronal AAAI, NeurIPS, IJCAI, IJCNN, AAMAS y ECAI. El profesor Garcez ocupa cargos editoriales en varias revistas científicas en los campos de la lógica computacional y la inteligencia artificial, y ha sido miembro del comité de programa de varias conferencias, como IJCAI, IJCNN, NeurIPS y AAAI.
The Modern Mathematics of Deep Learning
Fecha: 05/04/2022
Resumen: A pesar del extraordinario éxito de las redes neuronales profundas en aplicaciones del mundo real, que van desde la ciencia a la vida pública, la mayor parte de la investigación relacionada está impulsada empíricamente y aún falta una base matemática completa. Al mismo tiempo, estos métodos ya han demostrado su impresionante potencial en áreas de investigación matemática como las ciencias de la imagen, los problemas inversos o el análisis numérico de ecuaciones diferenciales parciales, a veces superando con creces los enfoques matemáticos clásicos para determinadas clases de problemas. El objetivo de esta conferencia es ofrecer, en primer lugar, una introducción a esta nueva y vibrante área de investigación. A continuación, examinaremos los avances recientes en dos direcciones, a saber, el desarrollo de una base matemática del aprendizaje profundo y la introducción de nuevos enfoques basados en el aprendizaje profundo para resolver problemas matemáticos.
Ponente: Gitta Kutyniok (https://www.ai.math.lmu.de/kutyniok) es actualmente titular de la Cátedra Bávara de AI de Fundamentos Matemáticos de la Inteligencia Artificial en la Ludwig-Maximilians Universität München. Es licenciada en Matemáticas e Informática y doctora por la Universidad de Paderborn (Alemania), y obtuvo su Habilitación en Matemáticas en 2006 en la Universidad Justus-Liebig de Giessen. Entre 2001 y 2008 ocupó puestos de profesora visitante en varias instituciones estadounidenses, como las Universidades de Princeton, Stanford, Yale, Georgia y Washington, y en 2014 fue Nachdiplomslecturer en la ETH de Zúrich. En 2008, se convirtió en profesora titular de matemáticas en la Universität Osnabrück, y se trasladó a Berlín tres años más tarde, donde ocupó una Cátedra Einstein en el Instituto de Matemáticas de la Technische Universität Berlin y un nombramiento de cortesía en el Departamento de Ciencias de la Computación e Ingeniería hasta 2020. Además, Gitta Kutyniok es profesora adjunta de Aprendizaje Automático en la Universidad de Tromso desde 2019.
Neuroevolution: A Synergy of Evolution and Learning
Fecha: 22/03/2022
Resumen: Los pesos y topologías de las redes neuronales evolucionaron originalmente para resolver tareas en las que no se dispone de gradientes. Recientemente, también se ha convertido en una técnica útil para el metalearning de arquitecturas de redes de aprendizaje profundo. Sin embargo, la neuroevolución es más potente cuando utiliza las sinergias de la evolución y el aprendizaje. En esta charla repasaré varios ejemplos de tales sinergias: funciones de pérdida evolutivas, funciones de activación, optimización de sustitutos y soluciones diseñadas por humanos. Demostraré estas sinergias en el reconocimiento de imágenes, los juegos y la optimización de políticas contra pandemias, y señalaré oportunidades de trabajo para el futuro.
Ponente: Risto Miikkulainen es profesor de informática en la Universidad de Texas en Austin y vicepresidente asociado de IA evolutiva en Cognizant. Recibió un M.S. en Ingeniería de la Universidad Tecnológica de Helsinki (ahora Universidad Aalto) en 1986, y un Ph.D. en Ciencias de la Computación de UCLA en 1990. Su investigación actual se enfoca en métodos y aplicaciones de neuroevolución, así como modelos de redes neuronales de procesamiento de lenguaje natural y visión; es autor de más de 450 artículos en estas áreas de investigación. En Cognizant, está ampliando estos enfoques a problemas del mundo real. Risto es miembro del IEEE; su trabajo sobre neuroevolución ha sido reconocido recientemente con el Premio Pionero en Computación Evolutiva IEEE CIS, el Premio Gabor de la Sociedad Internacional de Redes Neuronales y el Premio al Artículo Destacado de la Década de la Sociedad Internacional para la Vida Artificial.
Trustable autonomy: creating interfaces between human and robot societies
Fecha: 26/01/2022
Resumen: Robotic systems are starting to revolutionize many applications, from transportation to health care, assisted by technological advancements, such as cloud computing, novel hardware design, and novel manufacturing techniques. However, several of the characteristics that make robots ideal for certain future applications such as autonomy, self-learning, knowledge sharing, can also raise concerns in the evolution of the technology from academic institutions to the public sphere. Blockchain, an emerging technology originated in the digital currency field, is starting to show great potential to make robotic operations more secure, autonomous, flexible, and even profitable. Therefore, bridging the gap between purely scientific domains and real-world applications. This talk seeks to move beyond the classical view of robotic systems to advance our understanding about the possibilities and limitations of combining state-of-the art robotic systems with blockchain technology.
Ponente: Eduardo Castello experience and interests comprise robotics, blockchain technology, and complex systems. Eduardo was a Marie Curie Fellow at the MIT Media Lab where he worked to explore the combination of distributed robotic systems and blockchain technology. His work focuses on implementing new security, behavior, and business models for distributed robotics by using novel cryptographic methods. Eduardo received his Bsc.(Hons) intelligent systems from University of Portsmouth (UK) and his M. Eng and Ph.D degrees in robotics engineering from Osaka University (Japan). During his graduate studies, Eduardo’s research focused on swarm robotics and how to achieve cooperative and self-sustaining groups of robots.
DaSCI Seminars 2021
If all you have is a hammer, everything looks like a nail
Fecha: 1/12/2021
Resumen: In this talk, I’ll focus on some recent advances in privacy-preserving NLP. In particular, we will look at the differential privacy paradigm and its applications in NLP, namely by using differentially-private training of neural networks. Although the training framework is very general, does it really fit everything we typically do in NLP?
Ponente: Dr. Habernal is leading an independent research group «Trustworthy Human Language Technologies» at the Department of Computer Science, Technical University of Darmstadt, Germany. His current research areas include privacy-preserving NLP, legal argument mining, and explainable and trustworthy models. His research track spans argument mining and computational argumentation, crowdsourcing, or serious games, among others. More info at www.trusthlt.org.
Redes neuronales artificiales basadas en grafos
Ponente: Bryan Perozzi es un científico de investigación en el grupo de algoritmos y optimización de Google Research, donde analiza habitualmente algunos de los gráficos más grandes (y quizás más interesantes) del mundo. La investigación de Bryan se centra en el desarrollo de técnicas para el aprendizaje de representaciones expresivas de datos relacionales con redes neuronales. Estos algoritmos escalables son útiles para tareas de predicción (clasificación/regresión), descubrimiento de patrones y detección de anomalías en grandes conjuntos de datos en red. Bryan es autor de más de 30 artículos revisados por pares en las principales conferencias sobre aprendizaje automático y minería de datos (como NeurIPS, ICML, KDD y WWW). Su trabajo de doctorado sobre el aprendizaje de representaciones de redes fue galardonado con el prestigioso premio SIGKDD Dissertation Award. Bryan recibió su doctorado en Ciencias de la Computación de la Universidad de Stony Brook en 2016, y su maestría de la Universidad Johns Hopkins en 2011.
Fecha: 17/05/2021
Resumen: ¿Cómo pueden las redes neuronales modelar mejor los datos que no tienen una estructura fija? En esta charla hablaré de las redes neuronales de grafos (GNN), un área muy activa de la investigación actual en el aprendizaje automático que pretende responder a esta interesante (y práctica) pregunta. Después de repasar los fundamentos de las GNN, hablaré de algunos retos que plantea la aplicación de estos métodos en la industria, y de algunos de los métodos que hemos desarrollado para hacer frente a estos retos.
Grabación: Redes neuronales basadas en grafos
Detectar las «Fake News» antes de que se escriban, la alfabetización mediática y cómo aplanar la curva de la infodemia COVID-19
Ponente: El Dr. Preslav Nakov es científico principal en el Instituto de Investigación Informática de Qatar (QCRI), HBKU , donde dirige el megaproyecto Tanbih (desarrollado en colaboración con el MIT ), cuyo objetivo es limitar el efecto de las «noticias falsas», la propaganda y la parcialidad de los medios de comunicación haciendo que los usuarios sean conscientes de lo que leen, promoviendo así la alfabetización mediática y el pensamiento crítico. Se doctoró en Ciencias de la Computación en la Universidad de California en Berkeley, con el apoyo de una beca Fulbright. El Dr. Preslav Nakov es presidente de ACL SIGLEX , secretario de ACL SIGSLAV y miembro del consejo asesor de EACL. También es miembro del consejo editorial de varias revistas, como Computational Linguistics, TACL , CS&L, NLE , AI Communications y Frontiers in AI. Es autor de un libro de Morgan & Claypool sobre Relaciones Semánticas entre Nominales y de dos libros sobre algoritmos informáticos. Ha publicado más de 250 artículos de investigación y ha sido nombrado entre el 2% de los más citados del mundo en la categoría de logros profesionales, dentro de una lista global elaborada por la Universidad de Stanford. Recibió el premio al mejor artículo largo en el CIKM ‘2020, el premio al mejor artículo de demostración (mención honorífica) en el ACL ‘2020, el premio al mejor artículo de tarea (mención honorífica) en el SemEval’2020, el premio al mejor póster en el SocInfo’2019 y el premio al joven investigador en el RANLP ‘2011. También fue el primero en recibir el premio John Atanasoff del Presidente de Bulgaria, que lleva el nombre del inventor del primer ordenador digital electrónico automático. La investigación del Dr. Nakov fue presentada en más de 100 medios de comunicación, como Forbes, Boston Globe, Aljazeera, DefenseOne, Business Insider, MIT Technology Review, Science Daily, Popular Science, Fast Company, The Register, WIRED , y Engadget, entre otros.
Fecha: 19/04/2021
Resumen: Ante la reciente proliferación de la desinformación en la red, ha crecido el interés de los investigadores por desmentir automáticamente los rumores, las afirmaciones falsas y las «fake news». Hasta ahora se han puesto en marcha varias iniciativas de comprobación de hechos, tanto manuales como automáticas, pero toda la cuestión sigue estando en entredicho: para cuando una afirmación se comprueba finalmente, puede haber llegado a millones de usuarios, y el daño causado difícilmente puede deshacerse.
Una opción posiblemente más prometedora es centrarse en el análisis de medios de comunicación enteros, lo que puede hacerse con antelación; entonces, podríamos comprobar los hechos de las noticias incluso antes de que se escriban: comprobando la fiabilidad del medio que las ha publicado (que es lo que hacen los periodistas en realidad). Mostraremos cómo lo hacemos en el agregador de noticias Tanbih (http://www.tanbih.org/), cuyo objetivo es limitar el impacto de las «noticias falsas», la propaganda y la parcialidad de los medios de comunicación haciendo que los usuarios sean conscientes de lo que están leyendo, promoviendo así la alfabetización mediática y el pensamiento crítico, que son posiblemente la mejor manera de hacer frente a la desinformación a largo plazo. En particular, desarrollamos perfiles de medios que muestran la factualidad general de la información, el grado de contenido propagandístico, el hiperpartidismo, la ideología política principal, el marco general de la información, la postura con respecto a diversas afirmaciones y temas, así como el alcance de la audiencia y el sesgo de la audiencia en los medios sociales.
Otra observación importante es que el término «noticias falsas» induce a la gente a centrarse exclusivamente en los hechos y a ignorar la otra mitad del problema: la posible intención maliciosa. Así, detectamos el uso de técnicas específicas de propaganda en el texto, por ejemplo, la apelación a las emociones, el miedo, los prejuicios, las falacias lógicas, etc. Mostraremos cómo hacemos esto en el sistema Prta (https://www.tanbih.org/prta), otra herramienta de alfabetización mediática, que obtuvo el premio a la mejor demostración (mención de honor) en ACL -2020; una tarea compartida asociada obtuvo el premio a la mejor tarea (mención de honor) en SemEval-2020.
Por último, en el momento de COVID-19, el problema de la desinformación en línea se elevó a un nivel completamente nuevo como la primera infodemia global. Mientras que la lucha contra esta infodemia se piensa típicamente en términos de factualidad, el problema es mucho más amplio, ya que el contenido malicioso incluye no sólo las «fake news», los rumores y las teorías conspirativas, sino también la promoción de curas falsas, el pánico, el racismo, la xenofobia y la desconfianza en las autoridades, entre otros. Por ello, defendemos la necesidad de un enfoque holístico que combine las perspectivas de los periodistas, los verificadores de hechos, los responsables políticos, las plataformas de medios sociales y la sociedad en su conjunto, y presentamos nuestra reciente investigación en esa dirección (https://mt.qcri.org/covid19disinformationdetector/).
Aprendizaje Profundo Eficiente
Ponente: Marco Pedersoli es profesor adjunto en la ETS de Montreal. Obtuvo su doctorado en ciencias de la computación en 2012 en la Universidad Autónoma de Barcelona y el Centro de Visión por Computador de Barcelona. Luego, fue becario postdoctoral en visión por computador y aprendizaje automático en KU Leuven con el Prof. Tuytelaars y más tarde en INRIA Grenoble con los doctores Verbeek y Schmid. En la ETS de Montreal es miembro de LIVIA y copreside una cátedra industrial sobre redes neuronales integradas para el control de edificios conectados. Su investigación se aplica principalmente al reconocimiento visual, la interpretación y la comprensión automáticas de imágenes y vídeos. Su objetivo específico es reducir la complejidad y la cantidad de anotaciones necesarias para los algoritmos de aprendizaje profundo, como las redes neuronales convolucionales y recurrentes. El profesor Pedersoli es autor de más de 40 publicaciones en conferencias y revistas internacionales de primer nivel sobre visión por ordenador y aprendizaje automático.
Fecha: 12/04/2021
Resumen: En los últimos 10 años los modelos de aprendizaje profundo (DL) han mostrado grandes avances en muchos campos diferentes, desde la visión por ordenador hasta el procesamiento del lenguaje natural. Sin embargo, los métodos de DL requieren grandes recursos computacionales (es decir, GPUs o TPUs) y conjuntos de datos muy grandes, lo que también hace que la fase de entrenamiento sea muy larga y laboriosa. Por lo tanto, existe una fuerte necesidad de reducir el coste computacional de los métodos de DL tanto en el entrenamiento como en el desarrollo. En esta charla, presentaré las líneas más comunes de enfoques utilizados para reducir los requisitos de los métodos de AD en términos de memoria y computación tanto para el entrenamiento como para el desarrollo, y mostraré cómo una reducción de la huella del modelo no siempre produce un aumento de velocidad correspondiente. Por último, presentaré algunos resultados recientes que sugieren que los modelos de DL de gran tamaño son importantes sobre todo para facilitar el entrenamiento del modelo, y cuando éste termina, podemos desplegar un modelo mucho más pequeño y rápido sin apenas pérdida de precisión.
Grabación: Efficient Deep Learning
Haciendo Data Science sin escribir código
Ponente: Victoriano Izquierdo (1990) es un ingeniero informático granadino, cofundador y CEO de Graphext, una empresa que construye una herramienta de análisis avanzado de datos que aplica las últimas técnicas en ciencia de datos e inteligencia artificial para ayudar a pequeñas y grandes empresas a resolver problemas complejos usando datos.
Fecha: 15/02/2021
Resumen: Haciendo Data Science sin escribir código
Grabación: Haciendo Data Science sin escribir código
Variational Autoencoders for Audio, Visual and Audio-Visual Learning
Ponente: Xavier Alameda-Pineda es Investigador Científico (titular) en Inria, en el Grupo de Percepción. Obtuvo el Máster (equivalente) en Matemáticas en 2008, en Telecomunicaciones en 2009 por BarcelonaTech y en Informática en 2010 por la Université Grenoble-Alpes (UGA). A continuación, trabajó para obtener su doctorado en Matemáticas y Ciencias de la Computación, y lo obtuvo en 2013, en la UGA. Después de un período de dos años de postdoctorado en el Grupo de Comprensión Humana Multimodal, en la Universidad de Trento, fue nombrado con su puesto actual. Xavier es un miembro activo de SIGMM, y un miembro senior de IEEE y un miembro de ELLIS. Es copresidente de la cátedra «Percepción e interacción audiovisual de las máquinas para los robots de compañía» del Instituto Multidisciplinar de Inteligencia Artificial. Xavier es el coordinador del proyecto H2020 SPRING: Socially Pertinent Robots in Gerontological Healthcare. Los intereses de investigación de Xavier se centran en combinar el aprendizaje automático, la visión por ordenador y el procesamiento de audio para el análisis de escenas y comportamientos y la interacción entre humanos y robots. Más información en xavirema.eu
Fecha: 01/02/2021
Resumen: Desde su introducción, los autocodificadores variacionales (VAE) han demostrado un gran rendimiento en aplicaciones clave de representación de características sin supervisión, concretamente en la representación visual y auditiva. En este seminario se presentará la metodología global de los autocodificadores variacionales, junto con aplicaciones en el aprendizaje con datos de audio y visuales. Se pondrá especial énfasis en discutir el uso de VAE para el aprendizaje audiovisual, resaltando su interés para la tarea de mejora del habla audiovisual.
Grabación: Variational Autoencoders for Audio, Visual and Audio-Visual Learning
DaSCI Seminars 2020
Image and Video Generation using Deep Learning
Ponente: Stéphane Lathuilière es profesor asociado en Telecom París, Francia, en el equipo multimedia. Hasta octubre de 2019, fue becario de postdoctorado en la Universidad de Trento (Italia) en el Grupo de Multimedia y Comprensión Humana, dirigido por el Prof. Nicu Sebe y la Prof. Elisa Ricci. Recibió el título de Master en Matemáticas Aplicadas e Informática de la ENSIMAG, Instituto de Tecnología de Grenoble (Grenoble INP), Francia, en 2014. Realizó su tesis doctoral en el Instituto Internacional de Investigación MICA (Hanoi, Vietnam). Trabajó para obtener su doctorado en matemáticas e informática en el Equipo de Percepción de Inria bajo la supervisión del Dr. Radu Horaud, y lo obtuvo en la Universidad de Grenoble Alpes (Francia) en 2018. Sus intereses de investigación abarcan el aprendizaje de máquinas para problemas de visión por ordenador (por ejemplo, adaptación de dominios, aprendizaje continuo) y modelos profundos para la generación de imágenes y vídeos. Publica regularmente artículos en las conferencias más prestigiosas sobre visión por computador (CVPR, ICCV, ECCV, NeurIPS) y en las revistas más importantes (IEEE TPAMI).
Fecha: 14/12/2020
Resumen (en inglés): Generating realistic images and videos has countless applications in different areas, ranging from photography technologies to e-commerce business. Recently, deep generative approaches have emerged as effective techniques for generation tasks. In this talk, we will first present the problem of pose-guided person image generation. Specifically, given an image of a person and a target pose, a new image of that person in the target pose is synthesized. We will show that important body-pose changes affect generation quality and that specific feature map deformations lead to better images. Then, we will present our recent framework for video generation. More precisely, our approach generates videos where an object in a source image is animated according to the motion of a driving video. In this task, we employ a motion representation based on keypoints that are learned in a self-supervised fashion. Therefore, our approach can animate any arbitrary object without using annotation or prior information about the specific object to animate.
Image and Video Generation using Deep Learning -Recording (in English)
Cinco fuentes de sesgos y cuestiones éticas en el PNL, y qué hacer con ellas
Ponente: Dirk Hovy es profesor asociado de informática en la Universidad Bocconi de Milán, Italia. Antes de eso, fue profesor y postdoctorado en Copenhague, obtuvo un doctorado en la USC, y un máster en lingüística en Alemania. Está interesado en la interacción entre el lenguaje, la sociedad y el aprendizaje automático, o lo que el lenguaje puede decirnos sobre la sociedad, y lo que los ordenadores pueden decirnos sobre el lenguaje. Es autor de más de 60 artículos sobre estos temas, incluyendo 3 premios al mejor artículo. Ha organizado una conferencia y varios talleres (sobre lenguaje abusivo, ética en PNL y ciencias sociales computacionales). Fuera del trabajo, Dirk disfruta cocinando, corriendo y haciendo trabajos en cuero. Para obtener información actualizada, véase http://www.dirkhovy.com.
Fecha: 11/01/2021
Resumen: Nunca antes fue tan fácil escribir un sistema de PNL tan poderoso, nunca antes tuvo un impacto tan potencial. Sin embargo, estos sistemas se utilizan ahora cada vez más en aplicaciones para las que no estaban destinados, por personas que los tratan como cajas negras intercambiables. Los resultados pueden ser simples caídas de rendimiento, pero también sesgos sistemáticos contra diversos grupos de usuarios
Cinco fuentes de sesgos y cuestiones éticas en la PNL, y qué hacer con ellas.
En esta charla, discutiré varios tipos de sesgos que afectan a los modelos de PNL (basados en Shah et al. 2020 y Hovy & Spruit, 2016), cuáles son sus fuentes y las posibles medidas para contrarrestarlos.
Five Sources of Biases and Ethical Issues in NLP, and What to Do about Them – Grabación
Aggregating Weak Annotations from Crowds
Ponente: Edwin Simpson, es profesor asociado en la Universidad de Bristol, donde trabaja en el procesamiento interactivo del lenguaje natural. Su investigación se centra en el aprendizaje a partir de datos escasos y poco fiables, incluida la retroalimentación de los usuarios, y adapta los enfoques bayesianos a temas como la argumentación, el resumen y el etiquetado de secuencias. Anteriormente, realizó un postdoctorado en la Universidad Técnica de Darmstadt, Alemania, y completó su doctorado en la Universidad de Oxford sobre los métodos bayesianos para agregar datos de origen colectivo.
Fecha: 09/11/2020
Resumen: Current machine learning methods are data hungry. Crowdsourcing is a common solution to acquiring annotated data at large scale for a modest price. However, the quality of the annotations is highly variable and annotators do not always agree on the correct label for each data point. This talk presents techniques for aggregating crowdsourced annotations using preference learning and classifier combination to estimate gold-standard rankings and labels, which can be used as training data for ML models. We apply approximate Bayesian approaches to handle noise, small amounts of data per annotator, and provide a basis for active learning. While these techniques are applicable to any kind of data, we demonstrate their effectiveness for natural language processing tasks.
Aggregating Weak Annotations from Crowds-Recordings (in English)
Aprendizaje por refuerzo robusto, escalable y eficiente
Ponente: Sergio Guadarrama es ingeniero senior de software en Google Brain, donde trabaja en el aprendizaje por refuerzo y redes neuronales. Su investigación se centra en el aprendizaje por refuerzo robusto, escalable y eficiente. Actualmente es el líder del proyecto TF-Agents y un desarrollador principal de TensorFlow (cocreador de TF-Slim). Antes de unirse a Google fue investigador en la Universidad de California, Berkeley, donde trabajó con el profesor Lotfi Zadeh y el profesor Trevor Darrell. Recibió su licenciatura y doctorado en la Universidad Politécnica de Madrid.
Fecha: 26/10/2020
Resumen: El aprendizaje por refuerzo (RL) es un tipo Machine learning donde el objetivo es aprender a resolver una tarea mediante interacciones con el entorno, maximizando el retorno esperado. A diferencia del aprendizaje supervisado, la solución requiere tomar múltiples decisiones de forma secuencial y el refuerzo se produce mediante recompensas. Los dos componentes principales son el entorno, que representa el problema a resolver, y el agente, que representa el algoritmo de aprendizaje.