DaSCI Seminars

Charlas de un investigador destacado que nos presenta los avances disruptivos en Inteligencia Artificial. Tienen una duración aproximada de 1 hora y 30 minutos (45 min. de exposición y 30 minutos para preguntas)
DaSCI Seminars 2023
Aprendizaje profundo 2.0: Hacia una IA que construya y mejore la IA
Fecha: 10/10/2023
Resumen: A lo largo de la historia de la IA, existe un patrón claro según el cual los elementos manuales de los métodos de IA acaban siendo sustituidos por otros de mejor rendimiento encontrados automáticamente; por ejemplo, el aprendizaje profundo (DL) sustituyó la ingeniería manual de características por representaciones aprendidas. El siguiente paso lógico en el aprendizaje de representaciones es también (meta-)aprender las mejores arquitecturas para estas representaciones, así como los mejores algoritmos e hiperparámetros para aprenderlas. En esta charla, discutiré varios trabajos con este objetivo en el área de AutoML, destacando que AutoML puede ser eficiente y argumentando a favor de un énfasis en AutoML multi-objetivo para tener en cuenta también las diversas dimensiones de la fiabilidad (como la equidad algorítmica, la robustez y la calibración de la incertidumbre). Por último, llevando al extremo la idea del metaaprendizaje, profundizaré en un enfoque novedoso que aprende un algoritmo de clasificación completo para pequeños conjuntos de datos tabulares que alcanza un nuevo estado de la técnica a costa de una única pasada hacia delante.
Ponente: Frank Hutter es catedrático de Aprendizaje Automático en la Universidad de Friburgo (Alemania). Es doctor por la Universidad de Columbia Británica (UBC, 2009), por la que recibió el premio CAIAC 2010 a la mejor tesis doctoral en IA de Canadá. También ha ganado varios premios al mejor artículo y premios en concursos internacionales de ML. Es miembro de ELLIS y EurAI, director de la unidad ELLIS de Friburgo y beneficiario de 3 subvenciones del ERC. Frank es conocido sobre todo por su investigación sobre aprendizaje automático de máquinas (AutoML), que incluye la búsqueda de arquitecturas neuronales, la optimización eficiente de hiperparámetros y el metaaprendizaje. Es coautor del primer libro sobre AutoML y de las destacadas herramientas AutoML Auto-WEKA, Auto-sklearn y Auto-PyTorch, ganó los dos primeros desafíos AutoML con su equipo, es codocente del primer MOOC sobre AutoML, coorganizó 15 talleres relacionados con AutoML en ICML, NeurIPS e ICLR, y fundó la conferencia AutoML como presidente general en 2022.
Modelos basados en datos para una asistencia sanitaria eficaz
Fecha: 26/09/2023
Resumen: Esta charla cubrirá varios proyectos en los que combinamos Machine Learning y Optimización para tratar a más pacientes, utilizando la programación impulsada por la productividad para reducir los retrasos en contextos dinámicos /online y para reducir el tiempo de tratamiento para la atención oncológica. Cubriremos proyectos de colaboración con servicios de urgencias, radiología, radio-oncología y servicios de ambulancia.
Ponente: Louis-Martin Rousseau es profesor en el Departamento de Matemáticas e Ingeniería Industrial de la École Polytechnique de Montréal. Desde 2016, ocupa la Cátedra de Investigación de Canadá en Analítica y Logística Sanitarias, que estudia problemas complejos e interconectados en los servicios de atención domiciliaria, el tratamiento del cáncer y la logística hospitalaria. Louis-Martin también fue el fundador y Director Científico de Planora antes de su adquisición por JDA en 2012, donde se desempeñó como asesor científico después. Con estudiantes y colegas, ha cofundado recientemente Gray Oncology Solution (www.gray-os.com), que propone al sector sanitario una solución SaaS de programación de pacientes.
Aprendizaje automático en medicina: Predicción de sepsis y de resistencia a los antibióticos
Fecha: 13/06/2023
Resumen: La sepsis es una de las principales causas de mortalidad en las unidades de cuidados intensivos de todo el mundo. Si se reconoce a tiempo, a menudo puede tratarse con éxito, pero la predicción precoz de la sepsis es una tarea extremadamente difícil en la práctica clínica. El acervo de datos de las unidades de cuidados intensivos, cada vez más disponible para la investigación, permite ahora estudiar este problema de predicción de la sepsis utilizando enfoques de aprendizaje automático y minería de datos. En esta charla, describiré nuestros esfuerzos para el reconocimiento precoz de la sepsis basado en datos y el problema relacionado de la predicción de la resistencia a los antibióticos.
Ponente: Karsten Borgwardt es director del Departamento de Aprendizaje Automático y Biología de Sistemas del Instituto Max Planck de Bioquímica de Martinsried (Alemania) desde febrero de 2023. Su trabajo ha sido galardonado con varios premios, entre ellos el Premio Krupp para Jóvenes Profesores, dotado con un millón de euros en 2013, y una beca Starting Grant 2014 del programa ERC-backup de la Fundación Nacional Suiza para la Ciencia. El profesor Borgwardt ha dirigido grandes consorcios de investigación nacionales e internacionales, como el «Estudio personalizado suizo sobre la sepsis» (2018-2023) y el posterior flujo nacional de datos sobre los resultados relacionados con la infección en las UCI suizas (2022-2023), y dos redes de formación innovadoras Marie Curie sobre aprendizaje automático en medicina (2013-2016 y 2019-2022).
Modelos aleatorios multiescala de redes neuronales profundas
Fecha: 16/05/2023
Resumen: Las redes neuronales profundas tienen aplicaciones espectaculares, pero siguen siendo en su mayor parte un misterio matemático. Una cuestión pendiente es entender cómo sortean la maldición de la dimensionalidad para generar o clasificar datos. Inspirándose en el grupo de renormalización de la física, explicamos cómo las redes profundas pueden separar fenómenos que aparecen a diferentes escalas y capturar interacciones de escala. Proporciona modelos de alta dimensionalidad, que se aproximan a la distribución de probabilidad de campos físicos complejos, como turbulencias o imágenes estructuradas. Para la clasificación, el aprendizaje se asemeja a un problema de detección comprimida, en el que las estructuras discriminatorias de baja dimensión se identifican con proyecciones aleatorias. Introducimos un modelo de características aleatorias multiescala de redes profundas para clasificación, que se valida numéricamente.
Ponente: Stéphane Mallat fue catedrático de informática en la Universidad de Nueva York hasta 1994, y después en la Escuela Politécnica de París y Jefe de Departamento. De 2001 a 2007 fue cofundador y consejero delegado de una empresa emergente de semiconductores. Desde 2017, ocupa la cátedra de «Ciencias de los datos» en el Collège de France. Es miembro de la Academia Francesa de Ciencias, de la Academia de Tecnologías y miembro extranjero de la Academia Nacional de Ingeniería de Estados Unidos. Los intereses de investigación de Stéphane Mallat incluyen el aprendizaje automático, el procesamiento de señales y el análisis armónico. Desarrolló la teoría y los algoritmos de ondículas multirresolución en el origen de la norma de compresión JPEG-2000, y representaciones de señales dispersas en diccionarios mediante búsquedas de coincidencias. Actualmente trabaja en modelos matemáticos de redes neuronales profundas, para análisis de datos y física.
Aprendizaje geométrico profundo: Cuadrículas, grafos, grupos, geodésicas y gálibos
Fecha: 28/03/2023
Resumen:
La última década ha sido testigo de una revolución experimental en la ciencia de datos y el aprendizaje automático, personificada por los métodos de aprendizaje profundo. De hecho, muchas tareas de aprendizaje de alta dimensión que antes se creían inalcanzables -como la visión por ordenador, jugar al Go o el plegamiento de proteínas- son de hecho factibles con una escala computacional adecuada. Sorprendentemente, la esencia del aprendizaje profundo se construye a partir de dos principios algorítmicos sencillos: en primer lugar, la noción de representación o aprendizaje de características, por la que características adaptadas, a menudo jerárquicas, capturan la noción adecuada de regularidad para cada tarea, y en segundo lugar, el aprendizaje mediante métodos locales de tipo gradiente-descenso, típicamente implementados como retropropagación.
Mientras que el aprendizaje de funciones genéricas en altas dimensiones es un problema de estimación maldito, la mayoría de las tareas de interés no son genéricas, y vienen con regularidades esenciales predefinidas que surgen de la baja dimensionalidad subyacente y de la estructura del mundo físico. Esta charla se ocupa de exponer estas regularidades a través de principios geométricos unificados que puedan aplicarse en un amplio espectro de aplicaciones.
Este esfuerzo de «unificación geométrica» en el espíritu del Programa de Erlangen de Felix Klein tiene un doble propósito: por un lado, proporciona un marco matemático común para estudiar las arquitecturas de redes neuronales más exitosas, como las CNNs, RNNs, GNNs y Transformers. Por otro lado, ofrece un procedimiento constructivo para incorporar conocimientos físicos previos a las arquitecturas neuronales y proporciona principios para construir futuras arquitecturas aún por inventar.
Ponente: Petar Veličković (ver https://petar-v.com/ para una breve biografía)
Inteligencia sin modelos, basada en modelos e inteligencia general: Aprendizaje de representaciones para actuar y planificar
Fecha: 07/03/2023
Resumen: Durante los años 60 y 70, los investigadores de IA exploraron las intuiciones sobre la inteligencia escribiendo programas que mostraban un comportamiento inteligente. De este trabajo surgieron muchas buenas ideas, pero los programas escritos a mano no eran robustos ni generales. A partir de los años 80, la investigación se orientó cada vez más hacia el desarrollo de aprendices capaces de inferir comportamientos y funciones a partir de la experiencia y los datos, y de solucionadores capaces de abordar modelos bien definidos pero intratables como SAT, planificación clásica, redes bayesianas y POMDP. El enfoque de aprendizaje ha logrado un éxito considerable, pero da lugar a cajas negras que no tienen la flexibilidad, transparencia y generalidad de sus homólogos basados en modelos. Los enfoques basados en modelos, por su parte, requieren modelos y algoritmos escalables. Ambos tienen estrechos paralelismos con los Sistemas 1 y 2 de Daniel Kahneman: el primero, una mente intuitiva rápida, opaca e inflexible; el segundo, una mente analítica lenta, transparente y flexible. En esta charla, repasaré los aprendices y los solucionadores, y el reto de integrar sus capacidades de Sistema 1 y Sistema 2, centrándome después en nuestro trabajo reciente dirigido a salvar esta brecha en el contexto de la acción y la planificación, donde se utilizan enfoques de aprendizaje combinatorio y profundo para aprender modelos de acción generales, políticas generales y estructuras de submetas generales.
Ponente: Héctor Geffner es Profesor Alexander Humbolt en la Universidad RWTH de Aquisgrán (Alemania) y Profesor Invitado Wallenberg en la Universidad de Linköping (Suecia). Héctor creció en Buenos Aires y se doctoró en Informática en la UCLA en 1989. Posteriormente trabajó en el IBM T.J. Watson Research Center de Nueva York, en la Universidad Simón Bolívar de Caracas y en el Instituto Catalán de Investigación Avanzada (ICREA) y la Universidad Pompeu Fabra de Barcelona. Héctor imparte cursos sobre lógica, IA y cambio social y tecnológico, y actualmente investiga sobre el aprendizaje de representaciones para la actuación y la planificación como parte del proyecto del ERC RLeap 2020-2025.
DaSCI Seminars 2022
Neurosymbolic Computing for Accountability in AI
Fecha: 11/05/2022
Resumen: A pesar de haber cosechado muchos éxitos, el enfoque de aprendizaje profundo de la IA ha sido criticado por ser una «caja negra»: las decisiones tomadas por sistemas de aprendizaje tan grandes y complejos son difíciles de explicar o analizar. Si el sistema comete un error en una situación crítica, las consecuencias pueden ser graves. El uso de sistemas de caja negra tiene implicaciones evidentes para la transparencia, pero también para la equidad y, en última instancia, para la confianza en la IA actual. A los desarrolladores de sistemas también les gustaría aprender de los errores del sistema para poder corregirlos. El área de la IA explicable (XAI) ha tratado de abrir la caja negra proporcionando explicaciones para los grandes sistemas de IA, principalmente mediante el uso de técnicas de visualización y estudios de usuarios que tratan de asociar las decisiones tomadas por el sistema con características conocidas del modelo de aprendizaje profundo. En esta charla, argumentaré que XAI necesita extracción de conocimiento y una medida objetiva de fidelidad como prerrequisito para la visualización y los estudios de usuario. Como parte de un enfoque neurosimbólico, la extracción de conocimiento crea un puente entre el aprendizaje profundo subsimbólico y la IA simbólica basada en la lógica con una semántica precisa. Ejemplificaré cómo se puede utilizar la extracción de conocimiento en el análisis de imágenes de rayos X de tórax como parte de un proyecto de colaboración con Fujitsu Research para encontrar y corregir errores en la clasificación de imágenes. Concluiré argumentando que la extracción de conocimiento es una herramienta importante, pero es sólo uno de los muchos elementos necesarios para abordar la equidad y la responsabilidad en la IA.
Ponente: Artur Garcez es Catedrático de Informática y Director del Data Science Institute de la City University de Londres. Es doctor en Informática (2000) por el Imperial College de Londres. Es miembro de la British Computer Society (FBCS) y presidente del comité directivo de la Neural-Symbolic Learning and Reasoning Association. Es coautor de dos libros: Neural-Symbolic Cognitive Reasoning, 2009, y Neural-Symbolic Learning Systems, 2002. Sus investigaciones han dado lugar a publicaciones en las revistas Behavioral & Brain Sciences, Theoretical Computer Science, Neural Computation, Machine Learning, Journal of Logic and Computation, IEEE Transactions on Neural Networks, Journal of Applied Logic, Artificial Intelligence y Studia Logica, así como en las principales conferencias sobre IA y computación neuronal AAAI, NeurIPS, IJCAI, IJCNN, AAMAS y ECAI. El profesor Garcez ocupa cargos editoriales en varias revistas científicas en los campos de la lógica computacional y la inteligencia artificial, y ha sido miembro del comité de programa de varias conferencias, como IJCAI, IJCNN, NeurIPS y AAAI.
The Modern Mathematics of Deep Learning
Fecha: 05/04/2022
Resumen: A pesar del extraordinario éxito de las redes neuronales profundas en aplicaciones del mundo real, que van desde la ciencia a la vida pública, la mayor parte de la investigación relacionada está impulsada empíricamente y aún falta una base matemática completa. Al mismo tiempo, estos métodos ya han demostrado su impresionante potencial en áreas de investigación matemática como las ciencias de la imagen, los problemas inversos o el análisis numérico de ecuaciones diferenciales parciales, a veces superando con creces los enfoques matemáticos clásicos para determinadas clases de problemas. El objetivo de esta conferencia es ofrecer, en primer lugar, una introducción a esta nueva y vibrante área de investigación. A continuación, examinaremos los avances recientes en dos direcciones, a saber, el desarrollo de una base matemática del aprendizaje profundo y la introducción de nuevos enfoques basados en el aprendizaje profundo para resolver problemas matemáticos.
Ponente: Gitta Kutyniok (https://www.ai.math.lmu.de/kutyniok) es actualmente titular de la Cátedra Bávara de AI de Fundamentos Matemáticos de la Inteligencia Artificial en la Ludwig-Maximilians Universität München. Es licenciada en Matemáticas e Informática y doctora por la Universidad de Paderborn (Alemania), y obtuvo su Habilitación en Matemáticas en 2006 en la Universidad Justus-Liebig de Giessen. Entre 2001 y 2008 ocupó puestos de profesora visitante en varias instituciones estadounidenses, como las Universidades de Princeton, Stanford, Yale, Georgia y Washington, y en 2014 fue Nachdiplomslecturer en la ETH de Zúrich. En 2008, se convirtió en profesora titular de matemáticas en la Universität Osnabrück, y se trasladó a Berlín tres años más tarde, donde ocupó una Cátedra Einstein en el Instituto de Matemáticas de la Technische Universität Berlin y un nombramiento de cortesía en el Departamento de Ciencias de la Computación e Ingeniería hasta 2020. Además, Gitta Kutyniok es profesora adjunta de Aprendizaje Automático en la Universidad de Tromso desde 2019.
Neuroevolution: A Synergy of Evolution and Learning
Fecha: 22/03/2022
Resumen: Los pesos y topologías de las redes neuronales evolucionaron originalmente para resolver tareas en las que no se dispone de gradientes. Recientemente, también se ha convertido en una técnica útil para el metalearning de arquitecturas de redes de aprendizaje profundo. Sin embargo, la neuroevolución es más potente cuando utiliza las sinergias de la evolución y el aprendizaje. En esta charla repasaré varios ejemplos de tales sinergias: funciones de pérdida evolutivas, funciones de activación, optimización de sustitutos y soluciones diseñadas por humanos. Demostraré estas sinergias en el reconocimiento de imágenes, los juegos y la optimización de políticas contra pandemias, y señalaré oportunidades de trabajo para el futuro.
Ponente: Risto Miikkulainen es profesor de informática en la Universidad de Texas en Austin y vicepresidente asociado de IA evolutiva en Cognizant. Recibió un M.S. en Ingeniería de la Universidad Tecnológica de Helsinki (ahora Universidad Aalto) en 1986, y un Ph.D. en Ciencias de la Computación de UCLA en 1990. Su investigación actual se enfoca en métodos y aplicaciones de neuroevolución, así como modelos de redes neuronales de procesamiento de lenguaje natural y visión; es autor de más de 450 artículos en estas áreas de investigación. En Cognizant, está ampliando estos enfoques a problemas del mundo real. Risto es miembro del IEEE; su trabajo sobre neuroevolución ha sido reconocido recientemente con el Premio Pionero en Computación Evolutiva IEEE CIS, el Premio Gabor de la Sociedad Internacional de Redes Neuronales y el Premio al Artículo Destacado de la Década de la Sociedad Internacional para la Vida Artificial.
Trustable autonomy: creating interfaces between human and robot societies
Fecha: 26/01/2022
Resumen: Robotic systems are starting to revolutionize many applications, from transportation to health care, assisted by technological advancements, such as cloud computing, novel hardware design, and novel manufacturing techniques. However, several of the characteristics that make robots ideal for certain future applications such as autonomy, self-learning, knowledge sharing, can also raise concerns in the evolution of the technology from academic institutions to the public sphere. Blockchain, an emerging technology originated in the digital currency field, is starting to show great potential to make robotic operations more secure, autonomous, flexible, and even profitable. Therefore, bridging the gap between purely scientific domains and real-world applications. This talk seeks to move beyond the classical view of robotic systems to advance our understanding about the possibilities and limitations of combining state-of-the art robotic systems with blockchain technology.
Ponente: Eduardo Castello experience and interests comprise robotics, blockchain technology, and complex systems. Eduardo was a Marie Curie Fellow at the MIT Media Lab where he worked to explore the combination of distributed robotic systems and blockchain technology. His work focuses on implementing new security, behavior, and business models for distributed robotics by using novel cryptographic methods. Eduardo received his Bsc.(Hons) intelligent systems from University of Portsmouth (UK) and his M. Eng and Ph.D degrees in robotics engineering from Osaka University (Japan). During his graduate studies, Eduardo’s research focused on swarm robotics and how to achieve cooperative and self-sustaining groups of robots.
DaSCI Seminars 2021
If all you have is a hammer, everything looks like a nail
Fecha: 1/12/2021
Resumen: In this talk, I’ll focus on some recent advances in privacy-preserving NLP. In particular, we will look at the differential privacy paradigm and its applications in NLP, namely by using differentially-private training of neural networks. Although the training framework is very general, does it really fit everything we typically do in NLP?
Ponente: Dr. Habernal is leading an independent research group «Trustworthy Human Language Technologies» at the Department of Computer Science, Technical University of Darmstadt, Germany. His current research areas include privacy-preserving NLP, legal argument mining, and explainable and trustworthy models. His research track spans argument mining and computational argumentation, crowdsourcing, or serious games, among others. More info at www.trusthlt.org.
Redes neuronales artificiales basadas en grafos
Ponente: Bryan Perozzi es un científico de investigación en el grupo de algoritmos y optimización de Google Research, donde analiza habitualmente algunos de los gráficos más grandes (y quizás más interesantes) del mundo. La investigación de Bryan se centra en el desarrollo de técnicas para el aprendizaje de representaciones expresivas de datos relacionales con redes neuronales. Estos algoritmos escalables son útiles para tareas de predicción (clasificación/regresión), descubrimiento de patrones y detección de anomalías en grandes conjuntos de datos en red. Bryan es autor de más de 30 artículos revisados por pares en las principales conferencias sobre aprendizaje automático y minería de datos (como NeurIPS, ICML, KDD y WWW). Su trabajo de doctorado sobre el aprendizaje de representaciones de redes fue galardonado con el prestigioso premio SIGKDD Dissertation Award. Bryan recibió su doctorado en Ciencias de la Computación de la Universidad de Stony Brook en 2016, y su maestría de la Universidad Johns Hopkins en 2011.
Fecha: 17/05/2021
Resumen: ¿Cómo pueden las redes neuronales modelar mejor los datos que no tienen una estructura fija? En esta charla hablaré de las redes neuronales de grafos (GNN), un área muy activa de la investigación actual en el aprendizaje automático que pretende responder a esta interesante (y práctica) pregunta. Después de repasar los fundamentos de las GNN, hablaré de algunos retos que plantea la aplicación de estos métodos en la industria, y de algunos de los métodos que hemos desarrollado para hacer frente a estos retos.
Grabación: Redes neuronales basadas en grafos
Detectar las «Fake News» antes de que se escriban, la alfabetización mediática y cómo aplanar la curva de la infodemia COVID-19
Ponente: El Dr. Preslav Nakov es científico principal en el Instituto de Investigación Informática de Qatar (QCRI), HBKU , donde dirige el megaproyecto Tanbih (desarrollado en colaboración con el MIT ), cuyo objetivo es limitar el efecto de las «noticias falsas», la propaganda y la parcialidad de los medios de comunicación haciendo que los usuarios sean conscientes de lo que leen, promoviendo así la alfabetización mediática y el pensamiento crítico. Se doctoró en Ciencias de la Computación en la Universidad de California en Berkeley, con el apoyo de una beca Fulbright. El Dr. Preslav Nakov es presidente de ACL SIGLEX , secretario de ACL SIGSLAV y miembro del consejo asesor de EACL. También es miembro del consejo editorial de varias revistas, como Computational Linguistics, TACL , CS&L, NLE , AI Communications y Frontiers in AI. Es autor de un libro de Morgan & Claypool sobre Relaciones Semánticas entre Nominales y de dos libros sobre algoritmos informáticos. Ha publicado más de 250 artículos de investigación y ha sido nombrado entre el 2% de los más citados del mundo en la categoría de logros profesionales, dentro de una lista global elaborada por la Universidad de Stanford. Recibió el premio al mejor artículo largo en el CIKM ‘2020, el premio al mejor artículo de demostración (mención honorífica) en el ACL ‘2020, el premio al mejor artículo de tarea (mención honorífica) en el SemEval’2020, el premio al mejor póster en el SocInfo’2019 y el premio al joven investigador en el RANLP ‘2011. También fue el primero en recibir el premio John Atanasoff del Presidente de Bulgaria, que lleva el nombre del inventor del primer ordenador digital electrónico automático. La investigación del Dr. Nakov fue presentada en más de 100 medios de comunicación, como Forbes, Boston Globe, Aljazeera, DefenseOne, Business Insider, MIT Technology Review, Science Daily, Popular Science, Fast Company, The Register, WIRED , y Engadget, entre otros.
Fecha: 19/04/2021
Resumen: Ante la reciente proliferación de la desinformación en la red, ha crecido el interés de los investigadores por desmentir automáticamente los rumores, las afirmaciones falsas y las «fake news». Hasta ahora se han puesto en marcha varias iniciativas de comprobación de hechos, tanto manuales como automáticas, pero toda la cuestión sigue estando en entredicho: para cuando una afirmación se comprueba finalmente, puede haber llegado a millones de usuarios, y el daño causado difícilmente puede deshacerse.
Una opción posiblemente más prometedora es centrarse en el análisis de medios de comunicación enteros, lo que puede hacerse con antelación; entonces, podríamos comprobar los hechos de las noticias incluso antes de que se escriban: comprobando la fiabilidad del medio que las ha publicado (que es lo que hacen los periodistas en realidad). Mostraremos cómo lo hacemos en el agregador de noticias Tanbih (http://www.tanbih.org/), cuyo objetivo es limitar el impacto de las «noticias falsas», la propaganda y la parcialidad de los medios de comunicación haciendo que los usuarios sean conscientes de lo que están leyendo, promoviendo así la alfabetización mediática y el pensamiento crítico, que son posiblemente la mejor manera de hacer frente a la desinformación a largo plazo. En particular, desarrollamos perfiles de medios que muestran la factualidad general de la información, el grado de contenido propagandístico, el hiperpartidismo, la ideología política principal, el marco general de la información, la postura con respecto a diversas afirmaciones y temas, así como el alcance de la audiencia y el sesgo de la audiencia en los medios sociales.
Otra observación importante es que el término «noticias falsas» induce a la gente a centrarse exclusivamente en los hechos y a ignorar la otra mitad del problema: la posible intención maliciosa. Así, detectamos el uso de técnicas específicas de propaganda en el texto, por ejemplo, la apelación a las emociones, el miedo, los prejuicios, las falacias lógicas, etc. Mostraremos cómo hacemos esto en el sistema Prta (https://www.tanbih.org/prta), otra herramienta de alfabetización mediática, que obtuvo el premio a la mejor demostración (mención de honor) en ACL -2020; una tarea compartida asociada obtuvo el premio a la mejor tarea (mención de honor) en SemEval-2020.
Por último, en el momento de COVID-19, el problema de la desinformación en línea se elevó a un nivel completamente nuevo como la primera infodemia global. Mientras que la lucha contra esta infodemia se piensa típicamente en términos de factualidad, el problema es mucho más amplio, ya que el contenido malicioso incluye no sólo las «fake news», los rumores y las teorías conspirativas, sino también la promoción de curas falsas, el pánico, el racismo, la xenofobia y la desconfianza en las autoridades, entre otros. Por ello, defendemos la necesidad de un enfoque holístico que combine las perspectivas de los periodistas, los verificadores de hechos, los responsables políticos, las plataformas de medios sociales y la sociedad en su conjunto, y presentamos nuestra reciente investigación en esa dirección (https://mt.qcri.org/covid19disinformationdetector/).
Aprendizaje Profundo Eficiente
Ponente: Marco Pedersoli es profesor adjunto en la ETS de Montreal. Obtuvo su doctorado en ciencias de la computación en 2012 en la Universidad Autónoma de Barcelona y el Centro de Visión por Computador de Barcelona. Luego, fue becario postdoctoral en visión por computador y aprendizaje automático en KU Leuven con el Prof. Tuytelaars y más tarde en INRIA Grenoble con los doctores Verbeek y Schmid. En la ETS de Montreal es miembro de LIVIA y copreside una cátedra industrial sobre redes neuronales integradas para el control de edificios conectados. Su investigación se aplica principalmente al reconocimiento visual, la interpretación y la comprensión automáticas de imágenes y vídeos. Su objetivo específico es reducir la complejidad y la cantidad de anotaciones necesarias para los algoritmos de aprendizaje profundo, como las redes neuronales convolucionales y recurrentes. El profesor Pedersoli es autor de más de 40 publicaciones en conferencias y revistas internacionales de primer nivel sobre visión por ordenador y aprendizaje automático.
Fecha: 12/04/2021
Resumen: En los últimos 10 años los modelos de aprendizaje profundo (DL) han mostrado grandes avances en muchos campos diferentes, desde la visión por ordenador hasta el procesamiento del lenguaje natural. Sin embargo, los métodos de DL requieren grandes recursos computacionales (es decir, GPUs o TPUs) y conjuntos de datos muy grandes, lo que también hace que la fase de entrenamiento sea muy larga y laboriosa. Por lo tanto, existe una fuerte necesidad de reducir el coste computacional de los métodos de DL tanto en el entrenamiento como en el desarrollo. En esta charla, presentaré las líneas más comunes de enfoques utilizados para reducir los requisitos de los métodos de AD en términos de memoria y computación tanto para el entrenamiento como para el desarrollo, y mostraré cómo una reducción de la huella del modelo no siempre produce un aumento de velocidad correspondiente. Por último, presentaré algunos resultados recientes que sugieren que los modelos de DL de gran tamaño son importantes sobre todo para facilitar el entrenamiento del modelo, y cuando éste termina, podemos desplegar un modelo mucho más pequeño y rápido sin apenas pérdida de precisión.
Grabación: Efficient Deep Learning
Haciendo Data Science sin escribir código
Ponente: Victoriano Izquierdo (1990) es un ingeniero informático granadino, cofundador y CEO de Graphext, una empresa que construye una herramienta de análisis avanzado de datos que aplica las últimas técnicas en ciencia de datos e inteligencia artificial para ayudar a pequeñas y grandes empresas a resolver problemas complejos usando datos.
Fecha: 15/02/2021
Resumen: Haciendo Data Science sin escribir código
Grabación: Haciendo Data Science sin escribir código
Variational Autoencoders for Audio, Visual and Audio-Visual Learning
Ponente: Xavier Alameda-Pineda es Investigador Científico (titular) en Inria, en el Grupo de Percepción. Obtuvo el Máster (equivalente) en Matemáticas en 2008, en Telecomunicaciones en 2009 por BarcelonaTech y en Informática en 2010 por la Université Grenoble-Alpes (UGA). A continuación, trabajó para obtener su doctorado en Matemáticas y Ciencias de la Computación, y lo obtuvo en 2013, en la UGA. Después de un período de dos años de postdoctorado en el Grupo de Comprensión Humana Multimodal, en la Universidad de Trento, fue nombrado con su puesto actual. Xavier es un miembro activo de SIGMM, y un miembro senior de IEEE y un miembro de ELLIS. Es copresidente de la cátedra «Percepción e interacción audiovisual de las máquinas para los robots de compañía» del Instituto Multidisciplinar de Inteligencia Artificial. Xavier es el coordinador del proyecto H2020 SPRING: Socially Pertinent Robots in Gerontological Healthcare. Los intereses de investigación de Xavier se centran en combinar el aprendizaje automático, la visión por ordenador y el procesamiento de audio para el análisis de escenas y comportamientos y la interacción entre humanos y robots. Más información en xavirema.eu
Fecha: 01/02/2021
Resumen: Desde su introducción, los autocodificadores variacionales (VAE) han demostrado un gran rendimiento en aplicaciones clave de representación de características sin supervisión, concretamente en la representación visual y auditiva. En este seminario se presentará la metodología global de los autocodificadores variacionales, junto con aplicaciones en el aprendizaje con datos de audio y visuales. Se pondrá especial énfasis en discutir el uso de VAE para el aprendizaje audiovisual, resaltando su interés para la tarea de mejora del habla audiovisual.
Grabación: Variational Autoencoders for Audio, Visual and Audio-Visual Learning
DaSCI Seminars 2020
Image and Video Generation using Deep Learning
Ponente: Stéphane Lathuilière es profesor asociado en Telecom París, Francia, en el equipo multimedia. Hasta octubre de 2019, fue becario de postdoctorado en la Universidad de Trento (Italia) en el Grupo de Multimedia y Comprensión Humana, dirigido por el Prof. Nicu Sebe y la Prof. Elisa Ricci. Recibió el título de Master en Matemáticas Aplicadas e Informática de la ENSIMAG, Instituto de Tecnología de Grenoble (Grenoble INP), Francia, en 2014. Realizó su tesis doctoral en el Instituto Internacional de Investigación MICA (Hanoi, Vietnam). Trabajó para obtener su doctorado en matemáticas e informática en el Equipo de Percepción de Inria bajo la supervisión del Dr. Radu Horaud, y lo obtuvo en la Universidad de Grenoble Alpes (Francia) en 2018. Sus intereses de investigación abarcan el aprendizaje de máquinas para problemas de visión por ordenador (por ejemplo, adaptación de dominios, aprendizaje continuo) y modelos profundos para la generación de imágenes y vídeos. Publica regularmente artículos en las conferencias más prestigiosas sobre visión por computador (CVPR, ICCV, ECCV, NeurIPS) y en las revistas más importantes (IEEE TPAMI).
Fecha: 14/12/2020
Resumen (en inglés): Generating realistic images and videos has countless applications in different areas, ranging from photography technologies to e-commerce business. Recently, deep generative approaches have emerged as effective techniques for generation tasks. In this talk, we will first present the problem of pose-guided person image generation. Specifically, given an image of a person and a target pose, a new image of that person in the target pose is synthesized. We will show that important body-pose changes affect generation quality and that specific feature map deformations lead to better images. Then, we will present our recent framework for video generation. More precisely, our approach generates videos where an object in a source image is animated according to the motion of a driving video. In this task, we employ a motion representation based on keypoints that are learned in a self-supervised fashion. Therefore, our approach can animate any arbitrary object without using annotation or prior information about the specific object to animate.
Image and Video Generation using Deep Learning -Recording (in English)
Cinco fuentes de sesgos y cuestiones éticas en el PNL, y qué hacer con ellas
Ponente: Dirk Hovy es profesor asociado de informática en la Universidad Bocconi de Milán, Italia. Antes de eso, fue profesor y postdoctorado en Copenhague, obtuvo un doctorado en la USC, y un máster en lingüística en Alemania. Está interesado en la interacción entre el lenguaje, la sociedad y el aprendizaje automático, o lo que el lenguaje puede decirnos sobre la sociedad, y lo que los ordenadores pueden decirnos sobre el lenguaje. Es autor de más de 60 artículos sobre estos temas, incluyendo 3 premios al mejor artículo. Ha organizado una conferencia y varios talleres (sobre lenguaje abusivo, ética en PNL y ciencias sociales computacionales). Fuera del trabajo, Dirk disfruta cocinando, corriendo y haciendo trabajos en cuero. Para obtener información actualizada, véase http://www.dirkhovy.com.
Fecha: 11/01/2021
Resumen: Nunca antes fue tan fácil escribir un sistema de PNL tan poderoso, nunca antes tuvo un impacto tan potencial. Sin embargo, estos sistemas se utilizan ahora cada vez más en aplicaciones para las que no estaban destinados, por personas que los tratan como cajas negras intercambiables. Los resultados pueden ser simples caídas de rendimiento, pero también sesgos sistemáticos contra diversos grupos de usuarios
Cinco fuentes de sesgos y cuestiones éticas en la PNL, y qué hacer con ellas.
En esta charla, discutiré varios tipos de sesgos que afectan a los modelos de PNL (basados en Shah et al. 2020 y Hovy & Spruit, 2016), cuáles son sus fuentes y las posibles medidas para contrarrestarlos.
Five Sources of Biases and Ethical Issues in NLP, and What to Do about Them – Grabación
Aggregating Weak Annotations from Crowds
Ponente: Edwin Simpson, es profesor asociado en la Universidad de Bristol, donde trabaja en el procesamiento interactivo del lenguaje natural. Su investigación se centra en el aprendizaje a partir de datos escasos y poco fiables, incluida la retroalimentación de los usuarios, y adapta los enfoques bayesianos a temas como la argumentación, el resumen y el etiquetado de secuencias. Anteriormente, realizó un postdoctorado en la Universidad Técnica de Darmstadt, Alemania, y completó su doctorado en la Universidad de Oxford sobre los métodos bayesianos para agregar datos de origen colectivo.
Fecha: 09/11/2020
Resumen: Current machine learning methods are data hungry. Crowdsourcing is a common solution to acquiring annotated data at large scale for a modest price. However, the quality of the annotations is highly variable and annotators do not always agree on the correct label for each data point. This talk presents techniques for aggregating crowdsourced annotations using preference learning and classifier combination to estimate gold-standard rankings and labels, which can be used as training data for ML models. We apply approximate Bayesian approaches to handle noise, small amounts of data per annotator, and provide a basis for active learning. While these techniques are applicable to any kind of data, we demonstrate their effectiveness for natural language processing tasks.
Aggregating Weak Annotations from Crowds-Recordings (in English)
Aprendizaje por refuerzo robusto, escalable y eficiente
Ponente: Sergio Guadarrama es ingeniero senior de software en Google Brain, donde trabaja en el aprendizaje por refuerzo y redes neuronales. Su investigación se centra en el aprendizaje por refuerzo robusto, escalable y eficiente. Actualmente es el líder del proyecto TF-Agents y un desarrollador principal de TensorFlow (cocreador de TF-Slim). Antes de unirse a Google fue investigador en la Universidad de California, Berkeley, donde trabajó con el profesor Lotfi Zadeh y el profesor Trevor Darrell. Recibió su licenciatura y doctorado en la Universidad Politécnica de Madrid.
Fecha: 26/10/2020
Resumen: El aprendizaje por refuerzo (RL) es un tipo Machine learning donde el objetivo es aprender a resolver una tarea mediante interacciones con el entorno, maximizando el retorno esperado. A diferencia del aprendizaje supervisado, la solución requiere tomar múltiples decisiones de forma secuencial y el refuerzo se produce mediante recompensas. Los dos componentes principales son el entorno, que representa el problema a resolver, y el agente, que representa el algoritmo de aprendizaje.