DaSCI Webinars


DaSCI Seminars
Charlas de un investigador destacado que nos presenta los avances disruptivos en Inteligencia Artificial. Tienen una duración aproximada de 1 hora y 30 minutos (45 min. de exposición y 30 minutos para preguntas)
Redes neuronales artificiales basadas en grafos
Ponente: Bryan Perozzi es un científico de investigación en el grupo de algoritmos y optimización de Google Research, donde analiza habitualmente algunos de los gráficos más grandes (y quizás más interesantes) del mundo. La investigación de Bryan se centra en el desarrollo de técnicas para el aprendizaje de representaciones expresivas de datos relacionales con redes neuronales. Estos algoritmos escalables son útiles para tareas de predicción (clasificación/regresión), descubrimiento de patrones y detección de anomalías en grandes conjuntos de datos en red. Bryan es autor de más de 30 artículos revisados por pares en las principales conferencias sobre aprendizaje automático y minería de datos (como NeurIPS, ICML, KDD y WWW). Su trabajo de doctorado sobre el aprendizaje de representaciones de redes fue galardonado con el prestigioso premio SIGKDD Dissertation Award. Bryan recibió su doctorado en Ciencias de la Computación de la Universidad de Stony Brook en 2016, y su maestría de la Universidad Johns Hopkins en 2011.
Fecha: 17/05/2021
Resumen: ¿Cómo pueden las redes neuronales modelar mejor los datos que no tienen una estructura fija? En esta charla hablaré de las redes neuronales de grafos (GNN), un área muy activa de la investigación actual en el aprendizaje automático que pretende responder a esta interesante (y práctica) pregunta. Después de repasar los fundamentos de las GNN, hablaré de algunos retos que plantea la aplicación de estos métodos en la industria, y de algunos de los métodos que hemos desarrollado para hacer frente a estos retos.
Grabación: Redes neuronales basadas en grafos
Detectar las «Fake News» antes de que se escriban, la alfabetización mediática y cómo aplanar la curva de la infodemia COVID-19
Ponente: El Dr. Preslav Nakov es científico principal en el Instituto de Investigación Informática de Qatar (QCRI), HBKU , donde dirige el megaproyecto Tanbih (desarrollado en colaboración con el MIT ), cuyo objetivo es limitar el efecto de las «noticias falsas», la propaganda y la parcialidad de los medios de comunicación haciendo que los usuarios sean conscientes de lo que leen, promoviendo así la alfabetización mediática y el pensamiento crítico. Se doctoró en Ciencias de la Computación en la Universidad de California en Berkeley, con el apoyo de una beca Fulbright. El Dr. Preslav Nakov es presidente de ACL SIGLEX , secretario de ACL SIGSLAV y miembro del consejo asesor de EACL. También es miembro del consejo editorial de varias revistas, como Computational Linguistics, TACL , CS&L, NLE , AI Communications y Frontiers in AI. Es autor de un libro de Morgan & Claypool sobre Relaciones Semánticas entre Nominales y de dos libros sobre algoritmos informáticos. Ha publicado más de 250 artículos de investigación y ha sido nombrado entre el 2% de los más citados del mundo en la categoría de logros profesionales, dentro de una lista global elaborada por la Universidad de Stanford. Recibió el premio al mejor artículo largo en el CIKM ‘2020, el premio al mejor artículo de demostración (mención honorífica) en el ACL ‘2020, el premio al mejor artículo de tarea (mención honorífica) en el SemEval’2020, el premio al mejor póster en el SocInfo’2019 y el premio al joven investigador en el RANLP ‘2011. También fue el primero en recibir el premio John Atanasoff del Presidente de Bulgaria, que lleva el nombre del inventor del primer ordenador digital electrónico automático. La investigación del Dr. Nakov fue presentada en más de 100 medios de comunicación, como Forbes, Boston Globe, Aljazeera, DefenseOne, Business Insider, MIT Technology Review, Science Daily, Popular Science, Fast Company, The Register, WIRED , y Engadget, entre otros.
Fecha: 19/04/2021
Resumen: Ante la reciente proliferación de la desinformación en la red, ha crecido el interés de los investigadores por desmentir automáticamente los rumores, las afirmaciones falsas y las «fake news». Hasta ahora se han puesto en marcha varias iniciativas de comprobación de hechos, tanto manuales como automáticas, pero toda la cuestión sigue estando en entredicho: para cuando una afirmación se comprueba finalmente, puede haber llegado a millones de usuarios, y el daño causado difícilmente puede deshacerse.
Una opción posiblemente más prometedora es centrarse en el análisis de medios de comunicación enteros, lo que puede hacerse con antelación; entonces, podríamos comprobar los hechos de las noticias incluso antes de que se escriban: comprobando la fiabilidad del medio que las ha publicado (que es lo que hacen los periodistas en realidad). Mostraremos cómo lo hacemos en el agregador de noticias Tanbih (http://www.tanbih.org/), cuyo objetivo es limitar el impacto de las «noticias falsas», la propaganda y la parcialidad de los medios de comunicación haciendo que los usuarios sean conscientes de lo que están leyendo, promoviendo así la alfabetización mediática y el pensamiento crítico, que son posiblemente la mejor manera de hacer frente a la desinformación a largo plazo. En particular, desarrollamos perfiles de medios que muestran la factualidad general de la información, el grado de contenido propagandístico, el hiperpartidismo, la ideología política principal, el marco general de la información, la postura con respecto a diversas afirmaciones y temas, así como el alcance de la audiencia y el sesgo de la audiencia en los medios sociales.
Otra observación importante es que el término «noticias falsas» induce a la gente a centrarse exclusivamente en los hechos y a ignorar la otra mitad del problema: la posible intención maliciosa. Así, detectamos el uso de técnicas específicas de propaganda en el texto, por ejemplo, la apelación a las emociones, el miedo, los prejuicios, las falacias lógicas, etc. Mostraremos cómo hacemos esto en el sistema Prta (https://www.tanbih.org/prta), otra herramienta de alfabetización mediática, que obtuvo el premio a la mejor demostración (mención de honor) en ACL -2020; una tarea compartida asociada obtuvo el premio a la mejor tarea (mención de honor) en SemEval-2020.
Por último, en el momento de COVID-19, el problema de la desinformación en línea se elevó a un nivel completamente nuevo como la primera infodemia global. Mientras que la lucha contra esta infodemia se piensa típicamente en términos de factualidad, el problema es mucho más amplio, ya que el contenido malicioso incluye no sólo las «fake news», los rumores y las teorías conspirativas, sino también la promoción de curas falsas, el pánico, el racismo, la xenofobia y la desconfianza en las autoridades, entre otros. Por ello, defendemos la necesidad de un enfoque holístico que combine las perspectivas de los periodistas, los verificadores de hechos, los responsables políticos, las plataformas de medios sociales y la sociedad en su conjunto, y presentamos nuestra reciente investigación en esa dirección (https://mt.qcri.org/covid19disinformationdetector/).
Aprendizaje Profundo Eficiente
Ponente: Marco Pedersoli es profesor adjunto en la ETS de Montreal. Obtuvo su doctorado en ciencias de la computación en 2012 en la Universidad Autónoma de Barcelona y el Centro de Visión por Computador de Barcelona. Luego, fue becario postdoctoral en visión por computador y aprendizaje automático en KU Leuven con el Prof. Tuytelaars y más tarde en INRIA Grenoble con los doctores Verbeek y Schmid. En la ETS de Montreal es miembro de LIVIA y copreside una cátedra industrial sobre redes neuronales integradas para el control de edificios conectados. Su investigación se aplica principalmente al reconocimiento visual, la interpretación y la comprensión automáticas de imágenes y vídeos. Su objetivo específico es reducir la complejidad y la cantidad de anotaciones necesarias para los algoritmos de aprendizaje profundo, como las redes neuronales convolucionales y recurrentes. El profesor Pedersoli es autor de más de 40 publicaciones en conferencias y revistas internacionales de primer nivel sobre visión por ordenador y aprendizaje automático.
Fecha: 12/04/2021
Resumen: En los últimos 10 años los modelos de aprendizaje profundo (DL) han mostrado grandes avances en muchos campos diferentes, desde la visión por ordenador hasta el procesamiento del lenguaje natural. Sin embargo, los métodos de DL requieren grandes recursos computacionales (es decir, GPUs o TPUs) y conjuntos de datos muy grandes, lo que también hace que la fase de entrenamiento sea muy larga y laboriosa. Por lo tanto, existe una fuerte necesidad de reducir el coste computacional de los métodos de DL tanto en el entrenamiento como en el desarrollo. En esta charla, presentaré las líneas más comunes de enfoques utilizados para reducir los requisitos de los métodos de AD en términos de memoria y computación tanto para el entrenamiento como para el desarrollo, y mostraré cómo una reducción de la huella del modelo no siempre produce un aumento de velocidad correspondiente. Por último, presentaré algunos resultados recientes que sugieren que los modelos de DL de gran tamaño son importantes sobre todo para facilitar el entrenamiento del modelo, y cuando éste termina, podemos desplegar un modelo mucho más pequeño y rápido sin apenas pérdida de precisión.
Grabación: Efficient Deep Learning
Haciendo Data Science sin escribir código
Ponente: Victoriano Izquierdo (1990) es un ingeniero informático granadino, cofundador y CEO de Graphext, una empresa que construye una herramienta de análisis avanzado de datos que aplica las últimas técnicas en ciencia de datos e inteligencia artificial para ayudar a pequeñas y grandes empresas a resolver problemas complejos usando datos.
Fecha: 15/02/2021
Resumen: Haciendo Data Science sin escribir código
Grabación: Haciendo Data Science sin escribir código
Variational Autoencoders for Audio, Visual and Audio-Visual Learning
Ponente: Xavier Alameda-Pineda es Investigador Científico (titular) en Inria, en el Grupo de Percepción. Obtuvo el Máster (equivalente) en Matemáticas en 2008, en Telecomunicaciones en 2009 por BarcelonaTech y en Informática en 2010 por la Université Grenoble-Alpes (UGA). A continuación, trabajó para obtener su doctorado en Matemáticas y Ciencias de la Computación, y lo obtuvo en 2013, en la UGA. Después de un período de dos años de postdoctorado en el Grupo de Comprensión Humana Multimodal, en la Universidad de Trento, fue nombrado con su puesto actual. Xavier es un miembro activo de SIGMM, y un miembro senior de IEEE y un miembro de ELLIS. Es copresidente de la cátedra «Percepción e interacción audiovisual de las máquinas para los robots de compañía» del Instituto Multidisciplinar de Inteligencia Artificial. Xavier es el coordinador del proyecto H2020 SPRING: Socially Pertinent Robots in Gerontological Healthcare. Los intereses de investigación de Xavier se centran en combinar el aprendizaje automático, la visión por ordenador y el procesamiento de audio para el análisis de escenas y comportamientos y la interacción entre humanos y robots. Más información en xavirema.eu
Fecha: 01/02/2021
Resumen: Desde su introducción, los autocodificadores variacionales (VAE) han demostrado un gran rendimiento en aplicaciones clave de representación de características sin supervisión, concretamente en la representación visual y auditiva. En este seminario se presentará la metodología global de los autocodificadores variacionales, junto con aplicaciones en el aprendizaje con datos de audio y visuales. Se pondrá especial énfasis en discutir el uso de VAE para el aprendizaje audiovisual, resaltando su interés para la tarea de mejora del habla audiovisual.
Grabación: Variational Autoencoders for Audio, Visual and Audio-Visual Learning
Cinco fuentes de sesgos y cuestiones éticas en el PNL, y qué hacer con ellas
Ponente: Dirk Hovy es profesor asociado de informática en la Universidad Bocconi de Milán, Italia. Antes de eso, fue profesor y postdoctorado en Copenhague, obtuvo un doctorado en la USC, y un máster en lingüística en Alemania. Está interesado en la interacción entre el lenguaje, la sociedad y el aprendizaje automático, o lo que el lenguaje puede decirnos sobre la sociedad, y lo que los ordenadores pueden decirnos sobre el lenguaje. Es autor de más de 60 artículos sobre estos temas, incluyendo 3 premios al mejor artículo. Ha organizado una conferencia y varios talleres (sobre lenguaje abusivo, ética en PNL y ciencias sociales computacionales). Fuera del trabajo, Dirk disfruta cocinando, corriendo y haciendo trabajos en cuero. Para obtener información actualizada, véase http://www.dirkhovy.com.
Fecha: 11/01/2021
Resumen: Nunca antes fue tan fácil escribir un sistema de PNL tan poderoso, nunca antes tuvo un impacto tan potencial. Sin embargo, estos sistemas se utilizan ahora cada vez más en aplicaciones para las que no estaban destinados, por personas que los tratan como cajas negras intercambiables. Los resultados pueden ser simples caídas de rendimiento, pero también sesgos sistemáticos contra diversos grupos de usuarios
Cinco fuentes de sesgos y cuestiones éticas en la PNL, y qué hacer con ellas.
En esta charla, discutiré varios tipos de sesgos que afectan a los modelos de PNL (basados en Shah et al. 2020 y Hovy & Spruit, 2016), cuáles son sus fuentes y las posibles medidas para contrarrestarlos.
Five Sources of Biases and Ethical Issues in NLP, and What to Do about Them – Grabación
Image and Video Generation using Deep Learning
Ponente: Stéphane Lathuilière es profesor asociado en Telecom París, Francia, en el equipo multimedia. Hasta octubre de 2019, fue becario de postdoctorado en la Universidad de Trento (Italia) en el Grupo de Multimedia y Comprensión Humana, dirigido por el Prof. Nicu Sebe y la Prof. Elisa Ricci. Recibió el título de Master en Matemáticas Aplicadas e Informática de la ENSIMAG, Instituto de Tecnología de Grenoble (Grenoble INP), Francia, en 2014. Realizó su tesis doctoral en el Instituto Internacional de Investigación MICA (Hanoi, Vietnam). Trabajó para obtener su doctorado en matemáticas e informática en el Equipo de Percepción de Inria bajo la supervisión del Dr. Radu Horaud, y lo obtuvo en la Universidad de Grenoble Alpes (Francia) en 2018. Sus intereses de investigación abarcan el aprendizaje de máquinas para problemas de visión por ordenador (por ejemplo, adaptación de dominios, aprendizaje continuo) y modelos profundos para la generación de imágenes y vídeos. Publica regularmente artículos en las conferencias más prestigiosas sobre visión por computador (CVPR, ICCV, ECCV, NeurIPS) y en las revistas más importantes (IEEE TPAMI).
Fecha: 14/12/2020
Resumen (en inglés): Generating realistic images and videos has countless applications in different areas, ranging from photography technologies to e-commerce business. Recently, deep generative approaches have emerged as effective techniques for generation tasks. In this talk, we will first present the problem of pose-guided person image generation. Specifically, given an image of a person and a target pose, a new image of that person in the target pose is synthesized. We will show that important body-pose changes affect generation quality and that specific feature map deformations lead to better images. Then, we will present our recent framework for video generation. More precisely, our approach generates videos where an object in a source image is animated according to the motion of a driving video. In this task, we employ a motion representation based on keypoints that are learned in a self-supervised fashion. Therefore, our approach can animate any arbitrary object without using annotation or prior information about the specific object to animate.
Image and Video Generation using Deep Learning -Recording (in English)
Aggregating Weak Annotations from Crowds
Ponente: Edwin Simpson, es profesor asociado en la Universidad de Bristol, donde trabaja en el procesamiento interactivo del lenguaje natural. Su investigación se centra en el aprendizaje a partir de datos escasos y poco fiables, incluida la retroalimentación de los usuarios, y adapta los enfoques bayesianos a temas como la argumentación, el resumen y el etiquetado de secuencias. Anteriormente, realizó un postdoctorado en la Universidad Técnica de Darmstadt, Alemania, y completó su doctorado en la Universidad de Oxford sobre los métodos bayesianos para agregar datos de origen colectivo.
Fecha: 09/11/2020
Resumen: Current machine learning methods are data hungry. Crowdsourcing is a common solution to acquiring annotated data at large scale for a modest price. However, the quality of the annotations is highly variable and annotators do not always agree on the correct label for each data point. This talk presents techniques for aggregating crowdsourced annotations using preference learning and classifier combination to estimate gold-standard rankings and labels, which can be used as training data for ML models. We apply approximate Bayesian approaches to handle noise, small amounts of data per annotator, and provide a basis for active learning. While these techniques are applicable to any kind of data, we demonstrate their effectiveness for natural language processing tasks.
Aggregating Weak Annotations from Crowds-Recordings (in English)
Aprendizaje por refuerzo robusto, escalable y eficiente
Ponente: Sergio Guadarrama es ingeniero senior de software en Google Brain, donde trabaja en el aprendizaje por refuerzo y redes neuronales. Su investigación se centra en el aprendizaje por refuerzo robusto, escalable y eficiente. Actualmente es el líder del proyecto TF-Agents y un desarrollador principal de TensorFlow (cocreador de TF-Slim). Antes de unirse a Google fue investigador en la Universidad de California, Berkeley, donde trabajó con el profesor Lotfi Zadeh y el profesor Trevor Darrell. Recibió su licenciatura y doctorado en la Universidad Politécnica de Madrid.
Fecha: 26/10/2020
Resumen: El aprendizaje por refuerzo (RL) es un tipo Machine learning donde el objetivo es aprender a resolver una tarea mediante interacciones con el entorno, maximizando el retorno esperado. A diferencia del aprendizaje supervisado, la solución requiere tomar múltiples decisiones de forma secuencial y el refuerzo se produce mediante recompensas. Los dos componentes principales son el entorno, que representa el problema a resolver, y el agente, que representa el algoritmo de aprendizaje.
DaSCI Lectures
Charlas de un investigador principal del DaSCI que presenta los últimos avances en las líneas de investigación consolidadas del Instituto. Tienen una duración aproximada de 1 hora y 30 minutos (45 min. de exposición y 30 minutos para preguntas)
Nuevas estructuras en las capas de pooling usando combinaciones lineales de funciones crecientes y funciones de grouping
Ponente: Humberto Bustince Sola es catedrático de Ciencia de la Computación e Inteligencia Artificial en la Universidad Pública de Navarra y profesor honorario de la Universidad de Nottingham desde 2017. Es el investigador principal del Grupo de Investigación en Inteligencia Artificial y Razonamiento Aproximado, cuyas líneas de investigación son tanto teóricas (funciones de fusión de datos, medidas de información y comparación, conjuntos difusos y sus extensiones) y aplicadas (aprendizaje profundo, procesamiento de imágenes, clasificación, aprendizaje automático, minería de datos, big data o el cerebro computacional). Ha liderado 13 proyectos de investigación financiados por gobiernos nacionales y regionales, y dos redes de excelencia en soft computing. Ha sido investigador principal en proyectos con empresas y entidades como Caja de Ahorros de Navarra, INCITA, Gamesa Tracasa o el Servicio Navarro de Salud. Ha participado en dos proyectos internacionales. Ha sido autor o coautor de más de 300 trabajos, según Web of Science, incluyendo alrededor de 160 en revistas del primer cuartil. Fue incluido entre el 1% de los científicos más relevantes del mundo en 2018, según Clarivate Analytics. Colabora con grupos de investigación de primera línea de países como Reino Unido, Bélgica, Australia, República Checa, Eslovaquia, Canadá o Brasil. Es editor en jefe de la revista online Mathware & Soft Computing de la European Society of Fuzzy Logic and Technologies y de la revista Axioms. Editor asociado de la revista IEEE Transactions on Fuzzy Systems y miembro de los consejos editoriales de las revistas Fuzzy Sets and Systems, Information Fusion, International Journal of Computational Intelligence Systems y Journal of Intelligent & Fuzzy Systems. Además, es coautor de un libro sobre funciones de agregación promedio y ha sido coeditor de varios libros. Ha estado a cargo de la organización de varios congresos internacionales de primer nivel como EUROFUSE 2009 y AGOP 2013. Es Senior Member del IEEE y Fellow de la International Fuzzy Systems Association (IFSA). Miembro de la Academia Vasca de Ciencias, Artes y Literatura, Jakiunde, desde 2018. Ha dirigido 11 tesis doctorales.
Fecha: 13/09/2021
Resumen: En esta charla comenzamos con una revisión de los principales conceptos relacionados con las funciones de agregación y estudiamos cómo estas funciones se han aplicado a la inteligencia artificial. También discutimos cómo algunas aplicaciones en inteligencia artificial han llevado a considerar clases específicas de agregaciones, así como familias más amplias de funciones crecientes. Como ejemplo de la aplicabilidad de estos desarrollos, consideramos el caso de las redes neuronales convolucionales. Las redes neuronales convolucionales tradicionales hacen uso de la media aritmética o del máximo para reducir las características extraídas por las capas convolucionales. En este trabajo, en este proceso de reducción de resolución consideramos varias funciones alternativas, incluyendo las funciones de grouping En particular, analizamos combinaciones lineales de estadísticos y generalizaciones de la integral de Sugeno, extendiendo el dominio de esta última a toda la recta real. Aplicamos estas nuevas funciones a tres arquitecturas diferentes de complejidad creciente, y mostramos que la mejor función de grouping depende de la arquitectura y debe ajustarse de manera similar a otros hiperparámetros del modelo. Sin embargo, también probamos empíricamente sobre múltiples conjuntos de datos que las combinaciones lineales superan a las funciones de grouping tradicionales en la mayoría de los casos, y que las combinaciones con la integral de Sugeno o una de sus generalizaciones generalmente producen los mejores resultados, demostrando ser un buen candidato para aplicar en la mayoría de las arquitecturas.
Modelización e inferencia bayesiana con aplicaciones a la recuperación y clasificación de imágenes
Ponente: Rafael Molina se licenció en Matemáticas (Estadística) y se doctoró en diseño óptimo en modelos lineales por la Universidad de Granada, Granada, España, en 1979 y 1983, respectivamente. En el año 2000, se convirtió en profesor de Ciencias de la Computación e Inteligencia Artificial en la Universidad de Granada. Sus intereses de investigación se centran principalmente en el uso de la modelización e inferencia bayesiana en la restauración de imágenes (aplicaciones a la astronomía y la medicina), la superresolución de imágenes y vídeo, el aprendizaje activo, el aprendizaje supervisado y no supervisado y el crowdsourcing.
Fecha: 7/06/2021
Resumen: Un principio fundamental de la filosofía bayesiana es considerar todos los parámetros y variables no observables de un problema dado como cantidades estocásticas desconocidas. El objetivo de la inferencia es calcular o aproximar la distribución de todas las incógnitas dadas las observaciones.
La inferencia variacional bayesiana (VB) es una familia de procedimientos de aproximación de la distribución de probabilidad determinista que ofrece claras ventajas sobre los enfoques alternativos basados en el muestreo estocástico y los que sólo proporcionan estimaciones puntuales. La inferencia VB es flexible para ser aplicada en diferentes problemas prácticos, pero es lo suficientemente amplia como para subsumir como casos especiales varios enfoques de inferencia alternativos, incluyendo el Máximo A Posteriori (MAP) y el algoritmo de Expectativa-Maximización (EM). La inferencia VB y la propagación de expectativas son métodos variacionales que minimizan los funcionales basados en la divergencia Kullback-Leibler (KL). También pueden establecerse fácilmente conexiones entre VB y la Propagación de la Creencia de Loopy (LBP) basada en la marginación.
En esta charla, ofrezco una visión personal de los métodos de modelado e inferencia bayesianos para problemas de recuperación (regresión) y clasificación de imágenes. Haré hincapié en la relación entre la divergencia KL y el límite inferior de evidencia (ELBO), los pros y los contras de los métodos bayesianos variacionales (VB), sus conexiones con otros métodos de inferencia y el uso de límites variacionales locales. La charla también incluirá una (breve) descripción de algunas aplicaciones de VB: deconvolución ciega de imágenes y colores, superresolución, procesos gaussianos (profundos), incertidumbre de activación en redes neuronales, clasificación de imágenes histológicas, aprendizaje de instancias múltiples, y crowdsourcing en medicina y el problema LIGO.
Grabación: Modelización e inferencia bayesiana con aplicaciones a la recuperación y clasificación de imágenes
Inteligencia Artificial en la nueva Agricultura Digital
Ponente: Salvador Gutiérrez
Fecha: 05/07/2021
Resumen: En la agricultura se busca una reducción de costes y de impacto ambiental, mejor sostenibilidad y un incremento de la calidad y el rendimiento del cultivo. Para lograr desarrollar aplicaciones útiles para agricultores se necesita información sobre el cultivo que puede utilizarse para tomar mejores decisiones. Los nuevos avances en tecnologías de sensórica no invasiva permiten la adquisición de grandes cantidades de datos del campo. Y dada la revolución que ha supuesto la inteligencia artificial, la combinación de ésta junto con los datos obtenidos de múltiples sensores permite la extracción de información útil para el agricultor. En esta presentación se expondrán los actuales avances de la IA y sensores en agricultura, principalmente en viticultura, y se plantearán y discutirán las líneas y retos futuros.
Grabación: Inteligencia Artificial en la nueva Agricultura Digital
La inteligencia artificial vista por la ética y el derecho
Primer Ponente (20 min.): Francisco Lara
Fecha: 10/05/2021
Título y Resumen: «Ética de la Inteligencia Artificial». En mi charla haré un breve repaso de las principales preguntas que se hacen los autores que están dedicándose a las cuestiones éticas en la IA, desde las más especulativas (sobre las posibilidades y efectos de la superinteligencia o el estatus de los robots) a las concretas e inmediatas (el sesgo o la falta de transparencia de los algoritmos). También hablaré algo de EthAI+, el proyecto que coordino actualmente y con el que pretendemos teorizar sobre un asistente virtual que mejorase las habilidades éticas de los seres humanos.
Segungo Ponente (20 min.): Juan Valls
Fecha: 10/05/2021
Título y Resumen: «Implicaciones del derecho y la inteligencia artificial». Se explicará el impacto de la tecnología en la sociedad y las consecuencias jurídicas que se pueden derivar de las mismas, tanto positivas como negativas. Para ello se analizará algunos sistemas de impacto en los Derechos Humanos de la inteligencia artificial. Finalmente, se verá lo que es un sistema de riesgo de inteligencia artificial.
Grabación: La inteligencia artificial vista por la ética y el derecho
Desarrollo de algoritmos de detección de comunidades dinámicas basados en estrategias evolutivas
Ponente: David Camacho
Fecha: 22/03/2021
Resumen: El seminario abordará una breve introducción a los algoritmos de detección de comunidades (Community Finding Algorithms), ampliamente estudiados en el área del Análisis de Redes de Grafos y la Computación basada en grados, donde se profundizará en la problemática de la detección de este tipo de grupos de nodos, o agrupaciones (clusters), cuando se modela como un problema temporal. Se proporcionará una breve introducción a los métodos de detección tradicionales (de carácter estático), y los más actuales que tratan de abordar el problema desde una perspectiva dinámica. En concreto, se describirá brevemente cómo se están utilizando estrategias bioinspiradas, concretamente algoritmos evolutivos (mono y multi objetivo) para tratar de encontrar comunidades estables y de calidad a lo largo del tiempo. Esta charla presentará brevemente el diseño, la implementación y el análisis empírico de un nuevo algoritmo genético multiobjetivo que combina un esquema basado en inmigrantes con estrategias de búsqueda local para la detección dinámica de comunidades.
Grabación: Desarrollo de algoritmos de detección de comunidades dinámicas basados en estrategias evolutivas
Inteligencia artificial, refugiados y seguridad fronteriza. Implicaciones éticas de los mundos tecnológico y político
Ponente: Ana Valdivia
Fecha: 08/02/2021
Resumen: En la última década, un gran número de personas se desplazan debido a la conflictividad, la inestabilidad, las consecuencias de la emergencia climática y otras razones económicas. En Europa, la llamada crisis de los refugiados se ha convertido en un campo de pruebas para explorar el uso de la inteligencia artificial para la aplicación de la ley y la seguridad fronteriza. Las bases de datos interoperables, el reconocimiento facial y el registro de huellas dactilares, la recopilación de datos del iris, los detectores de mentiras y otras formas de evaluación de riesgos basadas en datos forman ahora parte de las políticas fronterizas europeas para los refugiados.
En este seminario web, exploraremos qué sistemas sociotécnicos se aplican hoy en día en las fronteras europeas mediante el análisis de las especificaciones técnicas. A continuación, discutiremos el impacto ético y la violación de los derechos humanos que esta situación está provocando. Ahora es necesario que los informáticos e ingenieros de datos reconozcan cómo la tecnología puede perpetuar los daños, y colaboren con académicos de otras disciplinas para mitigar la discriminación.
EXplainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI
Ponente: Natalia Díaz Rodríguez
Fecha: 25/01/2021
Resumen: La visión general que se presenta en este artículo examina la literatura existente y las contribuciones ya realizadas en el campo de la XAI, incluyendo una perspectiva hacia lo que aún está por alcanzar. Para ello, resumimos los esfuerzos previos realizados para definir la explicabilidad en el Aprendizaje Automático, estableciendo una novedosa definición de Aprendizaje Automático explicable que cubre dichas propuestas conceptuales previas con un mayor enfoque en la audiencia para la que se busca la explicabilidad. Partiendo de esta definición, proponemos y discutimos sobre una taxonomía de contribuciones recientes relacionadas con la explicabilidad de diferentes modelos de Aprendizaje Automático, incluyendo aquellas dirigidas a explicar métodos de Aprendizaje Profundo para las que se construye y examina en detalle una segunda taxonomía dedicada. Este análisis crítico de la literatura sirve como trasfondo motivador de una serie de retos a los que se enfrenta la XAI, como la interesante encrucijada de la fusión de datos y la explicabilidad. Nuestras perspectivas conducen al concepto de Inteligencia Artificial Responsable, es decir, a una metodología para la implementación a gran escala de métodos de IA en organizaciones reales con la equidad, la explicabilidad del modelo y la responsabilidad en su núcleo. Nuestro objetivo final es proporcionar a los recién llegados al campo de la XAI una taxonomía exhaustiva que pueda servir como material de referencia para estimular futuros avances en la investigación, pero también para animar a los expertos y profesionales de otras disciplinas a abrazar los beneficios de la IA en sus sectores de actividad, sin ningún prejuicio previo por su falta de interpretabilidad.
Autoencoders: una visión general y aplicaciones
Ponente: David Charte
Fecha: 21/12/2021
Resumen: En esta charla, motivamos la necesidad de técnicas de aprendizaje de la representación, especialmente aquellas basadas en redes neuronales artificiales. Llegamos a una definición de autocodificadores que luego se desarrollan en un ejemplo paso a paso. A continuación, se describen e ilustran varias aplicaciones de los autocodificadores con estudios de casos y usos en la literatura. Por último, se hacen algunos comentarios sobre la situación actual y las posibles tendencias futuras.
Autoencoders: una visión general y aplicaciones (en Inglés)
Ética de la Inteligencia Artificial
Ponente: José Daniel Pascual Triana
Fecha: 23/11/2020
Resumen: La ética en la Inteligencia Artificial es la rama que busca incorporar los principios éticos y morales humanos al desarrollo y funcionamiento del aprendizaje por computador. Esto incluye, entre otras temáticas, la reducción de sesgos para favorecer la paridad, la transparencia y la auditoría de modelos.
DaSCI Readings
Son charlas cortas de un estudiante de doctorado de DaSCI que presenta los últimos resultados de las diferentes líneas de investigación de DaSCI.Cada día se harán dos exposiciones, cada una de 30 minutos aproximadamente, más 15 minutos para preguntas por exposición.
Análisis descriptivo de cáncer de mama usando minería de datos
Ponente: Manuel Trasierras Fresco
Fecha: 28/06/2021
Resumen: Este trabajo presenta una aproximación basada en minería de patrones emergentes para el análisis genómico del cáncer. A diferencia de la mayoría de las propuestas actuales basadas en aproximaciones predictivas, nuestra propuesta trata de mejorar el conocimiento de la enfermedad de manera descriptiva, sin considerar hipótesis de partida ni conocimiento previo. La metodología propuesta es capaz de obtener relaciones de alto orden para poder explorar relaciones génicas directas e indirectas que pueden influenciar diferentes rutas funcionales relacionadas con la enfermedad. La idea principal de la propuesta es que la división del conjunto de datos genómicos en dos subconjuntos pertenecientes a sanos y enfermos, nos permitirá obtener el conjunto de genes y relaciones intergénicas responsables de la enfermedad. La utilidad de la propuesta se pone a prueba evaluando un conjunto de muestras pareadas de cáncer de mama en formato RNA-Seq. Algunos de los resultados han sido validados en la literatura mientras que otros podrían describir nuevas relaciones funcionales entre diferentes genes.
PAF-ND: abordando la clasificación multi-clase no balanceada con Nested Dichotomies
Ponente: José Alberto Fernández Sánchez
Fecha: 28/06/2021
Resumen: Las tareas de clasificación multi-clase añaden dificultades adicionales al problema de clasificación binario desde varios frentes. Entre ellos, la posibilidad de obtener una distribución homogénea de las clases que intervienen suele ser una de las cuestiones más recurrentes en problemas reales. Esto da lugar a lo que se conocen como escenarios de aprendizaje no balanceado. En este trabajo, exploramos un método que permite mejorar la capacidad predictiva de los modelos cuando se utiliza un tipo de descomposición conocido como Nested Dichotomies. Nested Dichotomies es una solución que descompone jerárquicamente las clases del problema y que utiliza un método de inferencia basado en probabilidades. La propuesta que se presenta trata de modificar las estimaciones de probabilidad de estos modelos dentro de la jerarquía hacia una clasificación más equitativa de las clases mediante curvas de bézier.
Reduciendo la complejidad de los datos con autoencoders y funciones de pérdida con información de clase
Ponente: David Charte
Fecha: 15/03/2021
Resumen: Los datos que utilizamos para extraer conocimiento pueden presentar diferentes tipos de complejidad: solapamiento de clases, fronteras complejas, dimensionalidad, etc. En este trabajo proponemos y evaluamos tres modelos de autoencoder que ayudan a reducir la complejidad, aprendiendo de las etiquetas de clase, y comprobamos qué medidas de complejidad son mejores predictoras del rendimiento en clasificación.
Multi-step Histogram Based Outlier Scores for Unsupervised Anomaly Detection: ArcelorMittal Engineering Dataset Case of Study
Ponente: Ignacio Aguilera
Fecha: 15/03/2021
Resumen: La detección de anomalías es la tarea de detectar muestras que se comportan de forma distinta al resto de datos o que incluyen valores anormales. La detección de anomalías no supervisada es el escenario más extendido, lo que implica que los algoritmos no pueden entrenar con una entrada etiquetada y no saben cuál es el comportamiento anómalo de antemano. Los métodos basados en histogramas son una de las aproximaciones más populares y extendidas, otorgando un buen rendimiento y un tiempo de ejecución bajo. A pesar del buen rendimiento, los métodos de detección de anomalías basados en histogramas no son capaces de procesar flujos de datos actualizando su conocimiento interno, ni de tratar con grandes cantidades de muestras. En este artículo proponemos una nueva aproximación basada en histogramas para solventar los problemas mencionados introduciendo la capacidad de actualizar la información dentro de un histograma. Hemos aplicado estas estrategias para diseñar un nuevo algoritmo llamado Multi-step Histogram Based Outlier Scores (MHBOS), incluyendo cinco nuevos mecanismos de actualización de histogramas. MHBOS ha sido validado usando la biblioteca ODDS como un caso de uso general. Para validar la propuesta en un escenario real, se ha empleado un conjunto de ingeniería cedido por la empresa ArcelorMittal. Los resultados han mostrado el rendimiento y validez de MHBOS así como de las estrategias propuestas en términos no sólo de rendimiento, si no también en tiempos de cómputo.
StyleGAN: Fundamentos y evolución
Ponente: Guillermo López Trenado
Fecha: 22/02/2021
Resumen: Los sucesivos trabajos desarrollados por Tero Karras y su equipo en Nvidia han supuesto el estado del arte en GANs para generación de imágenes desde 2017. En este DaSCI Reading utilizaremos estos resultados como excusa para discutir sobre GANs, el proceso iterativo mediante el cual los autores fueron detectando y corrigiendo las limitaciones de los modelos, las soluciones tecnológicas que permitieron obtener tales resultados y las dificultades que podemos encontrar como investigadores si nos enfrentamos a tareas afines.
Transferencia de Aprendizaje desde el Reconocimiento de Acciones a la Detección de Anomalías utilizando Aprendizaje Débilmente Supervisado
Ponente: Francisco Luque
Fecha: 18/01/2021
Resumen: El campo de la videovigilancia automática es un área de investigación emergente, en la que aparecen múltiples publicaciones diariamente. En particular, el campo de la detección de comportamientos anómalos en vídeos resulta bastante relevante. El principal enfoque que se da a esta problemática a día de hoy consiste en preentrenar los modelos para la tarea del reconocimiento de acciones, y posteriormente afinar los modelos utilizando aprendizaje débilmente supervisado para la detección de anomalías. En este estudio, el objetivo es identificar los aspectos fundamentales de estas soluciones, y medir la importancia de cada una de las decisiones en el proceso de entrenamiento del modelo. Para tratar de medir este impacto, en este trabajo se propone una secuencia específica de entrenamiento, en la que la solución final se define por tres aspectos fundamentales: el modelo de clasificación de acciones empleado, el conjunto de preentrenamiento, y la política de refinamiento débilmente supervisada del modelo. Además, se realizan una serie de experimentos para medir el impacto de estas tres decisiones en la solución final.
Sistema Inteligente de Monitoreo Remoto para la prevención De La Formación de úlceras Por Presión a través de las TIC.
Ponente: Edna Rocio Bernal Monroy
Fecha: 18/01/2021
Resumen: Las úlceras por presión (UPP) son una complicación que se presenta en personas con movilidad reducida y que requieren de atención constante por parte de las personas que las atienden, siendo una patología frecuente en personas mayores. Una estadística importante que revalida esta situación es la que reporta el Grupo Nacional para el Estudio y el Asesoramiento en Úlceras por Presión y Heridas Crónicas, en 2013 reportó un aumento de personas con este padecimiento, pasando del 7,9 % al 9,1 % en los programas de atención domiciliaria y del 12,6 % al 14,2 % en los centros sociosanitarios.
El sistema inteligente de monitoreo en personas mayores, actualmente se encuentra desarrollado las siguientes actividades: 1) Uso de dispositivos wearable inerciales en zonas no invasivas, encargados de registrar el tiempo en que la persona ha permanecido en la misma posición, 2) Recolección de datos en pacientes reales en diversas posturas. 3) Aprendizaje de posturas mediante Machine Learning. El cálculo de las posturas integrado en un sistema inteligente ayudará a los cuidadores a reducir el estrés, al conocer los tiempos y posturas de forma objetiva, permitiendo personalizar el tratamiento según las necesidades de cada paciente.
El sistema inteligente mediante datos entrenados calcula la postura de la persona en tiempo real usando dispositivos no invasivos en un porcentaje mayor al 90 %, con esta solución se pretende minimizar el riesgo de aparición de UPP en personas mayores significativamente.
Estudio de COVID-19 basado en radiografías de tórax de paciente
Ponente: Anabel Gómez
Fecha: 06/11/2020
Resumen: La COVID-19 está siendo una de las enfermedades más infecciosas del s. XXI. Debido a la importancia de su detección temprana, están surgiendo nuevas formas para intentar detectarla. En este estudio, nos centramos en la detección mediante radiografías de tórax, viendo los problemas de las bases de datos más usadas para este fin. Proponemos una nueva base de datos y una metodología que nos permite detectar casos de COVID-19 con una precisión del 76.18%, por encima de precisiones obtenidas por expertos.
COVID-19 is becoming one of the most infectious diseases of the 21st century. Due to the importance of its early detection, new ways to detect it are emerging. In this study, we focus on its detection using chest X-rays, pointing out the main problems of the most used data sets for this purpose. We propose a new data set and a new methodology that allows us to detect cases of COVID-19 with an accuracy of 76.18%, which is higher than the accuracies obtained by experts.
Restauración de imágenes usando redes no adversarias. Hacia una comprensión semántica más profunda de las imágenes
Ponente: Guillermo Gómez
Fecha: 06/11/2020
Resumen: En este trabajo exploramos el problema de restauración de imágenes desde una perspectiva no adversaria ¿Podemos utilizar modelos generativos generalistas para resolver problemas distintos a aquellos para los que se diseñó? ¿Adquieren las redes un conocimiento profundo sobre la naturaleza de las imágenes que generan que les permita reflexionar sobre ellas? Proponemos una metodología novedosa para el problema de restauración de imágenes utilizando el conocimiento implícito en modelos generativos no adversarios.
Metodología Sentiment Analysis based Multi-person Multi-criteria Decision Making (SA-MpMcDM)
Ponente: Cristina Zuheros
Fecha: 30/11/2020
Resumen: Los modelos de toma de decisiones tradicionales están limitados por el uso de evaluaciones numéricas y/o términos lingüísticos predefinidos. Presentamos la metodología SA-MpMcDM, que permite a los expertos evaluar las alternativas libremente mediante lenguaje natural ilimitado e incluso mediante valoraciones numéricas. Proponemos un modelo de deep learning para extraer el conocimiento experto presente en dichas evaluaciones. Evaluamos la metodología en un caso de estudio real que recopilamos en el conjunto de datos TripR-2020.
MonuMAI: Extracción de información arquitectónica de monumentos mediante técnicas de Deep Learning
Ponente: Alberto Castillo
Fecha: 30/11/2020
Resumen: Una parte importante de la historia del arte puede descubrirse a través de la información visual en las fachadas de monumentos. Sin embargo, el análisis de la información visual, por ejemplo morfología y elementos arquitectónicos, requieren de conocimiento experto. Un sistema automático para identificar el estilo arquitectónico y detectar sus elementos en un monumento a partir de una imagen ayudaría sin duda a aumentar nuestro conocimiento en historia del arte.
La finalidad de este seminario es presentar la estructura de MonuMAI (Monumentos con matemáticas e inteligencia artificial) publicada en el trabajo [1]. Particularmente, diseñamos el conjunto de datos MonuMAI teniendo en cuenta la taxonomía de estilos arquitectónicos propuesta, desarrollamos el flujo de Deep Learning de MonuMAI, y construimos la app para ciencia ciudadana MonuMAI basada en el flujo y conjunto de datos presentados con la finalidad del desempeño en condiciones reales.
[1] Lamas, Alberto & Tabik, Siham & Cruz, Policarpo & Montes, Rosana & Martínez-Sevilla, Álvaro & Cruz, Teresa & Herrera, Francisco. (2020) MonuMAI: Dataset, deep learning pipeline and citizen science based app for monumental heritage taxonomy and classification. Neurocomputing. doi.org/10.1016/j.neucom.2020.09.041