DaSCI Readings
Son charlas cortas a cargo de un estudiante de doctorado del DaSCI que presenta resultados recientes en las diferentes líneas de investigación del DaSCI. Dos presentaciones por día. Cada presentación tendrá una duración aproximada de 30 minutos, seguida de 15 minutos para preguntas
DaSCI Readings 2024
DaSCI Readings 2023
Las sorprendentes propiedades de los pesos de los modelos Deep Learning y su relación con la Privacidad Diferencial
Ponente: Daniel Jiménez López
Fecha: 17/10/2023
Resumen: Los pesos de los modelos Deep Learning (DL) ocultan una cantidad sorprendente de información. Por ejemplo, los pesos de un modelo entrenado permiten reconstruir algunos datos de entrenamiento o inferir la presencia de algún individuo en el conjunto de entrenamiento. Por suerte, técnicas de defensa de la privacidad, como la privacidad diferencial mantienen la privacidad de los datos de entrenamiento, evitando la extracción de información privada. Curiosamente los pesos de los modelos DL ocultan información que va más allá de la privacidad. ¡Se pueden utilizar para inferir el rendimiento del modelo, sin usar conjuntos de datos!. En esta charla, vamos a explorar si la privacidad diferencial deja huella en los pesos de los modelos y a maravillarnos de como casi siempre podemos hacer esto, independientemente de los datos de entrenamiento y de la arquitectura del modelo.
Explicando las salidas de modelos basados en agentes usando descubrimiento de subgrupos
Ponente: Elena Romero Contreras
Fecha: 07/10/2023
Resumen: Los modelos basados en agentes son una herramienta ampliamente utilizada para simular sistemas complejos reales. Durante la simulación se genera un gran volumen de datos sobre las acciones de los agentes que es difícil de analizar y comprender. Para abordar este problema, proponemos el uso de técnicas de machine learning explicables, en particular, algoritmos de descubrimiento de subgrupos. Estos algoritmos extraen relaciones entre características que explican el comportamiento de subgrupos de agentes estadísticamente interesantes con respecto a una propiedad de interés, generando un conjunto de reglas. Demostramos la efectividad de nuestra propuesta con un caso de estudio en el área de marketing. Los resultados muestran que nuestra metodología proporciona una comprensión más profunda del comportamiento de los consumidores y de las dinámicas del mercado, proporcionando potenciales áreas de oportunidad para los expertos en marketing
.
Modelos de visión por computador basados en DL para la resolución de problemas en la industria siderúrgica
Ponente: Marta Fernández Moreno
Fecha: 09/05/2023
Resumen: Uno de los mayores desafíos en casos de uso reales dentro del mundo industrial es la generación de datos etiquetados que permitan crear soluciones óptimas. La generación de este tipo de conjuntos de datos es compleja y requiere tiempo de etiquetado por parte de expertos, que cuentan con tiempo muy limitado para este tipo de tareas. Este problema se intensifica aún más en el caso de la segmentación de imágenes, donde se requieren etiquetas detalladas y precisas. En este contexto, se investiga el uso de técnicas de visión por computador basadas en Deep Learning con el fin de solucionar este problema y reducir el tiempo y esfuerzo necesario para la tarea de etiquetado.
Apoyo en la toma de decisiones en superposición craneofacial usando la métrica de Likelihood Ratio
Ponente: Práxedes Martínez Moreno
Fecha: 09/05/2023
Resumen: La evaluación de evidencias para su presentación ante un tribunal ha sido objeto de debate en las últimas décadas. Muchos sistemas biométricos basados en scores, como los sistemas automáticos de reconocimiento de voz, ADN o huellas dactilares, se han propuesto en la literatura como fuente de información para la evaluación de evidencias en casos forenses. Sin embargo, se ha demostrado que implican un proceso de toma de decisiones subjetivo, no robusto y menos informativo. En 2016, la European Network of Forensic Science Institutes (ENFSI) publicó una guía para evaluar, interpretar y presentar pruebas científicas, que apoya el uso de un modelo probabilístico basado en el Teorema de Bayes y la métrica Likelihood Ratio (LR) para la evaluación e interpretación de diferentes tipos de evidencias. Por este motivo y debido a la falta de propuestas basadas en esta métrica para la identificación de restos óseos, se propone una metodología para aplicar este framework en superposición craneofacial (CFS).
Estimación del perfil biológico en vivos y muertos usando inteligencia artificial
Ponente: Javier Venema Rodríguez
Fecha: 21/03/2023
Resumen: La estimación del perfil biológico (PB), constituido por edad, sexo, origen poblacional y estatura, es una tarea de gran importancia e interés en el ámbito de la antropología forense. En muertos, el análisis de restos óseos para estimar el PB de un individuo es utilizado como una primera etapa para restringir, de forma rápida y económica, el número de individuos al que pueden pertenecer esos restos. En vivos, la estimación de la edad es un problema de gran interés en el ámbito migratorio. Sin embargo, los métodos tradicionales de estimación del PB son subjetivos y manuales, lo cual es problemático en el ámbito médico-legal. Como alternativa, el uso de técnicas de Inteligencia Artificial (IA) podría permitir automatizar muchos de estos procesos, eliminando esa subjetividad y acortando tiempos de identificación. El seminario tratará sobre este último punto: la creación de un sistema basado en IA que permita la estimación automática del PB de una forma fiable, rápida, objetiva y explicable usando diversas fuentes de información (imágenes radiológicas de diferente tipo y dimensión, información de diferentes regiones anatómicas, imágenes de huesos y metadatos). Se profundizará en por qué la estimación del PB es relevante, qué hemos hecho hasta el momento y en qué estamos trabajando, qué resultados hemos obtenido hasta ahora, qué dificultades estamos encontrando y cuáles son nuestros objetivos. Todo ello involucra el uso de técnicas de aprendizaje automático y visión por computador para resolver problemas de clasificación y regresión usando imágenes y modelos 3D de huesos, imágenes médicas 2D (radiografías) y 3D (TACs), y datos tabulares relativos a los individuos a los que pertenecen las imágenes.
Aplicación de IA neurosimbólica para Procesos de Decisión Secuencial
Ponente: Carlos Núñez Molina
Fecha: 21/03/2023
Resumen:
A lo largo de la historia de la IA han surgido dos acercamientos principales: la IA simbólica y la IA subsimbólica/conexionista. El acercamiento simbólico, predominante hasta finales de los 80, sostiene que la manipulación de símbolos constituye una parte fundamental de la inteligencia y, de este modo, propone crear sistemas de IA basados en el conocimiento y el razonamiento. Por el contrario, el acercamiento subsimbólico, predominante desde los 80 hasta nuestros días, propone construir sistemas de IA basados en el aprendizaje a partir de datos, como es el caso del Deep Learning.
En su tesis se abordan problemas de decisión secuencial, en el que un agente debe tomar una serie de decisiones para conseguir unos objetivos a largo plazo. En este campo, también existe una división entre los métodos simbólicos y subsimbólicos, personificada por los campos de la Planificación Automática (AP) y el Aprendizaje por Refuerzo (RL), respectivamente. De esta forma, el objetivo principal de mi tesis es diseñar métodos neuro-simbólicos que combinen la parte «simbólica» del AP, mediante una representación explícita del conocimiento y métodos de razonamiento sobre este, con la parte «neuro» del RL, mediante el uso de redes neuronales que permitan aprender de manera eficiente a partir de datos.
DaSCI Readings 2022
Aprendizaje por refuerzo profundo en simulaciones basadas en agentes para planificación de medios
Ponente: Víctor Alejandro Vargas Pérez
Fecha: 26/04/2022
Resumen: Los modelos basados en agentes son una técnica de simulación apropiada para recrear sistemas complejos reales, como pueden ser los abordados en marketing. Por su parte, el aprendizaje por refuerzo consiste en aprender una política de comportamiento que maximice una señal de recompensa a largo plazo. En este trabajo desarrollamos un agente de aprendizaje por refuerzo profundo que representa a una marca en un modelo basado en agentes para marketing. El objetivo de este agente inteligente es obtener una estrategia de inversión publicitaria que mejore el reconocimiento de dicha marca. A diferencia de las estrategias de inversión convencionales, la estrategia aprendida es dinámica, por lo que el agente toma sus decisiones de inversión on-line basándose en su observación actual del entorno. Elegimos el algoritmo Double Deep Q-Network para entrenar al agente sobre un conjunto de instancias del modelo, cada una de ellas con diferentes dinámicas en el reconocimiento de marca. En primer lugar ajustamos un subconjunto de los hiperparámetros de Double Deep Q-Network sobre dos de las instancias del modelo y posteriormente usamos la mejor configuración para entrenar al agente sobre todas las instancias. El agente marca aprende una política dinámica que logra mayores niveles de reconocimiento de marca que una política estática de referencia. Realizamos un análisis de la política obtenida, donde observamos que el agente marca tiende a aumentar la inversión en los medios de comunicación con mayor impacto, pero invirtiendo también en otros medios según la situación y las características de la instancia. Estos resultados muestran los beneficios de usar un entorno de aprendizaje dinámico on-line en un sistema de apoyo a la decisión para la planificación de medios en marketing.
EvoPruneDeepTL: An Evolutionary Pruning Approach for Transfer Learning based Deep Neural Networks
Ponente: Javier Poyatos Amador
Fecha: 26/04/2022
Resumen: Encontrar la mejorar aquitectura de Deep Learning para el problema a resolver es difícil. En los últimos años, la evolución de redes neuronales ha permitido conocer la tolopogía adecuada para ciertos problemas. Por otra parte, la técnica de pruning tiene como objetivo primordial reducir el número de parámetros entrenables de la red, pero a costa de un rendimiento inferior de la misma. Además, el hecho de eliminar parámetros que afectan a la red completa conlleva un re-entrenamiento completo de la red, lo cual es solventado gracias al Transfer Learning, que nos permite fijar unos buenos pesos para la parte convolucional de la red. EvoPruneDeepTL es un modelo evolutivo de pruning basado en Transfer Learning que combina redes dispersas con un algoritmo evolutivo, de forma que las neuronas son eliminadas para adapar la red al problema a resolver. La evolución de estas redes pruneadas han conseguido mejorar la precisión de la red y, al mismo tiempo, la reducción de la complejidad de la parte densa de la red.
Explicabilidad en Inteligencia Artificial: cómo generar y comparar explicaciones
Ponente: Iván Sevillano García
Fecha: 01/03/2022
Resumen: La inteligencia artificial explicable se propone en la literatura para ofrecer explicaciones a razonamientos que realiza una máquina. Sin embargo, no existe consenso en cómo evaluar la calidad de estas explicaciones. En concreto, para las ampliamente conocidas Local Linear Explanations, existen propuestas cualitativas para la evaluación de explicaciones, aunque sufren de inconsistencias teóricas. En este artículo revisamos a nivel teórico la definición de estas métricas y proponemos una serie de métricas más robustas teóricamente. Tambien utilizamos nuestra nueva propuesta para realizar un análisis del estado del arte de los métodos de caja negra, LIME y SHAP, extrallendo la información que estas nuevas métricas nos ofrecen sobre 4 conjuntos de datos de imágenes.
CI-dataset and DetDSCI methodology for detecting too small and too large critical infrastructures in satellite images: Airports and electrical substations as case study
Ponente: Francisco Pérez Hernández
Fecha: 01/03/2022
Resumen: La detección de infraestructuras críticas en grandes territorios representados por imágenes aéreas y de satélite es de gran importancia en varios campos como la seguridad, la detección de anomalías, la planificación del uso del suelo y la detección de cambios en el uso del suelo. Sin embargo, la detección de estas infraestructuras es compleja, ya que tienen formas y tamaños muy variables, es decir, algunas infraestructuras, como las subestaciones eléctricas, son demasiado pequeñas, mientras que otras, como los aeropuertos, son demasiado grandes. Además, los aeropuertos pueden tener una superficie demasiado pequeña o demasiado grande con formas completamente diferentes, lo que hace que su correcta detección sea un reto. Este trabajo presenta (1) un conjunto de datos de Infraestructuras Críticas especializado, denominado CI-dataset, organizado en dos escalas, infraestructuras críticas de pequeña y gran escala, y (2) una metodología de detección de infraestructuras críticas independiente de la resolución en dos niveles (DetDSCI) que primero determina la resolución espacial de la imagen de entrada utilizando un modelo de clasificación, y luego analiza la imagen utilizando el detector apropiado para esa resolución espacial. El presente estudio se centra en dos clases representativas, los aeropuertos y las subestaciones eléctricas. Nuestros experimentos muestran que la metodología DetDSCI consigue una mejora en F1 de hasta el 37,53% con respecto a un modelo base.
DaSCI Readings 2021
Autoencoders, and overview and applications
Ponente: David Charte
Fecha: xx/12/2021
Resumen:
Grabación: Autoencoders, and overview and applications
Descriptive analysis of breast cancer using data mining
Ponente: Manuel Trasierras Fresco
Fecha: 28/06/2021
Resumen: This work presents an approach based on emerging pattern mining to analyse cancer through genomic data. Unlike existing approaches, mainly focused on predictive purposes, this proposal aims to improve the understanding of cancer descriptively, not requiring either any prior knowledge or hypothesis to be validated. Additionally, it enables to consider high-order relationships, so both direct and indirect gene relationships related to different functional pathways in the disease can be retrieved. The prime hypothesis is that splitting genomic cancer data into two subsets, that is, cases and controls, will allow us to determine which genes, and their expressions, are associated with the disease. The possibilities of the proposal are demonstrated by analysing a set of paired breast cancer samples in RNA-Seq format. Some of the extracted insights were already described in the related literature as good cancer biomarkers, while others could describe new functional relationships between different genes.
PAF-ND: addressing multi-class imbalance learning with Nested Dichotomies
Ponente: José Alberto Fernández Sánchez
Fecha: 28/06/2021
Resumen: Multi-class classification tasks add additional difficulties to the binary classification problem from several sides. Among them, the possibility of obtaining a homogeneous distribution of the classes involved is often one of the most recurring issues in real world problems. This issue leads to what are known as imbalanced learning scenarios. In this work, we explore a method that improves the predictive ability of models when using a type of decomposition strategy known as Nested Dichotomies. Nested Dichotomies is a solution that hierarchically decomposes the classes of the problem and uses an inference method based on probabilities. The method presented here attempts to modify the probability estimates of these models within the hierarchy towards a more equitable classification of the classes by means of Bézier curves.
Reducing Data Complexity using Autoencoders with Class-informed Loss Functions
Ponente: David Charte
Fecha: 15/03/2021
Resumen: The data we currently use for knowledge extraction can show different kinds of complexity: class overlap, complex boundaries, dimensionality, etc. This work proposes and evaluates three autoencoder-based models which help reduce complexity by learning from class labels. We also check which complexity measures are better predictors of classification performance.
Multi-step Histogram Based Outlier Scores for Unsupervised Anomaly Detection: ArcelorMittal Engineering Dataset Case of Study
Ponente: Ignacio Aguilera
Fecha: 15/03/2021
Resumen: Multi-step Histogram Based Outlier Scores for Unsupervised Anomaly Detection: ArcelorMittal Engineering Dataset Case of Study.
Abstract: Anomaly detection is the task of detecting samples that behave differently from the rest of the data or that include abnormal values. Unsupervised anomaly detection is the most extended scenario, which means that the algorithms cannot train with a labeled input and do not know the anomaly behavior beforehand. Histogram-based methods are one of the most popular and widely used approaches, remarking a good performance and a low runtime. Despite the good performance, histogram-based anomaly detectors are not capable of processing data flows while updating their knowledge and deal with a high amount of samples. In this paper we propose a new histogram-based approach for addressing the aforementioned problems introducing the ability of updating the information inside a histogram. We have applied these strategies to design a new algorithm called Multi-step Histogram Based Outlier Scores (MHBOS), including five new histogram update mechanisms. MHBOS has been validated using the ODDS Library as a general case of use. A real engineering problem provided by the multinational company ArcelorMittal has been used to further validate the performance in a real scenario. The results have shown the performance and validity of MHBOS as well as the proposed strategies in terms of performance and computing times.
StyleGAN: Background and evolution
Ponente: Guillermo Gómez Trenado
Fecha: 22/02/2021
Resumen: The work developed by Tero Karras and his team at Nvidia has been the state-of-the-art in GAN for image generation since 2017. In this DaSCI reading we’ll use this results to discuss different aspects of GAN, the iterative process by which the authors detected and corrected the limitations of their work, the technological solutions that allowed such results and the difficulties that we may find if we face related tasks.
Action Recognition for Anomaly Detection using Transfer Learning and Weak Supervision
Ponente: Francisco Luque
Fecha: 18/01/2021
Resumen: Automatic video surveillance is an emerging research area, where a huge number of publications are appearing everyday. Particularly, action anomaly detection is a fairly relevant task nowadays. The mainstream approach to the problem using deep models consists in transfer learning from action recognition and weakly supervised fine-tuning for anomaly detection. The objective of the current study is to identify the key aspects of this approaches, and assess the importance of each decision on the training process. To this end, we propose a specific pipeline, where a model is defined by three key aspects: the action recognition model, the pretraining dataset and the weakly supervised fine-tuning policy. Furthermore, we perform extensive experiments to validate the impact of each of the previous aspects in the final solution.
Fuzzy Monitoring of In-bed Postural Changes for the Prevention of Pressure Ulcers using Inertial Sensors Attached to Clothing
Ponente: Edna Rocío Bernal Monroy
Fecha: 18/01/2021
Resumen: Postural changes while maintaining a correct body position are the most efficient method of preventing pressure ulcers. However, executing a protocol ofpostural changes over a long period of time is an arduous task for caregivers.To address this problem, we propose a fuzzy monitoring system for posturalchanges which recognizes in-bed postures by means of micro inertial sensors attached to patients’ clothes. First, we integrate a data-driven model to classifyin-bed postures from the micro inertial sensors which are located in the socksand t-shirt of the patient. Second, a knowledge-based fuzzy model computes thepriority of postural changes for body zones based on expert-defined protocols.Results show encouraging performance in the classification of in-bed posturesand high adaptability of the knowledge-based fuzzy approach.
DaSCI Readings 2020
COVID-19 study based on chest X-rays of patients
Ponente: Anabel Gómez
Fecha: 06/11/2020
Resumen: COVID-19 is becoming one of the most infectious diseases of the 21st century. Due to the importance of its early detection, new ways to detect it are emerging. In this study, we focus on its detection using chest X-rays, pointing out the main problems of the most used data sets for this purpose. We propose a new data set and a new methodology that allows us to detect cases of COVID-19 with an accuracy of 76.18%, which is higher than the accuracies obtained by experts.
Image inpainting using non-adversarial networks. Towards a deeper semantic understanding of images
Ponente: Guillermo Gómez
Fecha: 06/11/2020
Resumen: In this study we explore the problem of image inpainting from a non-adversarial perspective. Can we use general generative models to solve problems other than those for which it was trained to? Do models acquire a deeper and transferable knowledge about the nature of the images they generate? We propose a novel methodology for the image inpainting problem using the implicit knowledge acquired in non-adversarial generative models.
Sentiment Analysis based Multi-person Multi-criteria Decision Making (SA-MpMcDM) Methodology
Ponente: Cristina Zuheros
Fecha: 30/11/2020
Resumen: Traditional decision making models are limited by pre-defined numerical and linguistic terms. We present the SA-MpMcDM methodology, which allows experts to evaluate through unlimited natural language and even through numerical ratings. We propose a deep learning model to extract the expert knowledge from the evaluations. We evaluate the methodology in a real case study, which we collect into the TripR-2020 dataset
MonuMAI: Architectural information extraction of monuments through Deep Learning techniques
Ponente: Alberto Castillo
Fecha: 30/11/2020
Resumen: An important part of art history can be discovered through the visual information in monument facades. However, the analysis of this visual information, i.e, morphology and architectural elements, requires high expert knowledge. An automatic system for identifying the architectural style or detecting the architectural elements of a monument based on one image will certainly help improving our knowledge in art and history.
The aim of this seminary is to introduce the MonuMAI (Monument with Mathematics and Artificial Intelligence) framework published in the related work [1]. In particular, we designed MonuMAI dataset considering the proposed architectural styles taxonomy, developed MonuMAI deep learning pipeline, and built citizen science based MonuMAI mobile app that uses the proposed deep learning pipeline and dataset for performing in real life conditions.
[1] Lamas, Alberto & Tabik, Siham & Cruz, Policarpo & Montes, Rosana & Martínez-Sevilla, Álvaro & Cruz, Teresa & Herrera, Francisco. (2020) MonuMAI: Dataset, deep learning pipeline and citizen science based app for monumental heritage taxonomy and classification. Neurocomputing. doi.org/10.1016/j.neucom.2020.09.041