DaSCI Lectures
Charlas de un investigador principal del DaSCI que presenta los últimos avances en las líneas de investigación consolidadas del Instituto. Se realizan online por ZOOM y tienen una duración aproximada de 1 hora y 30 minutos (45 min. de exposición y 30 minutos para preguntas).
DaSCI Lectures 2023
Análisis sintáctico sencillo y eficaz con etiquetado de secuencias
Ponente: Carlos Gómez Rodríguez (Murcia, 1982) es Ingeniero (2005) y Doctor (2009) en Informática por la Universidade da Coruña (UDC), y actualmente es Catedrático del área de Ciencias de la Computación e Inteligencia Artificial en dicha institución. Desde 2018 coordina el área Innova Humanitas dentro del campus Innova de la UDC, cuyo objetivo es especializar a la institución en la intersección entre tecnología y humanidades. Su investigación se centra en el campo de la lingüística computacional, especialmente en análisis sintáctico y minería de opiniones, habiendo publicado más de 140 publicaciones revisadas por pares, incluyendo 33 en congresos de primer nivel (Clase 1 en la clasificación GGS) y 34 en revistas indexadas en ISI JCR. Fue el investigador principal del proyecto FASTPARSE (Fast Natural Language Parsing for Large-Scale NLP), financiado con 1 481 747 € por el Consejo Europeo de Investigación (ERC) en la convocatoria Starting Grants 2016, y actualmente lo es de un proyecto ERC Proof-of-Concept (SALSA: Syntactic Analysis for Large-Scale Sentiment Analysis) financiado con 150 000 €. También es IP de un proyecto del Plan Nacional de I+D, y de un proyecto regional Oportunius, y supervisa a un becario postdoctoral MSCA.
Fecha: 30/05/2023
Resumen: El análisis sintáctico, la tarea de encontrar la estructura interna de una frase, se ha considerado tradicionalmente un componente clave de los sistemas de procesamiento del lenguaje natural. Sin embargo, los métodos de análisis sintáctico suelen ser lentos y ad hoc, lo que limita su adopción en la práctica. En esta charla, discutiré el marco de análisis sintáctico como etiquetado de secuencias, introducido por primera vez por nuestro equipo en 2018 y perfeccionado continuamente desde entonces. Este enfoque reduce el problema de análisis sintáctico a una tarea estándar de etiquetado de secuencias mediante la definición de codificaciones que representan árboles sintácticos como secuencias de etiquetas discretas asociadas con palabras. Esto nos permite utilizar cualquier sistema de etiquetado de secuencias estándar como analizador sintáctico, lo que tiene varias ventajas: (1) eficiencia computacional mejorada en comparación con enfoques anteriores, (2) una barrera de entrada reducida, ya que los profesionales pueden aprovechar el análisis sintáctico sin dominar algoritmos específicos de la tarea y sin manipular árboles, y (3) flexibilidad mejorada, lo que permite la integración del análisis sintáctico con otras tareas a través del aprendizaje multitarea.
Grabación: Análisis sintáctico sencillo y eficaz con etiquetado de secuencias
Hacia sistemas informáticos vestibles orientados a la comunidad: Un cambio de paradigma para supervisar y controlar grupos cooperativos de personas basados en colectivos de wearables
Ponente: Giancarlo Fortino (IEEE Fellow 2022) es catedrático de Ingeniería Informática en el Departamento de Informática, Modelado, Electrónica y Sistemas de la Universidad de Calabria (Unical), Italia. Se doctoró en Ingeniería Informática por la Unical en 2000. También es profesor distinguido en la Universidad Tecnológica de Wuhan y en la Universidad Agrícola de Huazhong (China), experto de alto nivel en la HUST (China), investigador principal en el Instituto italiano ICAR-CNR, científico visitante CAS PIFI en SIAT – Shenzhen y conferenciante distinguido del Consejo de Sensores del IEEE. En Unical, es el delegado del rector para las relaciones internacionales, el presidente de la Escuela de Doctorado en TIC, el director del curso de Máster de Postgrado en INTER-IoT, y el director del laboratorio SPEME, así como copresidente de los laboratorios conjuntos sobre IoT establecidos entre Unical y WUT, SMU y HZAU universidades chinas, respectivamente. Fortino es actualmente el responsable científico del grupo de Salud Digital del Laboratorio Nacional Italiano CINI en Unical. Es Investigador Altamente Citado 2020-2022 en Ciencias de la Computación por Clarivate. Actualmente tiene 20 artículos altamente citados en WoS, y h-index=73 con cerca de 20000 citas en Google Scholar.
Fecha: 17/03/2023
Resumen: Gartner estima que el mercado mundial de los sistemas informáticos inteligentes para llevar puestos (WCS) superará los 100.000 millones de dólares en 2024. La industria y el sector público apuestan entonces por soluciones WCS innovadoras con altos niveles de fiabilidad y confiabilidad que puedan operar eficientemente en escenarios cada vez más complejos. Se han hecho grandes esfuerzos para realizar WCS para la monitorización 24/7 de usuarios individuales basados en arquitecturas de 3 niveles que implican wearables, edge y sistemas en la nube. Sin embargo, los nuevos requisitos, dirigidos específicamente a usuarios múltiples cooperativos, exigen enfoques radicalmente nuevos, como los promovidos por la WCS orientada a la comunidad (CO-WCS). En esta ponencia, presentamos en primer lugar una visión general de la WCS basada en la investigación y el desarrollo de SPINE Body of Knowledge (https://projects.dimes.unical.it/spine-bok/). A continuación, nos centraremos en los requisitos de la próxima generación de CO-WCS basados en un enfoque orientado a casos de uso. Por último, hablaremos de los modelos, arquitecturas y herramientas que serían necesarios para implantar CO-WCS.
Enfoques de meta-aprendizaje para la clasificación de imágenes de pocas muestras
Ponente: Isaac Triguero Velázquez se licenció y doctoró en Informática por la Universidad de Granada en 2009 y 2014, respectivamente. Actualmente disfruta de una Distinguished Senior Research Fellowship en la Universidad de Granada, haciendo una pausa docente en su puesto de Profesor Asociado de Ciencia de Datos en la Universidad de Nottingham. Su trabajo se centra principalmente en la investigación de nuevas metodologías para el análisis de grandes volúmenes de datos. El Dr. Triguero ha publicado más de 90 artículos internacionales en los campos de Big Data, Machine Learning y Optimización (H-index=32 y más de 4400 citas en Google Scholar).
Fecha: 07/02/2023
Resumen:
Hasta la fecha, la idea de una Inteligencia Artificial General, es decir, una inteligencia de máquina que pueda realizar cualquier tarea intelectual de cualquier ser humano, o incluso superarla, ha seguido siendo una aspiración. Las técnicas actuales de aprendizaje automático y optimización suelen requerir conocimientos humanos para hacerlas funcionar y, en muchos casos, necesitan grandes cantidades de datos para extraer patrones de significado. Sin embargo, actualmente se están desarrollando estrategias en la dirección de la Inteligencia Artificial de propósito general. Uno de estos ejemplos es el conocido como few shot learning. La clasificación de imágenes de pocos disparos es el campo de investigación más estudiado del aprendizaje de pocos disparos, que intenta aprender un nuevo concepto visual a partir de imágenes etiquetadas limitadas. Las técnicas convencionales de aprendizaje profundo no pueden aplicarse sin más para resolver el problema, ya que se ven obstaculizadas por dos problemas fundamentales del aprendizaje de pocos disparos, a saber, la falta de información y las incertidumbres intrínsecas.
En esta charla, comenzaré con una breve introducción al aprendizaje de pocos disparos para la clasificación de imágenes. A continuación, presentaré algunos de los trabajos que hemos realizado para tratar la falta de información y la incertidumbre en este contexto. En particular, discutiré los enfoques de meta-aprendizaje para la clasificación de imágenes de pocos disparos, incluyendo un método para aprender a agregar incrustaciones, un pooling adaptativo basado en la atención espacial, y el uso de información auxiliar, como los mapas de saliencia, para mitigar los problemas centrales del aprendizaje de pocos disparos.
Grabación: Enfoques de meta-aprendizaje para la clasificación de imágenes de pocas muestras
DaSCI Lectures 2022
DSGAME, el juego de mesa de la Ciencia de Datos
Ponente: Isaac Martín de Diego es profesor titular en la Universidad Rey Juan Carlos desde 2018. Es cofundador y coordinador del Laboratorio de Ciencia de Datos. Dirige el grupo de investigación en Fundamentos y Aplicaciones de la Ciencia de Datos, así como un grupo de innovación docente asociado. Tiene más de 25 años de experiencia en análisis de datos en diferentes sectores: medicina, economía, telecomunicaciones, ganadería, marketing, energía, etc. Es autor de más de 50 artículos en JCR y más de 70 comunicaciones a congresos. Ha participado en más de 25 proyectos de I+D+i financiados en convocatorias competitivas y en más de 25 contratos de I+D+i no competitivos.
Fecha: 12/01/2022
Resumen: El DSGAME es un juego de mesa diseñado por el Laboratorio de Ciencia de Datos, DSLAB, de la URJC, con la colaboración de la Academia Joven de España. El objetivo del juego es construir un proyecto completo de Ciencia de Datos, desde la adquisición de datos en una compañía interesada en un determinado problema, hasta el desarrollo del producto final, pasando por todas las fases relativas a la limpieza de datos, modelado mediante Aprendizaje Máquina, evaluación de resultados, presentación de los mismos… Hemos diseñado una versión para niños, el DSGAME-KIDS, y una versión para investigadores y estudiantes de grados en Ciencia e Ingeniería de Datos e Inteligencia Artificial. En este seminario os mostraré las componentes del juego y su relación con la parte teórica y práctica de la Ciencia de Datos.
DaSCI Lectures 2021
Federated Learning for Preserving Data Privacy
Ponente: Eugenio Martínez Cámara realizó sus estudios de Ingeniería Informática y de doctorado en Informática en la Universidad de Jaén. Su línea de investigación se centra en Procesamiento del Lenguaje Natural, destacando la tarea de análisis de opiniones y la aplicación de modelos de Deep Learning. Actualmente está trabajando en la línea de investigación de aprendizaje federado y el desarrollo de métodos de IA que preserven la privacidad de los datos. Eugenio Martínez trabajó como investigador posdoctoral en la Technische Universität Darmstadt (Alemania) y actualmente es investigador Juan de la Cierva Incorporación en la Universidad de Granda – Instituto Andaluz de Inteligencia Artificial (DaSCI).
Fecha: 26/10/2021
Resumen: La inteligencia artificial (IA) tiene que hacer frente a los retos derivados de su propio progreso y las nuevas demandas de la sociedad. Estos retos están relacionados con la necesidad de procesar volúmenes cada vez más grandes de datos, la diversidad de las distribuciones que pueden seguir los datos cuando están distribuidos en distintos centros de datos y la creciente demanda de protección de la privacidad de los datos. Estos retos no pueden superarse con el esquema tradicional de aprendizaje centralizado y distribuido, por los costes de almacenamiento, transferencia de información y por la necesidad de proteger la privacidad de los datos. Esta ponencia se centra en el Aprendizaje Federado, nuevo paradigma de aprendizaje que trata de ofrecer una solución a estos retos. Este paradigma permite la creación de modelos de aprendizaje de forma federada entre varios clientes bajo la dirección de un servidor o un nodo central, siendo la principal característica del paradigma que los datos no abandonan los centros donde los albergan. Por tanto, se amplia la capacidad de uso de datos mediante la creación de redes de centros de datos, y los algoritmos de IA pueden usar una mayor capacidad de datos.producen los mejores resultados, demostrando ser un buen candidato para aplicar en la mayoría de las arquitecturas.
Grabación
Nuevas estructuras en las capas de pooling usando combinaciones lineales de funciones crecientes y funciones de grouping
Ponente: Humberto Bustince Sola es catedrático de Ciencia de la Computación e Inteligencia Artificial en la Universidad Pública de Navarra y profesor honorario de la Universidad de Nottingham desde 2017. Es el investigador principal del Grupo de Investigación en Inteligencia Artificial y Razonamiento Aproximado, cuyas líneas de investigación son tanto teóricas (funciones de fusión de datos, medidas de información y comparación, conjuntos difusos y sus extensiones) y aplicadas (aprendizaje profundo, procesamiento de imágenes, clasificación, aprendizaje automático, minería de datos, big data o el cerebro computacional). Ha liderado 13 proyectos de investigación financiados por gobiernos nacionales y regionales, y dos redes de excelencia en soft computing. Ha sido investigador principal en proyectos con empresas y entidades como Caja de Ahorros de Navarra, INCITA, Gamesa Tracasa o el Servicio Navarro de Salud. Ha participado en dos proyectos internacionales. Ha sido autor o coautor de más de 300 trabajos, según Web of Science, incluyendo alrededor de 160 en revistas del primer cuartil. Fue incluido entre el 1% de los científicos más relevantes del mundo en 2018, según Clarivate Analytics. Colabora con grupos de investigación de primera línea de países como Reino Unido, Bélgica, Australia, República Checa, Eslovaquia, Canadá o Brasil. Es editor en jefe de la revista online Mathware & Soft Computing de la European Society of Fuzzy Logic and Technologies y de la revista Axioms. Editor asociado de la revista IEEE Transactions on Fuzzy Systems y miembro de los consejos editoriales de las revistas Fuzzy Sets and Systems, Information Fusion, International Journal of Computational Intelligence Systems y Journal of Intelligent & Fuzzy Systems. Además, es coautor de un libro sobre funciones de agregación promedio y ha sido coeditor de varios libros. Ha estado a cargo de la organización de varios congresos internacionales de primer nivel como EUROFUSE 2009 y AGOP 2013. Es Senior Member del IEEE y Fellow de la International Fuzzy Systems Association (IFSA). Miembro de la Academia Vasca de Ciencias, Artes y Literatura, Jakiunde, desde 2018. Ha dirigido 11 tesis doctorales.
Fecha: 13/09/2021
Resumen: En esta charla comenzamos con una revisión de los principales conceptos relacionados con las funciones de agregación y estudiamos cómo estas funciones se han aplicado a la inteligencia artificial. También discutimos cómo algunas aplicaciones en inteligencia artificial han llevado a considerar clases específicas de agregaciones, así como familias más amplias de funciones crecientes. Como ejemplo de la aplicabilidad de estos desarrollos, consideramos el caso de las redes neuronales convolucionales. Las redes neuronales convolucionales tradicionales hacen uso de la media aritmética o del máximo para reducir las características extraídas por las capas convolucionales. En este trabajo, en este proceso de reducción de resolución consideramos varias funciones alternativas, incluyendo las funciones de grouping En particular, analizamos combinaciones lineales de estadísticos y generalizaciones de la integral de Sugeno, extendiendo el dominio de esta última a toda la recta real. Aplicamos estas nuevas funciones a tres arquitecturas diferentes de complejidad creciente, y mostramos que la mejor función de grouping depende de la arquitectura y debe ajustarse de manera similar a otros hiperparámetros del modelo. Sin embargo, también probamos empíricamente sobre múltiples conjuntos de datos que las combinaciones lineales superan a las funciones de grouping tradicionales en la mayoría de los casos, y que las combinaciones con la integral de Sugeno o una de sus generalizaciones generalmente producen los mejores resultados, demostrando ser un buen candidato para aplicar en la mayoría de las arquitecturas.
Modelización e inferencia bayesiana con aplicaciones a la recuperación y clasificación de imágenes
Ponente: Rafael Molina se licenció en Matemáticas (Estadística) y se doctoró en diseño óptimo en modelos lineales por la Universidad de Granada, Granada, España, en 1979 y 1983, respectivamente. En el año 2000, se convirtió en profesor de Ciencias de la Computación e Inteligencia Artificial en la Universidad de Granada. Sus intereses de investigación se centran principalmente en el uso de la modelización e inferencia bayesiana en la restauración de imágenes (aplicaciones a la astronomía y la medicina), la superresolución de imágenes y vídeo, el aprendizaje activo, el aprendizaje supervisado y no supervisado y el crowdsourcing.
Fecha: 7/06/2021
Resumen: Un principio fundamental de la filosofía bayesiana es considerar todos los parámetros y variables no observables de un problema dado como cantidades estocásticas desconocidas. El objetivo de la inferencia es calcular o aproximar la distribución de todas las incógnitas dadas las observaciones.
La inferencia variacional bayesiana (VB) es una familia de procedimientos de aproximación de la distribución de probabilidad determinista que ofrece claras ventajas sobre los enfoques alternativos basados en el muestreo estocástico y los que sólo proporcionan estimaciones puntuales. La inferencia VB es flexible para ser aplicada en diferentes problemas prácticos, pero es lo suficientemente amplia como para subsumir como casos especiales varios enfoques de inferencia alternativos, incluyendo el Máximo A Posteriori (MAP) y el algoritmo de Expectativa-Maximización (EM). La inferencia VB y la propagación de expectativas son métodos variacionales que minimizan los funcionales basados en la divergencia Kullback-Leibler (KL). También pueden establecerse fácilmente conexiones entre VB y la Propagación de la Creencia de Loopy (LBP) basada en la marginación.
En esta charla, ofrezco una visión personal de los métodos de modelado e inferencia bayesianos para problemas de recuperación (regresión) y clasificación de imágenes. Haré hincapié en la relación entre la divergencia KL y el límite inferior de evidencia (ELBO), los pros y los contras de los métodos bayesianos variacionales (VB), sus conexiones con otros métodos de inferencia y el uso de límites variacionales locales. La charla también incluirá una (breve) descripción de algunas aplicaciones de VB: deconvolución ciega de imágenes y colores, superresolución, procesos gaussianos (profundos), incertidumbre de activación en redes neuronales, clasificación de imágenes histológicas, aprendizaje de instancias múltiples, y crowdsourcing en medicina y el problema LIGO.
Grabación: Modelización e inferencia bayesiana con aplicaciones a la recuperación y clasificación de imágenes
Inteligencia Artificial en la nueva Agricultura Digital
Ponente: Salvador Gutiérrez
Fecha: 05/07/2021
Resumen: En la agricultura se busca una reducción de costes y de impacto ambiental, mejor sostenibilidad y un incremento de la calidad y el rendimiento del cultivo. Para lograr desarrollar aplicaciones útiles para agricultores se necesita información sobre el cultivo que puede utilizarse para tomar mejores decisiones. Los nuevos avances en tecnologías de sensórica no invasiva permiten la adquisición de grandes cantidades de datos del campo. Y dada la revolución que ha supuesto la inteligencia artificial, la combinación de ésta junto con los datos obtenidos de múltiples sensores permite la extracción de información útil para el agricultor. En esta presentación se expondrán los actuales avances de la IA y sensores en agricultura, principalmente en viticultura, y se plantearán y discutirán las líneas y retos futuros.
Grabación: Inteligencia Artificial en la nueva Agricultura Digital
La inteligencia artificial vista por la ética y el derecho
Primer Ponente (20 min.): Francisco Lara
Fecha: 10/05/2021
Título y Resumen: «Ética de la Inteligencia Artificial». En mi charla haré un breve repaso de las principales preguntas que se hacen los autores que están dedicándose a las cuestiones éticas en la IA, desde las más especulativas (sobre las posibilidades y efectos de la superinteligencia o el estatus de los robots) a las concretas e inmediatas (el sesgo o la falta de transparencia de los algoritmos). También hablaré algo de EthAI+, el proyecto que coordino actualmente y con el que pretendemos teorizar sobre un asistente virtual que mejorase las habilidades éticas de los seres humanos.
Segungo Ponente (20 min.): Juan Valls
Fecha: 10/05/2021
Título y Resumen: «Implicaciones del derecho y la inteligencia artificial». Se explicará el impacto de la tecnología en la sociedad y las consecuencias jurídicas que se pueden derivar de las mismas, tanto positivas como negativas. Para ello se analizará algunos sistemas de impacto en los Derechos Humanos de la inteligencia artificial. Finalmente, se verá lo que es un sistema de riesgo de inteligencia artificial.
Grabación: La inteligencia artificial vista por la ética y el derecho
Desarrollo de algoritmos de detección de comunidades dinámicas basados en estrategias evolutivas
Ponente: David Camacho
Fecha: 22/03/2021
Resumen: El seminario abordará una breve introducción a los algoritmos de detección de comunidades (Community Finding Algorithms), ampliamente estudiados en el área del Análisis de Redes de Grafos y la Computación basada en grados, donde se profundizará en la problemática de la detección de este tipo de grupos de nodos, o agrupaciones (clusters), cuando se modela como un problema temporal. Se proporcionará una breve introducción a los métodos de detección tradicionales (de carácter estático), y los más actuales que tratan de abordar el problema desde una perspectiva dinámica. En concreto, se describirá brevemente cómo se están utilizando estrategias bioinspiradas, concretamente algoritmos evolutivos (mono y multi objetivo) para tratar de encontrar comunidades estables y de calidad a lo largo del tiempo. Esta charla presentará brevemente el diseño, la implementación y el análisis empírico de un nuevo algoritmo genético multiobjetivo que combina un esquema basado en inmigrantes con estrategias de búsqueda local para la detección dinámica de comunidades.
Grabación: Desarrollo de algoritmos de detección de comunidades dinámicas basados en estrategias evolutivas
Inteligencia artificial, refugiados y seguridad fronteriza. Implicaciones éticas de los mundos tecnológico y político
Ponente: Ana Valdivia
Fecha: 08/02/2021
Resumen: En la última década, un gran número de personas se desplazan debido a la conflictividad, la inestabilidad, las consecuencias de la emergencia climática y otras razones económicas. En Europa, la llamada crisis de los refugiados se ha convertido en un campo de pruebas para explorar el uso de la inteligencia artificial para la aplicación de la ley y la seguridad fronteriza. Las bases de datos interoperables, el reconocimiento facial y el registro de huellas dactilares, la recopilación de datos del iris, los detectores de mentiras y otras formas de evaluación de riesgos basadas en datos forman ahora parte de las políticas fronterizas europeas para los refugiados.
En este seminario web, exploraremos qué sistemas sociotécnicos se aplican hoy en día en las fronteras europeas mediante el análisis de las especificaciones técnicas. A continuación, discutiremos el impacto ético y la violación de los derechos humanos que esta situación está provocando. Ahora es necesario que los informáticos e ingenieros de datos reconozcan cómo la tecnología puede perpetuar los daños, y colaboren con académicos de otras disciplinas para mitigar la discriminación.
EXplainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI
Ponente: Natalia Díaz Rodríguez
Fecha: 25/01/2021
Resumen: La visión general que se presenta en este artículo examina la literatura existente y las contribuciones ya realizadas en el campo de la XAI, incluyendo una perspectiva hacia lo que aún está por alcanzar. Para ello, resumimos los esfuerzos previos realizados para definir la explicabilidad en el Aprendizaje Automático, estableciendo una novedosa definición de Aprendizaje Automático explicable que cubre dichas propuestas conceptuales previas con un mayor enfoque en la audiencia para la que se busca la explicabilidad. Partiendo de esta definición, proponemos y discutimos sobre una taxonomía de contribuciones recientes relacionadas con la explicabilidad de diferentes modelos de Aprendizaje Automático, incluyendo aquellas dirigidas a explicar métodos de Aprendizaje Profundo para las que se construye y examina en detalle una segunda taxonomía dedicada. Este análisis crítico de la literatura sirve como trasfondo motivador de una serie de retos a los que se enfrenta la XAI, como la interesante encrucijada de la fusión de datos y la explicabilidad. Nuestras perspectivas conducen al concepto de Inteligencia Artificial Responsable, es decir, a una metodología para la implementación a gran escala de métodos de IA en organizaciones reales con la equidad, la explicabilidad del modelo y la responsabilidad en su núcleo. Nuestro objetivo final es proporcionar a los recién llegados al campo de la XAI una taxonomía exhaustiva que pueda servir como material de referencia para estimular futuros avances en la investigación, pero también para animar a los expertos y profesionales de otras disciplinas a abrazar los beneficios de la IA en sus sectores de actividad, sin ningún prejuicio previo por su falta de interpretabilidad.
Autoencoders: una visión general y aplicaciones
Ponente: David Charte
Fecha: 21/12/2021
Resumen: En esta charla, motivamos la necesidad de técnicas de aprendizaje de la representación, especialmente aquellas basadas en redes neuronales artificiales. Llegamos a una definición de autocodificadores que luego se desarrollan en un ejemplo paso a paso. A continuación, se describen e ilustran varias aplicaciones de los autocodificadores con estudios de casos y usos en la literatura. Por último, se hacen algunos comentarios sobre la situación actual y las posibles tendencias futuras.
Autoencoders: una visión general y aplicaciones (en Inglés)
DaSCI Lectures 2020
Ética de la Inteligencia Artificial
Ponente: José Daniel Pascual Triana
Fecha: 23/11/2020
Resumen: La ética en la Inteligencia Artificial es la rama que busca incorporar los principios éticos y morales humanos al desarrollo y funcionamiento del aprendizaje por computador. Esto incluye, entre otras temáticas, la reducción de sesgos para favorecer la paridad, la transparencia y la auditoría de modelos.