Episodio 8: Cajas… ¿negras?
22 junio, 2021
#podcast #T1E8
En este episodio hablaremos de la oscura ciencia de la “Interpretabilidad” y la “explicabilidad”, en particular en redes neuronales artificiales. Intentaremos desvelar varios misterios junto a un elenco de lujo. Trataremos de explicar por qué las redes neuronales, habitualmente consideradas cajas negras, deciden clasificar esa imagen como un gato, o como un pulmón con covid, atendiendo a las características que más influyen en dicha decisión. Y entrevistamos a la Dra. Natalia Díaz Rodríguez, experta en interpretabilidad y recién llegada al instituto DaSCI.
Natalia Díaz Rodríguez se graduó en la Universidad de Granada en 2010. Obtuvo su doble doctorado de öbo Akademí (Finlandia) y de la Universidad de Granada en 2015. Ha trabajado en Investigación en CERN (Suiza), Philips Research (Países Bajos), en la Universidad de California Santa Cruz y en el laboratorio de robótica del politécnico de París Paris. Destacar también su trabajo en la industria de Silicon Valley en Stitch Fix (San Francisco, CA). Tiene una amplia experiencia en el campo de la inteligencia artificial y actualmente está centrada en el aprendizaje profundo, reforzado y no supervisado, con énfasis IA explicable y para el bien social.
Escucha SintonIA!