En este episodio hablaremos de la oscura ciencia de la “Interpretabilidad” y la
“explicabilidad”, en particular en redes neuronales artificiales. Intentaremos desvelar varios misterios junto a un elenco de lujo.
Trataremos de explicar por qué las redes neuronales, habitualmente consideradas cajas negras, deciden clasificar esa imagen como un gato, o como un pulmón con COVID, atendiendo a las características que más influyen en dicha decisión. Y entrevistamos a la Dra. Natalia Díaz Rodríguez, experta en interpretabilidad y recién llegada al instituto DaSCI.
Enlaces:
https://doi.org/10.1016/j.inffus.2019.12.012
https://doi.org/10.1016/j.isci.2021.102679
https://www.bbc.co.uk/programmes/p09k458p
https://dasci.es/es/divulgacion/conferencias/ciclo-de-conferencias-ada-lovelace/