
¿Estamos avanzando hacia una Inteligencia Artificial explicable?
A medida que ganamos en la precisión de las predicciones gracias al uso modelos complejos perdemos la capacidad tanto para explicar las variables como los resultados. Pero no hay futuro si no se pueden explicar las decisiones ni entenderlas.
En las industrias muy reguladas, como las finanzas, aseguradoras, telcos, salud, farma… el modelo de caja negra puede ser muy problemático porque no hay transparencia sobre por qué se toman las decisiones.
La interpretabilidad es cada vez más esencial dentro de la Inteligencia Artificial y en este whitepaper nos adentraremos en los diferentes métodos y aproximaciones para lograr modelos interpretables o al menos explicables.
La interpretabilidad puede tener un gran impacto en las empresas que están comenzando su viaje hacia la IA, e incluso ser fundamental para profundizar en la aplicación de IA en empresas experimentadas con modelos más complejos, abarcando horizontes no alcanzados anteriormente.