logo de open sistemas en blanco

Entendimiento de la IA explicable y su aplicación en Bankia

Tabla de contenidos

La IA está en todas partes hoy en día, desde los motores de búsqueda hasta los sistemas de recomendación en plataformas streaming. Pero ¿cómo sabemos si podemos confiar en las decisiones que toman estos sistemas? Aquí es donde entra en juego la IA explicable. Es crucial entender cómo funcionan los algoritmos de IA para poder confiar en ellos y tomar decisiones informadas.

Con la IA explicable, podemos desglosar el proceso de toma de decisiones y comprender qué factores influyen en las recomendaciones que recibimos, lo que nos brinda una mayor sensación de control y confianza en la IA.

Conceptos clave de IA explicable

Transperencia

La transparencia en los procesos de toma de decisiones de la IA se refiere a la capacidad de entender cómo y por qué se llega a una determinada conclusión. En términos técnicos, esto implica que los algoritmos deben ser capaces de explicar sus decisiones de una manera clara y comprensible para los humanos. Esto aumenta la confianza en la IA al proporcionar una visión clara de su funcionamiento interno.

Interpretabilidad

La interpretabilidad se refiere a la capacidad de los humanos para entender y explicar las decisiones tomadas por los modelos de IA. Esto implica que los resultados de los modelos deben ser interpretables y explicables, lo que permite a los humanos comprender fácilmente cómo se llegó a una determinada conclusión.

Técnicas de la IA explicable

Visualización de datos:

La visualización de datos en el contexto de la IA explicable implica el uso de técnicas de representación gráfica para explorar y comprender el comportamiento de los modelos de IA. Esto puede incluir gráficos de dispersión, histogramas, mapas de calor y otros métodos visuales para mostrar cómo se distribuyen y relacionan los datos en el espacio de características.

Por ejemplo, mediante la proyección de datos de alta dimensión en un plano bidimensional utilizando técnicas como PCA (Análisis de Componentes Principales) o t-SNE (t-distributed Stochastic Neighbor Embedding), podemos visualizar la estructura subyacente de los datos y entender cómo el modelo los interpreta.

Análisis de atributos:

El análisis de atributos implica la evaluación de la importancia de cada atributo o característica en el proceso de toma de decisiones del modelo de IA. Esto se realiza mediante técnicas como la importancia de características (feature importance), que asigna un puntaje a cada atributo basado en su contribución al rendimiento del modelo.

Por ejemplo, en modelos de árboles de decisión, la importancia de características se calcula según la ganancia de información o la reducción de la impureza en los nodos del árbol. Además, el análisis de atributos puede incluir métodos como SHAP (SHapley Additive exPlanations) o LIME (Local Interpretable Model-agnostic Explanations), que proporcionan explicaciones locales sobre cómo una instancia individual contribuye a la predicción del modelo.

Estas técnicas permiten entender qué características son más influyentes en las decisiones del modelo, lo que mejora la interpretabilidad y confiabilidad de la IA.

Bankia y su apuesta por la IA explicable

ia explicable 2

Bankia es una de las entidades bancarias españolas que más apuesta por el uso de la Inteligencia Artificial (IA) en sus procesos como un instrumento para ofrecer a sus clientes los productos y servicios que mejor se adapten a sus necesidades. Tan es así que fruto de su plan estratégico 2018-2020 se creó el Centro de Excelencia en Inteligencia Artificial para seguir implementando el uso de la IA explicable en la organización. 

Jaime Zamora, miembro del Centro de Excelencia en IA de Bankia, nos explica de primera mano algunos de los proyectos más relevantes que están llevando a cabo, y también cómo deben abordar los retos y la problemática que en ocasiones plantea el uso de esta tecnología en un mercado tan complejo, regulado y estratégico como el bancario.

«Un flujo de procesamiento de control posterior nos permite asegurarnos de la correcta toma de las decisiones de nuestros modelos de IA».

En la actualidad, la Inteligencia Artificial está presente en prácticamente todas las industrias y consolidada a nivel internacional. Es un campo en continuo crecimiento que pasa obligatoriamente por la capacidad de explicación de los modelos algorítmicos que se emplean para ser transparentes y generar confianza en los reguladores y consumidores. “Es de capital importancia entender a cada paso los procesos que conforman nuestros pipelines de Inteligencia Artificial; qué entra y qué sale de cada uno de sus componentes y sobre todo el porqué”, explica Zamora. 

«No concebimos la ciencia de datos en el simple uso de la multitud de librerías de programación estándar ya existentes de Machine Learning, sino en el entendimiento matemático de nuestros modelos».

Evitar sesgos en las decisiones que se toman es uno de los objetivos principales, y eso pasa necesariamente por comprender y ser capaz de explicar la naturaleza de cada modelo de Machine Learning, de cada red neuronal, y poder así “ajustar y calibrar correctamente y en todo momento nuestros modelos”, concluye Zamora, que añade: “no concebimos la ciencia de datos en el simple uso de la multitud de librerías de programación estándar ya existentes de Machine Learning, sino en el entendimiento matemático de nuestros modelos. No hay Ciencia si no hay conocimiento, somos un centro de excelencia”.

contacta

Desarrolla tu siguiente proyecto de Data, IA, Cloud o Transformación Digital con nosotros. Empieza hablando con nuestro equipo comercial.

Tech Matters

La Newsletter mensual para conocer los proyectos de tecnología e inteligencia artificial que están teniendo un impacto positivo en el mundo.

Plazas limitadas

Próximo evento
Lead&Inspire: Aplicación de IA en entornos de desarrollo de software