La tecnología que usa inteligencia artificial (IA) continúa avanzando a pasos agigantados y se está convirtiendo rápidamente en un potencial disruptor y un facilitador esencial para casi todas las empresas de todos los sectores. En este contexto, la confianza del framework trustworthy AI se ha vuelto fundamental. Actualmente, una de las barreras para el despliegue generalizado de la IA ya no es la tecnología en sí misma, sino un conjunto de desafíos que irónicamente son mucho más humanos: la ética y los valores humanos.
Desafíos del framework trustworthy AI : Evitando la Discriminación por Raza, Edad o Género
A medida que la IA se expande en casi todos los aspectos de la vida moderna, los riesgos de hacer un mal uso de la IA aumentan exponencialmente hasta un punto en el que esos riesgos pueden convertirse literalmente en una cuestión de vida o muerte. Algunos de los grandes ejemplos de IA que se han «estropeado» incluyen sistemas que discriminan a las personas por su raza, edad o género y sistemas de medios sociales que inadvertidamente difunden rumores y desinformación En este contexto, es crucial implementar un framework trustworthy para garantizar que los sistemas de IA sean justos, transparentes y éticos en su funcionamiento
Pero debes saber que estos ejemplos son sólo la punta del iceberg. A medida que la IA se despliegue a mayor escala, es probable que los riesgos asociados sólo aumenten, lo que podría tener graves consecuencias para la sociedad en general, e incluso mayores consecuencias para las empresas responsables. Desde una perspectiva empresarial, estas consecuencias potenciales incluyen desde demandas judiciales, multas reglamentarias y clientes enfadados hasta vergüenza, daños a la reputación y destrucción del valor para los accionistas.
Contar con inteligencia artificial, básico para las empresas
Sin embargo, con la IA que se ha convertido ahora en un valor diferencial empresarial básico, no sólo algo deseable para las empresas.
Las empresas, deben aprender a identificar y gestionar los riesgos de la IA de manera eficaz. Para lograr el potencial de colaboración entre personas y máquinas, las organizaciones deben comunicar un plan para la IA que se adopte y se hable desde la propia junta directiva de la compañía. Esto implica establecer un framework trustworthy que aborde la integridad, la transparencia y la ética en todas las facetas del desarrollo y la implementación de la inteligencia artificial.
Marco de confianza de la IA
El marco de la IA digna de confianza de Deloitte introduce seis dimensiones clave que, consideradas colectivamente en las fases de diseño, desarrollo, despliegue y operación de la implementación del sistema de IA, pueden ayudar a salvaguardar la ética y construir una estrategia de IA digna de confianza.
El marco de la IA digna de confianza está diseñado para ayudar a las empresas a identificar y mitigar los posibles riesgos relacionados con la ética de la IA en cada etapa del ciclo de vida de la IA. A continuación se examina más de cerca cada una de las seis dimensiones del marco.
Justo, sin sesgos
Una IA digna de confianza debe ser diseñada y entrenada para seguir un proceso justo, consistente que tomar decisiones justas. También debe incluir controles internos y externos para reducir los prejuicios discriminatorios.
El sesgo es un desafío permanente para los humanos y también para la sociedad, no sólo para la IA. Sin embargo, el reto es aún mayor para la IA porque carece de una comprensión matizada de las normas sociales -por no mencionar la extraordinaria inteligencia general necesaria para lograr el «sentido común»- que puede conducir a decisiones que son técnicamente correctas pero socialmente inaceptables. Una IA aprende de los conjuntos de datos utilizados para entrenarla, y si esos conjuntos de datos contienen sesgos del mundo real, los sistemas de IA pueden aprender, amplificar y propagar ese sesgo a velocidad y escala digital.
Por ejemplo, un sistema de IA que decide sobre la marcha dónde colocar los anuncios de trabajo en línea podría dirigir injustamente los anuncios de trabajos mejor pagados a los visitantes masculinos de un sitio web porque los datos del mundo real muestran que los hombres suelen ganar más que las mujeres. Del mismo modo, una empresa de servicios financieros que utilice la inteligencia artificial para examinar las solicitudes de hipotecas podría descubrir que su algoritmo discrimina injustamente a las personas por factores que no son socialmente aceptables, como la raza, el género o la edad. En ambos casos, la empresa responsable de la IA podría enfrentarse a consecuencias importantes, como multas reglamentarias y daños a la reputación.
Para evitar los problemas relacionados con la equidad y el sesgo, las empresas deben determinar primero qué es lo que constituye «justo». Esto puede ser mucho más difícil de lo que parece, ya que para cualquier tema dado no hay generalmente una sola definición de «justo» en la que todos estén de acuerdo. Las empresas también necesitan buscar activamente el sesgo dentro de sus algoritmos y datos, haciendo los ajustes necesarios e implementando controles para ayudar a asegurar que no aparezca un sesgo adicional de manera inesperada. Cuando se detecta un sesgo, es necesario comprenderlo y luego mitigarlo mediante procesos establecidos para resolver el problema y restablecer la confianza del cliente.
Una IA ya no puede ser tratada como una «caja negra» que recibe entradas y genera salidas sin una clara comprensión de lo que ocurre en su interior.
Transparente fácil de explicar
Para que la IA sea confiable, todos los participantes tienen derecho a entender cómo se están usando sus datos y cómo la IA está tomando decisiones. Los algoritmos, atributos y correlaciones de la IA deben estar abiertos a la inspección, y sus decisiones deben ser totalmente explicables.
Por ejemplo, los minoristas en línea que utilizan la IA para hacer recomendaciones de productos a los clientes se ven presionados a explicar sus algoritmos y cómo se toman las decisiones de recomendación. Del mismo modo, el sistema judicial de los Estados Unidos se enfrenta a una controversia constante sobre el uso de sistemas opacos de inteligencia artificial para fundamentar las decisiones de las sentencias penales.
Entre las cuestiones importantes que hay que considerar en esta esfera figuran la identificación de los casos de uso de la IA para los que la transparencia y la explicabilidad son particularmente importantes, y luego la comprensión de los datos que se utilizan y la forma en que se adoptan las decisiones para esos casos de uso. Además, en lo que respecta a la transparencia, hay una presión creciente para que se informe explícitamente a las personas cuando interactúan con la inteligencia artificial, en lugar de que ésta se disfrace como una persona real.
Responsabilidad
Los sistemas fiables de IA deben incluir políticas que establezcan claramente quién es responsable y rinde cuentas de sus resultados. Culpar a la propia tecnología de las malas decisiones y los errores de cálculo no es suficiente, ni para las personas perjudicadas ni, desde luego, para los reguladores gubernamentales. Se trata de una cuestión clave que probablemente sólo cobrará más importancia a medida que la IA se utilice para una gama cada vez más amplia de aplicaciones cada vez más críticas, como el diagnóstico de enfermedades, la gestión de la riqueza y la conducción autónoma.
Por ejemplo, si un vehículo sin conductor causa una colisión, ¿quién es responsable y rinde cuentas de los daños? ¿El conductor? ¿El propietario del vehículo? ¿El fabricante? ¿Los programadores de la IA? ¿El director general?
Del mismo modo, considere el ejemplo de una empresa de inversión que utiliza una plataforma automatizada impulsada por la IA para comerciar en nombre de sus clientes. Si un cliente invierte los ahorros de su vida a través de la firma y luego pierde todo debido a los pobres algoritmos, debería haber un mecanismo para identificar quién es responsable del problema, y quién es responsable de hacer las cosas bien.
Entre los factores clave que hay que tener en cuenta figuran las leyes y reglamentos que podrían determinar la responsabilidad jurídica y si los sistemas de inteligencia artificial son auditables y están cubiertos por las leyes vigentes sobre denuncia de irregularidades. Además, ¿cómo se comunicarán los problemas al público y a los reguladores, y qué consecuencias tendrán las partes responsables?
Robusto y fiable
Para que la IA logre una adopción generalizada, debe ser al menos tan robusta y fiable como los sistemas, procesos y personas tradicionales que está aumentando o reemplazando.
Para que la IA se considere digna de confianza, debe estar disponible cuando se supone que lo está y debe generar resultados coherentes y fiables que realicen adecuadamente las tareas en condiciones menos que ideales y cuando se encuentren situaciones y datos inesperados. La IA digna de confianza debe escalar bien, permaneciendo robusta y fiable a medida que su impacto se expande y crece. Y si falla, debe fallar de manera predecible y esperada.
Considere el ejemplo de una empresa de atención de la salud que utiliza la IA para identificar anomalías en las exploraciones cerebrales y prescribir el tratamiento adecuado. Para ser confiable, es absolutamente esencial que los algoritmos de la IA produzcan resultados consistentes y confiables ya que las vidas podrían estar en juego.
Para lograr una IA robusta y fiable, las empresas necesitan asegurarse de que sus algoritmos de IA produzcan los resultados adecuados para cada nuevo conjunto de datos. También necesitan procesos establecidos para manejar los problemas e incoherencias que puedan surgir. El factor humano es un elemento crítico en este sentido: comprender cómo la aportación humana afecta a la fiabilidad; determinar quiénes son las personas adecuadas para proporcionar la aportación; y asegurar que esas personas estén debidamente equipadas y capacitadas, en particular en lo que respecta a los prejuicios y la ética.
Privacidad
La privacidad es una cuestión crítica para todo tipo de sistemas de datos, pero es especialmente crítica para la IA, ya que los sofisticados conocimientos generados por los sistemas de IA a menudo provienen de datos más detallados y personales. La IA digna de confianza debe cumplir con las regulaciones de datos y sólo usar los datos para los propósitos declarados y acordados.
La cuestión de la privacidad de la IA a menudo se extiende más allá de las propias paredes de una empresa. Por ejemplo, la privacidad de los datos de audio capturados por los asistentes de la IA ha estado en los titulares de los últimos tiempos, y han surgido controversias sobre la medida en que los proveedores y socios de una empresa tienen acceso a los datos, y si éstos deben compartirse con los organismos encargados de hacer cumplir la ley.
Las empresas necesitan saber qué datos de los clientes se están recopilando y por qué, y si los datos se están utilizando de la manera que los clientes entendieron y acordaron. Además, se debe dar a los clientes el nivel requerido de control sobre sus datos, incluida la posibilidad de optar por aceptar o rechazar que sus datos sean compartidos. Y si los clientes tienen preocupaciones sobre la privacidad de los datos, necesitan una vía para expresar esas preocupaciones.
Seguridad y protección
Para ser digna de confianza, la IA debe estar protegida de los riesgos de ciberseguridad que puedan provocar daños físicos y/o digitales. Aunque la seguridad y la protección son claramente importantes para todos los sistemas informáticos, son especialmente cruciales para la IA debido al papel y el impacto cada vez mayores de la IA en las actividades del mundo real.
Por ejemplo, si un sistema financiero basado en la IA es pirateado, el resultado puede ser un daño a la reputación y la pérdida de dinero o datos. Esas son consecuencias graves, por supuesto. Sin embargo, no son ni de cerca tan graves como las posibles consecuencias de que un vehículo impulsado por la IA sea pirateado, lo que podría poner en peligro la vida de las personas.
Otro ejemplo de riesgo de ciberseguridad de la IA es una reciente violación de datos que involucra millones de registros de huellas dactilares y reconocimiento facial. Esta brecha fue particularmente grave porque se trataba de datos biométricos de personas, que son permanentes y no pueden ser alterados (a diferencia de una contraseña robada u otro tipo de datos estándar que pueden cambiarse rápida y fácilmente para limitar los daños).
¿Se puede confiar en una IA?
La ética de la IA está emergiendo como el mayor desafío individual para el progreso continuo de la IA y su despliegue generalizado, y es un desafío que las empresas ya no pueden ignorar ahora que la IA se está convirtiendo en una capacidad comercial esencial. El marco de la IA digna de confianza ofrece una forma estructurada y exhaustiva de pensar en la ética de la IA, ayudando a las empresas a diseñar, desarrollar, desplegar y operar sistemas de IA en los que pueden confiar.