Connect with us

Líderes de opinión

Cómo la Inteligencia Artificial Explicable Mejora la Confiabilidad y la Confiabilidad

mm

A medida que la inteligencia artificial (IA) se democratiza en las empresas, se está integrando lentamente en el tejido de nuestra existencia. Un aspecto importante de esta democratización es que los usuarios finales deben poder comprender completamente el proceso y los mecanismos que la IA utiliza para llegar a una conclusión o cómo opera para entregar los resultados deseados. Como seres humanos, tenemos una necesidad profundamente arraigada de descubrir el “por qué” y el “cómo” de cualquier fenómeno, lo que ha acelerado nuestro progreso tecnológico. En el contexto de la IA, esta comprensión se denomina “explicabilidad”.

¿Por qué la explicabilidad es la necesidad de la hora?

Con frecuencia, nos acercamos a la IA como una “caja negra”, donde solo tenemos conocimiento de las entradas y salidas, pero en algún lugar los procesos utilizados se pierden en nosotros. Este problema se ve agravado por el hecho de que los algoritmos que alimentan la mayoría de las formas populares de IA, como los sistemas de predicción basados en aprendizaje profundo complejos y el Procesamiento de Lenguaje Natural (NLP), son altamente abstractos incluso para sus practicantes más destacados.

Confianza y transparencia: Para que los usuarios confíen en las predicciones de la IA, debe tener algún nivel de explicabilidad inherente. Por ejemplo, si un médico debe recomendar un tratamiento basado en las predicciones de la IA, debe estar seguro de la predicción. Un banco debe tener plena confianza en la decisión de rechazar o aprobar un préstamo y ser capaz de justificarlo a todos los stakeholders. Una IA utilizada para la selección y contratación debe demostrar que los mecanismos subyacentes son justos y equitativos para todos los grupos de solicitantes.

Hace que la IA sea más humana y aumenta la adopción: En el informe The state of AI in 2020 de Mckinsey, aprendemos que un fabricante utiliza modelos extremadamente transparentes para la aceptación de sus trabajadores de fábrica, que necesitan confiar en los juicios emitidos por la IA con respecto a su seguridad. Para una adopción rápida de la IA, obtener la aprobación de los stakeholders es el principal obstáculo para escalar desde soluciones simples hasta el nivel empresarial y obtener el máximo provecho de la inversión realizada. Esto se alivia en gran medida si el rendimiento es explicable al público en general. Desde una perspectiva empresarial, la explicabilidad mejora la experiencia del usuario en general y aumenta la satisfacción del cliente. Según los hallazgos de una encuesta del IBM Institute for Business Value, el 68 por ciento de los altos ejecutivos cree que los clientes exigirán más explicabilidad de la IA en los próximos tres años.

Descubrir sesgos y mejorar el rendimiento del modelo: Un desarrollador necesita saber cómo puede mejorar el rendimiento del modelo y cómo depurarlo y ajustarlo exactamente. Un marco de explicabilidad claro es una de las herramientas más importantes para realizar el análisis exhaustivo que se necesita.

Obtener perspectivas más agudas y completas: Se necesita una visión de 360 grados para comprender completamente cualquier prescripción realizada por la IA. Por ejemplo, si se utiliza la IA para tomar una decisión de inversión, también se necesita saber la razón detrás de ella, para poder transferir este conocimiento a otras áreas y también comprender los posibles inconvenientes de tomar esa decisión. Una comprensión sólida de cómo opera la IA también permitirá a los responsables de la toma de decisiones descubrir nuevos casos de uso.

Regulaciones y rendición de cuentas: Varias regulaciones como el GDPR están estableciendo un derecho a la explicación, para abordar los problemas de rendición de cuentas que surgen de un proceso de toma de decisiones automatizado. En sistemas como los vehículos autónomos, si algo sale mal y conduce a la pérdida de vidas y propiedades, se necesita un conocimiento adecuado de la causa raíz, lo que será difícil de determinar en un sistema de caja negra.

¿Cómo se puede hacer que la IA sea más explicable?

Los sistemas de Inteligencia Artificial Explicable (XAI) se desarrollan utilizando diferentes técnicas que se centran en explicar el modelo en su conjunto o en explicar la razón detrás de cada predicción a través de la asistencia de algún algoritmo.

La mayoría de las técnicas de explicabilidad dependen de:

  • Desintegrar un modelo en componentes individuales)
  • Visualización de las predicciones del modelo (por ejemplo, si un modelo clasifica un coche como de una determinada marca, resalta la parte que lo llevó a señalarlo como tal)
  • Minería de explicaciones (utilizando técnicas de aprendizaje automático para encontrar datos relevantes que expliquen la predicción de un algoritmo de inteligencia artificial).

En una técnica llamada modelado proxy, se utiliza un modelo más simple y comprensible, como un árbol de decisión, para representar aproximadamente el modelo de IA más elaborado. Estas explicaciones simplistas dan una idea justa del modelo a nivel alto, pero a veces pueden suprimir ciertas sutilezas.

Otra aproximación se llama “interpretación por diseño” Esta aproximación pone restricciones en el diseño y la capacitación de la red de IA de una nueva forma, que intenta construir la red en su conjunto a partir de fragmentos más pequeños y explicables. Esto implica un compromiso entre el nivel de precisión y la explicabilidad, y limita ciertos enfoques del kit de herramientas del científico de datos. También puede ser muy intensivo en términos de computación.

La capacitación y prueba de la IA también pueden emplear técnicas de verificación de datos agnósticas, como el modelo local interpretable (LIME) y las explicaciones aditivas de Shapley (SHAP), y estas deben adaptarse para lograr una alta precisión mediante el uso de la puntuación F, la precisión y otras métricas. Y, por supuesto, todos los resultados deben monitorearse y verificarse utilizando una amplia variedad de datos. Utilizando LIME, por ejemplo, las organizaciones pueden crear modelos temporales que imitan las predicciones de algoritmos no transparentes como el aprendizaje automático. Estos modelos LIME pueden crear entonces una amplia gama de permutaciones basadas en un conjunto de datos determinado y su salida correspondiente, que luego se pueden utilizar para entrenar modelos más simples y explicables, junto con listas completas de explicaciones para cada decisión y/o predicción. El marco de trabajo SHAP, que tiene sus fundamentos en la teoría de juegos y específicamente en la teoría de juegos cooperativos, es un modelo que combina la asignación óptima de crédito con explicaciones locales que utilizan los valores originales de Shapley de la teoría de juegos y sus descendientes.

Operaciones Principales

Sin embargo, a un nivel más estratégico, los marcos de confiabilidad de la IA deben incorporar un conjunto amplio de principios destinados a garantizar resultados adecuados tanto al comienzo de la implementación como con el tiempo, a medida que los modelos evolucionan en presencia de circunstancias cambiantes. Como mínimo, estos marcos deben incluir cosas como:

  • Detección de sesgos – todos los conjuntos de datos deben ser limpiados de sesgos y atributos discriminatorios y luego deben darse el peso y la discreción adecuados al aplicarlos al modelo de capacitación;
  • Participación humana – los operadores deben poder investigar e interpretar las salidas del algoritmo en todo momento, particularmente cuando se utilizan modelos para la aplicación de la ley y la preservación de las libertades civiles;
  • Justificación – todas las predicciones deben poder soportar el escrutinio, lo que requiere por naturaleza un alto grado de transparencia para permitir que los observadores externos evalúen los procesos y los criterios utilizados para producir los resultados;
  • Reproducibilidad – los modelos de IA confiables deben ser consistentes en sus predicciones y deben exhibir altos niveles de estabilidad al enfrentar nuevos datos.

Pero XAI no debe verse solo como un medio para mejorar la rentabilidad, sino para aportar la rendición de cuentas para garantizar que las instituciones puedan explicar y justificar el efecto de sus creaciones en la sociedad en su conjunto.

Balakrishna, conocido popularmente como Bali D.R., es el Jefe de Inteligencia Artificial y Automatización en Infosys donde impulsa tanto la automatización interna para Infosys como proporciona servicios de automatización independientes aprovechando productos para clientes. Bali lleva más de 25 años en Infosys y ha desempeñado papeles de ventas, gestión de programas y entrega en diferentes geografías y verticales de la industria.