Líderes de opinión
Explicabilidad: La próxima frontera para la inteligencia artificial en seguros y banca

Por el Dr. Ori Katz, científico de investigación analítica, Earnix.
“Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”, argumentó el escritor de ciencia ficción Arthur C. Clarke. De hecho, a veces la tecnología avanzada, como los nuevos algoritmos de aprendizaje automático, se asemejan a la magia. Las aplicaciones en evolución del aprendizaje automático, incluida la clasificación de imágenes, el reconocimiento de voz y su uso en las industrias de seguros y banca, tienen propiedades aparentemente sobrenaturales.
Muchas empresas son reacias a cambiar sus modelos analíticos tradicionales, y con razón. La magia es peligrosa, especialmente si no se entiende bien. Las redes neuronales y los algoritmos de conjunto de árboles son “cajas negras”, su estructura interna puede ser extremadamente compleja. Al mismo tiempo, varios estudios [1] han demostrado cómo las redes neuronales y los algoritmos basados en árboles pueden superar incluso los modelos de riesgo de seguros tradicionales más cuidadosamente ajustados construidos por actuarios experimentados. Esto se debe a la capacidad de los nuevos algoritmos para identificar automáticamente la estructura oculta en los datos. El misterio y la utilidad de las redes neuronales y los algoritmos basados en árboles están enfrentados. Hay un trade-off inherente entre la precisión de un modelo analítico y su nivel de “explicabilidad”. ¿Cómo podemos confiar en los modelos si no podemos entender cómo llegan a sus conclusiones? ¿Debemos simplemente rendirnos a la magia, sacrificar nuestra confianza en y control sobre algo que no podemos comprender completamente por precisión?
Los gerentes y analistas no son los únicos que se preocupan por este trade-off. En los últimos años, los reguladores han comenzado a explorar el lado oscuro de la magia para aumentar su capacidad para monitorear estas industrias. Las industrias de banca y seguros están altamente reguladas en muchos aspectos, y las tendencias regulatorias actuales involucran una mirada más cercana a los modelos que se utilizan para hacer predicciones. El Considerando 71 del Reglamento General de Protección de Datos de la Unión Europea (GDPR), por ejemplo, establece que los clientes deben tener derecho a obtener una explicación de una decisión automatizada única después de que se haya tomado. Desde su inicio, este elemento del reglamento ha sido el centro de un debate académico muy controvertido.
La necesidad urgente de explicar los modelos analíticos “caja negra” ha llevado al surgimiento de un nuevo campo de investigación: Inteligencia Artificial Explicable. Los expertos están desarrollando herramientas que nos permiten mirar dentro de la caja negra y desentrañar al menos algo de la magia. Dos tipos de herramientas que los investigadores han creado incluyen herramientas de “Explicabilidad Global”, que pueden ayudarnos a entender las características clave que impulsan las predicciones generales del modelo, y herramientas de “Explicabilidad Local”, que están destinadas a explicar una predicción específica.
El siguiente gráfico es un ejemplo de explicabilidad local. Se basa en las ideas del economista ganador del Premio Nobel Lloyd Shapley, quien desarrolló un método de teoría de juegos para calcular la contribución de varios jugadores que cooperan en la misma tarea. En Inteligencia Artificial Explicable, los “jugadores” son las características del modelo, mientras que la “tarea” es la predicción del modelo. Los números que describen la contribución de cada característica se llaman “Valores de Shapley”. Los investigadores recientemente desarrollaron métodos para la estimación rápida de Valores de Shapley [2], lo que nos permite distribuir fairly una predicción entre las diferentes características.
Usando Valores de Shapley para explicar la demanda de renovación predicha de un cliente específico

El gráfico, basado en datos simulados, muestra el resultado de un modelo de demanda que predice la probabilidad de renovación de una póliza de seguro de automóvil. Esta es una explicación local para un cliente específico. El modelo de demanda se basa en un conjunto complejo de árboles de decisión, pero el gráfico presenta la contribución separada de cada característica a la predicción final. En este ejemplo, el modelo predice que el individuo promedio en los datos renovará la póliza con una probabilidad de 0,64. Sin embargo, para este cliente específico, la probabilidad predicha es mucho mayor, en 0,72. El gráfico nos permite ver la causa de esta diferencia.
Aunque no podemos entender completamente la estructura interna de este modelo complejo, los Valores de Shapley nos permiten ver qué características son las más importantes para una predicción específica, desentrañando una parte de la magia. Promediar los Valores de Shapley individuales sobre la población nos permite ver qué características son las más importantes y obtener una explicabilidad global del modelo. Otras herramientas de explicabilidad populares incluyen “Importancia de características de permutación”, modelos sustitutos simples que se ajustan localmente, y ejemplos contrafácticos, por nombrar algunos [3].
Las nuevas herramientas de explicabilidad son el paso necesario siguiente en la evolución del aprendizaje automático. Pueden permitir que las compañías de seguros y los bancos entiendan y confíen en sus modelos de aprendizaje automático, cumplan con las nuevas regulaciones y brinden a sus clientes información valiosa. Ahora podemos superar parcialmente el trade-off entre precisión y explicabilidad y disfrutar de las ventajas de los nuevos modelos de aprendizaje automático con menos preocupaciones sobre su naturaleza de caja negra.
En nuestro mundo cada vez más digitalizado, convertirse en completamente impulsado por análisis es el criterio básico de supervivencia para los aseguradores y los bancos. Esta capacidad siempre ha sido importante, pero se volvió vital con las condiciones de mercado volátiles que 2020 ha traído sobre nosotros. Los aseguradores y los bancos necesitan análisis más inteligentes para modelar una realidad compleja nueva sobre la que puedan basar sus decisiones comerciales y servir a sus clientes más rápido y mejor. Las herramientas de explicabilidad pueden permitir que los aseguradores y los bancos logren eso. Con el tiempo, llegaremos a un punto en el que los modelos de aprendizaje automático ya no se consideren magia, sino una herramienta esencial en el arsenal central de cualquier negocio impulsado por datos.
Fuentes:
[1] Bärtl, M., & Krummaker, S. (2020). Predicción de reclamaciones en finanzas de crédito a la exportación: Una comparación de cuatro técnicas de aprendizaje automático. Riesgos, 8(1), 22.
Noll, A., Salzmann, R., & Wuthrich, M. V. (2020). Estudio de caso: Reclamaciones de responsabilidad civil de automóviles en Francia. Disponible en SSRN 3164764.
Fauzan, M. A., & Murfi, H. (2018). La precisión de XGBoost para la predicción de reclamaciones de seguros. Int. J. Adv. Soft Comput. Appl, 10(2).
Weerasinghe, K. P. M. L. P., & Wijegunasekara, M. C. (2016). Un estudio comparativo de algoritmos de minería de datos en la predicción de reclamaciones de seguros de automóvil. European International Journal of Science and Technology, 5(1), 47-54.
[2] Lundberg, S. M., & Lee, S. I. (2017). Un enfoque unificado para interpretar predicciones de modelos. En Advances in neural information processing systems (pp. 4765-4774).
[3] Ver aquí para más detalles: https://christophm.github.io/interpretable-ml-book/index.html












