Connect with us

Cómo la Inteligencia Artificial Explicable Construye Confianza y Rendición de Cuentas

Líderes de opinión

Cómo la Inteligencia Artificial Explicable Construye Confianza y Rendición de Cuentas

mm

Las empresas ya se han lanzado de cabeza a la adopción de la inteligencia artificial, compitiendo para desplegar chatbots, generadores de contenido y herramientas de apoyo a la toma de decisiones en todas sus operaciones. Según McKinsey, el 78% de las empresas utilizan la inteligencia artificial en al menos una función empresarial.

La fiebre de implementación es comprensible — todos ven el valor potencial. Pero en esta prisa, muchas organizaciones pasan por alto el hecho de que todas las tecnologías basadas en redes neuronales, incluidos todos los LLM y sistemas de inteligencia artificial generativa en uso hoy en día y en el futuro previsible, comparten un defecto significativo: son impredecibles y en última instancia incontrolables.

Algunos han aprendido que puede haber consecuencias reales como resultado. En un concesionario de Chevrolet que había desplegado un chatbot en su sitio web, un cliente convenció al bot alimentado por ChatGPT para que le vendiera un Chevy Tahoe de $58,195 por solo $1. Otro cliente instó al mismo chatbot a escribir un script de Python para ecuaciones de dinámica de fluidos complejas, lo que hizo con gusto. El concesionario desactivó rápidamente los bots después de que estos incidentes se volvieron virales.

El año pasado, Air Canada perdió en un tribunal de pequeñas reclamaciones cuando argumentó que su chatbot, que dio a un pasajero información inexacta sobre un descuento por duelo, “es una entidad legal separada que es responsable de sus propias acciones”.

Esta impredecibilidad se debe a la arquitectura fundamental de los LLM. Son tan grandes y complejos que es imposible entender cómo llegan a respuestas específicas o predecir qué generarán hasta que producen una salida. La mayoría de las organizaciones están respondiendo a este problema de confiabilidad sin reconocerlo completamente.

La solución de sentido común es verificar los resultados de la inteligencia artificial a mano, lo que funciona pero limita drásticamente el potencial de la tecnología. Cuando la inteligencia artificial se relega a ser un asistente personal — redactando texto, tomando actas de reuniones, resumiendo documentos y ayudando con la codificación — ofrece modestos beneficios de productividad. No es suficiente para revolucionar la economía.

Los verdaderos beneficios de la inteligencia artificial llegarán cuando dejemos de usarla para asistir a los trabajos existentes y, en su lugar, volvamos a cablear procesos, sistemas y empresas completos para usar la inteligencia artificial sin la participación humana en cada paso. Considere el procesamiento de préstamos: si un banco da a los oficiales de préstamos un asistente de inteligencia artificial para resumir las solicitudes, podrían trabajar un 20-30% más rápido. Pero desplegar la inteligencia artificial para manejar todo el proceso de decisión (con las salvaguardias adecuadas) podría reducir los costos en más del 90% y eliminar casi todo el tiempo de procesamiento. Esta es la diferencia entre la mejora incremental y la transformación.

El camino hacia la implementación confiable de la inteligencia artificial

Aprovechar al máximo el potencial de la inteligencia artificial sin sucumbir a su impredecibilidad requiere una combinación sofisticada de enfoques técnicos y pensamiento estratégico. Si bien varios métodos actuales ofrecen soluciones parciales, cada uno tiene limitaciones significativas.

Algunas organizaciones intentan mitigar los problemas de confiabilidad a través del empuje del sistema — dirigiendo sutilmente el comportamiento de la inteligencia artificial en direcciones deseables para que responda de manera específica a ciertas entradas. Los investigadores de Anthropic demostraron la fragilidad de este enfoque al identificar una “característica del puente Golden Gate” en la red neuronal de Claude y, al amplificarla artificialmente, causaron que Claude desarrollara una crisis de identidad. Cuando se le preguntó sobre su forma física, en lugar de reconocer que no tenía ninguna, Claude afirmó ser el puente Golden Gate en sí. Este experimento reveló lo fácil que es alterar el funcionamiento central de un modelo y que cada empujón representa un compromiso, potencialmente mejorando un aspecto del rendimiento mientras degrada otros.

Otro enfoque es tener a la inteligencia artificial monitorear a otra inteligencia artificial. Si bien este enfoque en capas puede detectar algunos errores, introduce complejidad adicional y todavía no alcanza la confiabilidad integral. Los guardrails codificados son una intervención más directa, como bloquear respuestas que contienen ciertas palabras clave o patrones, como ingredientes precursores de armas. Si bien son efectivos contra problemas conocidos, estos guardrails no pueden anticipar salidas problemáticas novedosas que surgen de estos sistemas complejos.

Un enfoque más efectivo es construir procesos centrados en la inteligencia artificial que puedan funcionar de forma autónoma, con la supervisión humana estratégicamente posicionada para detectar problemas de confiabilidad antes de que causen problemas en el mundo real. No querrías que la inteligencia artificial aprobara o denegara directamente solicitudes de préstamos, pero la inteligencia artificial podría realizar una evaluación inicial para que los operadores humanos la revisen. Esto puede funcionar, pero depende de la vigilancia humana para detectar los errores de la inteligencia artificial y socava las posibles ganancias de eficiencia al usar la inteligencia artificial.

Construir para el futuro

Estas soluciones parciales apuntan hacia un enfoque más integral. Las organizaciones que replantean fundamentalmente cómo se realiza su trabajo en lugar de simplemente aumentar los procesos existentes con asistencia de inteligencia artificial obtendrán la mayor ventaja. Pero la inteligencia artificial nunca debe ser el último paso en un proceso o decisión de alto riesgo, así que ¿cuál es el mejor camino a seguir?

Primero, la inteligencia artificial construye un proceso repetible que entregará resultados consistentes de manera confiable y transparente. Segundo, los humanos revisan el proceso para asegurarse de que entiendan cómo funciona y que las entradas sean adecuadas. Finalmente, el proceso se ejecuta de forma autónoma — sin usar inteligencia artificial — con una revisión periódica de los resultados por parte de los humanos.

Considere la industria de los seguros. El enfoque convencional podría agregar asistentes de inteligencia artificial para ayudar a los procesadores de reclamaciones a trabajar más eficientemente. Un enfoque más revolucionario utilizaría la inteligencia artificial para desarrollar nuevas herramientas — como la visión por computadora que analiza fotos de daños o modelos de detección de fraude mejorados que identifican patrones sospechosos — y luego combinar estas herramientas en sistemas automatizados gobernados por reglas claras y comprensibles. Los humanos diseñarían y monitorearían estos sistemas en lugar de procesar reclamaciones individuales.

Este enfoque mantiene la supervisión humana en el punto crítico donde más importa: el diseño y la validación del sistema en sí. Permite ganancias de eficiencia exponenciales al mismo tiempo que elimina el riesgo de que la impredecibilidad de la inteligencia artificial conduzca a resultados perjudiciales en casos individuales.

Una inteligencia artificial podría identificar posibles indicadores de capacidad de pago de préstamos en datos de transacciones, por ejemplo. Los expertos humanos pueden evaluar entonces estos indicadores para la equidad y construir modelos explícitos y comprensibles para confirmar su poder predictivo.

Este enfoque de la inteligencia artificial explicable creará una división más clara entre las organizaciones que usan la inteligencia artificial de manera superficial y aquellas que transforman sus operaciones alrededor de ella. Estas últimas se alejarán cada vez más en sus industrias, capaces de ofrecer productos y servicios a puntos de precio que sus competidores no pueden igualar.

A diferencia de la inteligencia artificial de caja negra, los sistemas de inteligencia artificial explicable aseguran que los humanos mantengan una supervisión significativa de la aplicación de la tecnología, creando un futuro donde la inteligencia artificial aumenta el potencial humano en lugar de simplemente reemplazar el trabajo humano.

Jamie Twiss es un banquero experimentado y un científico de datos que trabaja en la intersección de la ciencia de datos, la inteligencia artificial y el préstamo al consumidor. Actualmente se desempeña como Director Ejecutivo de Carrington Labs, un proveedor líder de soluciones de scoring de riesgo crediticio y préstamos impulsados por inteligencia artificial explicables. Anteriormente, fue el Director de Datos de un importante banco australiano. Antes de eso, trabajó en una variedad de roles en banca y servicios financieros después de comenzar su carrera como consultor con McKinsey & Company.