Líderes de opinión
La explicabilidad puede abordar el problema de la inteligencia artificial de cada industria: la falta de transparencia

Por: Migüel Jetté, VP de Investigación y Desarrollo de Habla, Rev.
En sus etapas iniciales, la inteligencia artificial puede haber podido descansar en los laureles de la novedad. Estaba bien que el aprendizaje automático aprendiera lentamente y mantuviera un proceso opaco donde el cálculo de la inteligencia artificial es imposible para el consumidor promedio penetrar. Eso está cambiando. A medida que más industrias, como la atención médica, las finanzas y el sistema de justicia penal, comienzan a aprovechar la inteligencia artificial de maneras que pueden tener un impacto real en la vida de las personas, más personas quieren saber cómo se están utilizando los algoritmos, cómo se está obteniendo los datos y cuán precisas son sus capacidades. Si las empresas quieren mantenerse a la vanguardia de la innovación en sus mercados, necesitan confiar en una inteligencia artificial en la que su audiencia confíe. La explicabilidad de la inteligencia artificial es el ingrediente clave para profundizar en esa relación.
La explicabilidad de la inteligencia artificial difiere de los procedimientos estándar de la inteligencia artificial porque ofrece a las personas una forma de entender cómo los algoritmos de aprendizaje automático crean la salida. La inteligencia artificial explicativa es un sistema que puede proporcionar a las personas resultados potenciales y limitaciones. Es un sistema de aprendizaje automático que puede cumplir con el deseo humano de equidad, responsabilidad y respeto a la privacidad. La inteligencia artificial explicativa es imperativa para que las empresas establezcan confianza con los consumidores.
Mientras la inteligencia artificial se expande, los proveedores de inteligencia artificial necesitan entender que la caja negra no puede. Los modelos de caja negra se crean directamente a partir de los datos y, a menudo, ni siquiera el desarrollador que creó el algoritmo puede identificar qué impulsó los hábitos aprendidos de la máquina. Pero el consumidor consciente no quiere interactuar con algo tan impenetrable que no se puede responsabilizar. Las personas quieren saber cómo un algoritmo de inteligencia artificial llega a un resultado específico sin el misterio de la entrada de datos y la salida controlada, especialmente cuando los errores de la inteligencia artificial a menudo se deben a sesgos de la máquina. A medida que la inteligencia artificial se vuelve más avanzada, las personas quieren acceder al proceso de aprendizaje automático para entender cómo el algoritmo llegó a su resultado específico. Los líderes de cada industria deben entender que pronto, las personas no solo preferirán este acceso, sino que lo exigirán como un nivel necesario de transparencia.
Los sistemas ASR, como los asistentes de voz, la tecnología de transcripción y otros servicios que convierten el habla humana en texto, están especialmente afectados por sesgos. Cuando el servicio se utiliza para medidas de seguridad, los errores debidos a acentos, la edad o el origen de una persona, pueden ser errores graves, por lo que el problema debe tomarse en serio. El ASR se puede utilizar de manera efectiva en cámaras de cuerpo de la policía, por ejemplo, para grabar y transcribir automáticamente las interacciones — manteniendo un registro que, si se transcribe con precisión, podría salvar vidas. La práctica de la explicabilidad requiere que la inteligencia artificial no solo confíe en conjuntos de datos comprados, sino que busque entender las características del audio entrante que podrían contribuir a errores si existen. ¿Cuál es el perfil acústico? ¿Hay ruido en el fondo? ¿El hablante es de un país de habla no inglesa o de una generación que utiliza un vocabulario que la inteligencia artificial aún no ha aprendido? El aprendizaje automático necesita ser proactivo para aprender más rápido y puede comenzar recopilando datos que aborden estas variables.
La necesidad se está volviendo obvia, pero el camino para implementar esta metodología no siempre tendrá una solución fácil. La respuesta tradicional al problema es agregar más datos, pero se necesitará una solución más sofisticada, especialmente cuando los conjuntos de datos que muchas empresas utilizan están inherentemente sesgados. Esto se debe a que históricamente, ha sido difícil explicar una decisión particular que se tomó con la inteligencia artificial y eso se debe a la naturaleza de la complejidad de los modelos de extremo a extremo. Sin embargo, ahora podemos, y podemos comenzar preguntando cómo las personas perdieron la confianza en la inteligencia artificial en primer lugar.
Inevitablemente, la inteligencia artificial cometerá errores. Las empresas necesitan construir modelos que sean conscientes de sus limitaciones potenciales, identificar cuándo y dónde ocurren los problemas y crear soluciones continuas para construir modelos de inteligencia artificial más sólidos:
- Cuando algo sale mal, los desarrolladores necesitarán explicar qué sucedió y desarrollar un plan inmediato para mejorar el modelo y disminuir los errores similares en el futuro.
- Para que la máquina realmente sepa si estaba en lo correcto o no, los científicos necesitan crear un bucle de retroalimentación para que la inteligencia artificial pueda aprender de sus limitaciones y evolucionar.
- Otra forma para que el ASR establezca confianza mientras la inteligencia artificial aún se mejora es crear un sistema que pueda proporcionar puntuaciones de confianza y ofrecer razones por las que la inteligencia artificial es menos confiable. Por ejemplo, las empresas suelen generar puntuaciones del 0 al 100 para reflejar las imperfecciones de su propia inteligencia artificial y establecer transparencia con sus clientes. En el futuro, los sistemas pueden proporcionar explicaciones posteriores para por qué el audio fue desafiante, ofreciendo más metadatos sobre el audio, como el nivel de ruido percibido o un acento menos entendido.
La transparencia adicional dará como resultado una mejor supervisión humana del entrenamiento y el rendimiento de la inteligencia artificial. Cuanto más abiertos seamos sobre dónde necesitamos mejorar, más responsables seremos de tomar medidas para mejorar. Por ejemplo, un investigador puede querer saber por qué se produjo un texto erróneo para que pueda mitigar el problema, mientras que un transcriptor puede querer pruebas de por qué el ASR malinterpretó la entrada para ayudar con su evaluación de la validez. Mantener a los humanos en el bucle puede mitigar algunos de los problemas más obvios que surgen cuando la inteligencia artificial no se supervisa. También puede acelerar el tiempo necesario para que la inteligencia artificial detecte sus errores, mejore y eventualmente se corrija en tiempo real.
La inteligencia artificial tiene la capacidad de mejorar la vida de las personas, pero solo si los humanos la construyen para producir adecuadamente. Necesitamos responsabilizar no solo a estos sistemas, sino también a las personas detrás de la innovación. Los sistemas de inteligencia artificial del futuro se espera que cumplan con los principios establecidos por las personas, y solo hasta entonces tendremos un sistema en el que las personas confíen. Es hora de sentar las bases y esforzarse por lograr esos principios ahora, mientras todavía somos humanos que nos servimos a nosotros mismos.












