Contáctenos

Cómo evitar que la IA cuente historias: una guía para prevenir las alucinaciones

Líderes del pensamiento

Cómo evitar que la IA cuente historias: una guía para prevenir las alucinaciones

mm

La IA está revolucionando el funcionamiento de casi todas las industrias. Nos hace más eficientes, más productivos y, si se implementa correctamente, mejores en nuestro trabajo en general. Pero a medida que aumenta rápidamente nuestra dependencia de esta novedosa tecnología, debemos recordar un hecho simple: la IA no es infalible. Sus resultados no deben tomarse al pie de la letra porque, al igual que los humanos, la IA puede cometer errores.

A estos errores los llamamos "alucinaciones de IA". Estos contratiempos pueden ir desde responder a una problema de matemáticas incorrectamente para proveer información inexacta En políticas gubernamentales. En industrias altamente reguladas, las alucinaciones pueden acarrear multas costosas y problemas legales, además de clientes insatisfechos.

Por lo tanto, la frecuencia de las alucinaciones de IA debería ser motivo de preocupación: es estimado Los modelos de lenguaje grande (LLM) modernos presentan alucinaciones entre el 1 % y el 30 % del tiempo. Esto genera cientos de respuestas falsas a diario, lo que obliga a las empresas que buscan aprovechar esta tecnología a ser muy selectivas al elegir las herramientas que implementarán.

Exploremos por qué ocurren las alucinaciones de IA, qué está en juego y cómo podemos identificarlas y corregirlas.

Basura dentro basura fuera

¿Recuerdas jugar al "teléfono" de niño? ¿Cómo se distorsionaba la frase inicial al pasar de un jugador a otro, resultando en una frase completamente distinta al completar su recorrido por el círculo?

La IA aprende de sus entradas de forma similar. Las respuestas que generan los LLM son tan buenas como la información que reciben, lo que significa que un contexto incorrecto puede generar y difundir información falsa. Si un sistema de IA se basa en datos inexactos, obsoletos o sesgados, sus resultados lo reflejarán.

Por lo tanto, un LLM es tan bueno como lo que aporta, especialmente cuando no hay intervención o supervisión humana. A medida que proliferan las soluciones de IA más autónomas, es fundamental proporcionar herramientas con el contexto de datos correcto para evitar alucinaciones. Necesitamos un entrenamiento riguroso de estos datos y/o la capacidad de guiar a los LLM para que respondan. único del contexto en que se proporcionan, en lugar de extraer información de cualquier lugar de Internet.

¿Por qué son importantes las alucinaciones?

Para las empresas que atienden al cliente, la precisión lo es todo. Si los empleados confían en la IA para tareas como sintetizar datos de clientes o responder a sus consultas, necesitan confiar en la precisión de las respuestas que generan estas herramientas.

De lo contrario, Las empresas corren el riesgo de sufrir daños Para su reputación y la fidelización de sus clientes. Si un chatbot proporciona respuestas insuficientes o falsas a los clientes, o si se les deja esperando mientras los empleados verifican los resultados del chatbot, podrían llevar su negocio a otra parte. Las personas no deberían preocuparse por si las empresas con las que interactúan les dan información falsa; desean una asistencia rápida y fiable, lo que significa que es fundamental que estas interacciones sean correctas.

Los líderes empresariales deben actuar con la debida diligencia al seleccionar la herramienta de IA adecuada para sus empleados. Se supone que la IA libera tiempo y energía del personal para que se concentre en tareas de mayor valor; invertir en un chatbot que requiere escrutinio humano constante frustra por completo su adopción. Pero ¿es realmente tan evidente la existencia de alucinaciones o simplemente se abusa del término para identificar cualquier respuesta que consideremos incorrecta?

Combatiendo las alucinaciones de la IA

Tomar en consideración: Teoría del significado dinámico (DMT), el concepto de que se intercambia un entendimiento entre dos personas —en este caso, el usuario y la IA—. Sin embargo, las limitaciones del lenguaje y el conocimiento de los sujetos provocan una interpretación errónea de la respuesta.

En el caso de las respuestas generadas por IA, es posible que los algoritmos subyacentes aún no estén completamente capacitados para interpretar o generar texto con precisión, de forma que se ajuste a nuestras expectativas como humanos. Esta discrepancia puede dar lugar a respuestas que, aunque parezcan precisas a primera vista, carecen de la profundidad o los matices necesarios para una verdadera comprensión.

Además, la mayoría de los LLM de propósito general extraen información únicamente de contenido disponible públicamente en internet. Las aplicaciones empresariales de IA funcionan mejor cuando se basan en datos y políticas específicos de cada industria y negocio. Los modelos también pueden mejorarse con retroalimentación humana directa, en particular las soluciones con agentes, diseñadas para responder al tono y la sintaxis.

Estas herramientas también deben someterse a pruebas rigurosas antes de su lanzamiento al público. Esto es fundamental para prevenir las alucinaciones de la IA. Todo el flujo debe probarse mediante conversaciones por turnos, con el LLM interpretando a un personaje. Esto permite a las empresas prever mejor el éxito general de las conversaciones con un modelo de IA antes de lanzarlo al mercado.

Es fundamental que tanto los desarrolladores como los usuarios de tecnología de IA sean conscientes de la teoría del significado dinámico en las respuestas que reciben, así como de la dinámica del lenguaje utilizado en la entrada. Recuerden, el contexto es clave. Y, como humanos, la mayor parte de nuestro contexto se comprende a través de medios tácitos, ya sea mediante el lenguaje corporal, las tendencias sociales o incluso nuestro tono de voz. Como humanos, tenemos la capacidad de alucinar al responder preguntas. Sin embargo, en nuestra versión actual de IA, nuestra comprensión entre humanos no se contextualiza fácilmente, por lo que debemos ser más críticos con el contexto que proporcionamos por escrito.

Basta decir que no todos los modelos de IA son iguales. A medida que la tecnología evoluciona para realizar tareas cada vez más complejas, es crucial que las empresas que buscan implementarla identifiquen herramientas que mejoren las interacciones y experiencias de los clientes, en lugar de perjudicarlas.

La responsabilidad no recae solo en los proveedores de soluciones, quienes deben asegurarse de haber hecho todo lo posible para minimizar la posibilidad de alucinaciones. Los compradores potenciales también tienen un papel que desempeñar. Al priorizar soluciones rigurosamente entrenadas y probadas, que puedan aprender de datos confidenciales (en lugar de cualquier cosa disponible en internet), las empresas pueden aprovechar al máximo sus inversiones en IA para preparar a sus empleados y clientes para el éxito.

Dan Balaceanu, director de productos de IA DRUIDATiene experiencia en la gestión de departamentos y procesos de desarrollo dentro de organizaciones empresariales. Es un arquitecto de soluciones y gerente técnico de proyectos altamente competente con más de 15 años de experiencia liderando proyectos de desarrollo e implementación de tamaño mediano, incluyendo la recopilación de requisitos del cliente, el análisis de sistemas, el desarrollo y las pruebas de aplicaciones en equipos orientados al cliente.