Connect with us

Cuando ‘Chatbot’ es una palabra sucia: 3 conceptos erróneos que los líderes empresariales tienen sobre la IA conversacional

Líderes de opinión

Cuando ‘Chatbot’ es una palabra sucia: 3 conceptos erróneos que los líderes empresariales tienen sobre la IA conversacional

mm

La proliferación de LLM como ChatGPT de OpenAI, Llama de Meta y Claude de Anthropic ha llevado a un chatbot para cada ocasión. Hay chatbots para consejos de carrera, chatbots que te permiten hablar con tu yo futuro, e incluso un chatbot de pollo que da consejos de cocina. 

Pero estos no son los chatbots de hace diez años – en ese entonces, estaban limitados a conversaciones preestablecidas y rígidas, a menudo basadas en un gran diagrama de flujo con opciones múltiples o respuestas equivalentes. En esencia, eran solo ligeramente más sofisticados que los menús de teléfono IVR pre-internet.

Por otro lado, los “chatbots” de hoy en día se refieren con más frecuencia a la IA conversacional, una herramienta con capacidades y casos de uso mucho más amplios. Y porque nos encontramos en medio del ciclo de hiperespectación de la IA generativa, los tres términos se están utilizando de manera intercambiable. Desafortunadamente, como consecuencia, hay muchos malentendidos sobre los riesgos, los casos de uso y el ROI de invertir en IA conversacional entre los líderes empresariales, especialmente en industrias altamente reguladas como las finanzas. 

Así que me gustaría aclarar algunos conceptos erróneos comunes sobre los “chatbots”, cuando en realidad estamos discutiendo la IA conversacional. 

Mito 1: Los clientes odian los chatbots

A los consumidores se les ha preguntado durante la mejor parte de la última década si prefieren agentes humanos o chatbots – lo que es como preguntarle a alguien si prefiere un masaje profesional o sentarse en una silla de masaje de un centro comercial. 

Pero el debut de ChatGPT en 2022 (junto con todas las herramientas que se derivaron de él) cambió por completo nuestra percepción de las capacidades de un chatbot. Como se mencionó anteriormente, los chatbots más antiguos operaban en scripts, de tal manera que cualquier desviación de sus rutas preestablecidas a menudo llevaba a confusiones y respuestas ineficaces. Incapaces de entender el contexto y la intención del usuario, las respuestas dadas eran a menudo genéricas y poco útiles, y tenían una capacidad limitada para recopilar, almacenar y entregar información.

En contraste, la IA conversacional involucra a las personas en conversaciones naturales que imitan el lenguaje humano, lo que permite un intercambio más fluido e intuitivo. Demuestra una flexibilidad y adaptabilidad notables a resultados inesperados. Puede entender el contexto que rodea la intención del usuario, detectar emociones y responder de manera empática.

Este nivel más profundo de comprensión permite que la IA de hoy en día navegue efectivamente a los usuarios por caminos lógicos hacia sus objetivos. Eso incluye entregar rápidamente a los clientes a asistentes humanos cuando sea necesario. Además, la IA conversacional utiliza filtros de información avanzados, mecanismos de recuperación y la capacidad de retener datos relevantes, lo que mejora significativamente sus capacidades de resolución de problemas, lo que se traduce en una mejor experiencia del usuario.

Así que no es que los clientes odien ciegamente los chatbots, lo que odian es un mal servicio, del cual los chatbots anteriores eran definitivamente culpables. Los agentes conversacionales de hoy en día son mucho más sofisticados, y más de un cuarto de los consumidores no se sienten seguros de su capacidad para distinguir entre agentes humanos y de IA, y algunos incluso perciben a los chatbots de IA como mejores en tareas seleccionadas que sus contrapartes humanas. 

En pilotos de prueba, mi empresa ha visto a los agentes de IA triplicar las tasas de conversión de leads, lo que es una indicación bastante poderosa de que no se trata de si es un bot o no, sino de la calidad del trabajo realizado.

Mito 2: Los chatbots son demasiado arriesgados

En discusiones con líderes empresariales sobre la IA, surgen preocupaciones sobre alucinaciones, protección de datos y sesgo que podrían llevar a violaciones regulatorias. Aunque son riesgos legítimos, todos pueden mitigarse a través de varios enfoques: ajuste fino, Generación mejorada con recuperación (RAG) y ingeniería de prompts. 

Aunque no están disponibles en todos los LLM, el ajuste fino puede especializar un modelo preentrenado para una tarea o dominio específico, lo que resulta en una IA mejor adaptada a necesidades específicas. Por ejemplo, una empresa de atención médica podría ajustar un modelo para comprender y responder mejor a consultas médicas. 

RAG mejora la precisión del chatbot integrando dinámicamente conocimientos externos. Esto permite al chatbot recuperar información actualizada de bases de datos externas. Por ejemplo, un chatbot de servicios financieros podría utilizar RAG para proporcionar respuestas en tiempo real sobre precios de acciones. 

Finalmente, la ingeniería de prompts optimiza los LLM ajustando los prompts para guiar al chatbot a producir respuestas más precisas o conscientes del contexto. Por ejemplo, una plataforma de comercio electrónico podría utilizar prompts personalizados para ayudar al chatbot a proporcionar recomendaciones de productos personalizadas basadas en las preferencias y el historial de búsqueda del cliente.

Además de utilizar uno o más de estos enfoques, también se puede controlar la “temperatura” de creatividad de la IA conversacional para ayudar a prevenir alucinaciones. Establecer una temperatura más baja en las llamadas a la API limita a la IA a proporcionar respuestas más determinísticas y consistentes, especialmente cuando se combina con una base de conocimientos que asegura que la IA se base en conjuntos de datos específicos y confiables. Para mitigar aún más los riesgos, evite desplegar la IA en roles de toma de decisiones donde el sesgo o la información errónea podrían llevar a problemas legales. 

En cuanto a la privacidad de los datos, asegúrese de que los proveedores de IA externos cumplan con las regulaciones, o despliegue modelos de código abierto en su propia infraestructura para retener el control total sobre sus datos, esencial para el cumplimiento de la GDPR. 

Finalmente, siempre es sabio invertir en un seguro de indemnidad profesional que pueda ofrecer protección adicional, cubriendo a las empresas en escenarios poco probables, como intentos de litigios. A través de estas medidas, las empresas pueden aprovechar la IA con confianza mientras mantienen la seguridad de la marca y del cliente.

Mito 3: Los chatbots no están listos para tareas complejas 

Después de ver los problemas que las grandes empresas de tecnología están teniendo al desplegar herramientas de IA, puede parecer ingenuo pensar que una PYME tendría un tiempo más fácil. Pero la IA está actualmente en una etapa en la que la frase “maestro de nada y mediocre en todo” no es terriblemente inexacta. Esto se debe en gran parte a que estas herramientas se les pide que realicen demasiadas tareas diferentes en entornos que no están diseñados para el despliegue efectivo de la IA. En otras palabras, no es que no sean capaces, es que se les pide que patinen sobre un estanque lleno de hielo delgado y fracturado. 

Por ejemplo, las organizaciones llenas de datos siloeados y/o desorganizados serán más propensas a que la IA presente información obsoleta, inexacta o contradictoria. Ironía de ironías, esto es una consecuencia de su complejidad. Mientras que los chatbots anteriores simplemente regurgitaban información básica de manera lineal, la IA conversacional puede analizar conjuntos de datos robustos, considerando varios factores influyentes al mismo tiempo para trazar el camino más adecuado hacia adelante. 

En consecuencia, el éxito con la IA conversacional depende de parámetros estrictos y límites muy claros con respecto a las fuentes de datos y las tareas. Con los datos de entrenamiento adecuados y los prompts diseñados por expertos, la funcionalidad de la IA conversacional puede extenderse mucho más allá del alcance de un simple chatbot. Por ejemplo, puede recopilar y filtrar datos de conversaciones de clientes y usarlos para actualizar automáticamente un CRM. Esto no solo simplifica las tareas administrativas, sino que también garantiza que la información del cliente sea siempre precisa y actualizada. Al automatizar tales tareas, las empresas pueden centrarse más en actividades estratégicas en lugar de cargas administrativas.

Si vamos a seguir utilizando el término “chatbot”, es imperativo que diferenciemos entre plataformas que incorporan IA conversacional de vanguardia y aquellas que aún ofrecen las herramientas limitadas de ayer. De la misma manera que hoy en día la palabra “teléfono” evoca más a menudo la imagen de un smartphone con pantalla táctil que de un teléfono con cable espiral, creo que no estamos lejos de que “chatbot” sea reemplazado por la idea de agentes de IA avanzados en lugar de avatares de múltiples opciones torpes.

Sam Oliver es un empresario de tecnología, inversor de propiedades y autor. Su última empresa, OpenFi, es una inteligencia artificial conversacional para la generación de leads y fomento de clientes.