Líderes de opinión
Deja de culpar a los datos. Comienza a arreglar tus objetivos

El aprendizaje automático aprende de nosotros. Y nosotros estamos sesgados.
Debido a que el aprendizaje automático se entrena con contenido generado en gran medida por humanos, recoge nuestros sesgos y los incorpora. Es por eso que la mayoría de las conversaciones sobre el sesgo del aprendizaje automático se centran en los malos datos. Basura dentro, basura fuera. Lo suficientemente simple. Pero incluso con datos limpios, el sesgo todavía se cuela.
Un problema más sutil y a menudo pasado por alto es el sesgo de objetivo. Es menos visible que un problema de conjunto de datos y es uno de los mayores desafíos para el uso del aprendizaje automático orientado al cliente.
En este artículo, profundizaré en lo que el sesgo de objetivo se parece como parte de la experiencia del cliente (CX), por qué es importante y qué pueden hacer las marcas al respecto.
Definiendo el sesgo de objetivo
El sesgo de objetivo no se trata de datos defectuosos. Se trata de una intención defectuosa. El aprendizaje automático hace exactamente lo que se le dice que haga, y si se le dice que maximice los ingresos, lo hará, incluso si eso significa dañar la relación con el cliente.
Tome a Delta Air Lines. Recientemente anunciaron precios de aprendizaje automático diseñados para determinar el máximo que el consumidor está dispuesto a pagar. Es un ejemplo perfecto de sesgo de objetivo. El sistema no está entrenado para ayudarlo a encontrar una buena oferta. Está entrenado para aumentar la conversión y reducir los costos operativos.
Digamos que está reservando un viaje a París. Quiere la mejor tarifa, pero el sistema quiere la mejor margen. El aprendizaje automático puede ofrecer un vuelo de $800 cuando uno de $400 está disponible. No porque el aprendizaje automático esté equivocado, sino porque está haciendo su trabajo.
No exactamente el tipo de personalización que los consumidores están suplicando…
Por qué es inevitable
El sesgo de objetivo es un reflejo de los valores, la cultura y las prioridades de su marca. Está tejido en la estructura de su aprendizaje automático. La verdadera pregunta es, ¿en qué dirección se “inclina”? ¿Favorece los objetivos del cliente o los objetivos de ingresos?
Diferentes equipos, regiones y culturas tienen diferentes mentalidades y entrenarán el modelo de aprendizaje automático de manera diferente. Si las ventas toman las riendas, se inclinará hacia la conversión. Si el grupo de CX está a cargo, puede estar mejor alineado con el servicio y los ahorros.
Misma arquitectura, diferentes resultados.
La solución no es eliminar completamente el sesgo, sino apuntarlo en la dirección correcta. Sesgue su aprendizaje automático para la lealtad a largo plazo, no para victorias a corto plazo.
Las consecuencias de un aprendizaje automático mal alineado
El mayor riesgo que corren las marcas cuando se trata de sesgo de objetivo es la pérdida de confianza.
Los clientes ya están hartos de interacciones genéricas e irrelevantes con las marcas. Cuando el aprendizaje automático empeora esas experiencias, frustra y aliena a su comprador.
Si los grandes modelos de lenguaje (LLM) se entrenan con datos sesgados y basados en suposiciones, producirán respuestas impersonales. Como resultado, los clientes se sentirán como si la marca no se preocupara por ellos. Pueden comprar de usted hoy, pero es menos probable que se queden con su marca a largo plazo.
La experiencia ahora impulsa la lealtad. Muchos clientes están dispuestos a pagar más por ella. Así que, cuando un aprendizaje automático intenta vender un producto de alto valor que no se ajusta a la necesidad, lo notan. Optan por no participar. No regresan.
El problema del aprendizaje automático agente
Ese riesgo se infla cuando miramos el aprendizaje automático agente.
El aprendizaje automático agente está diseñado para actuar por su cuenta. Puede completar flujos de trabajo multietapa sin intervención humana. Pero si la lógica del aprendizaje automático es defectuosa o el entrenamiento está mal alineado, el daño crece.
Los expertos están de acuerdo en que el aprendizaje automático agente tiene un largo camino por recorrer. De hecho, un informe reciente muestra que, si bien casi todos los directores financieros saben sobre el aprendizaje automático agente, solo el 15% está considerando seriamente. Los datos correspondientes indican que la capacidad de monitorear y prevenir el sesgo con precisión era una barrera clave para la adopción.
La mayoría de los sistemas agentes todavía luchan con la ambigüedad, la memoria persistente y la rendición de cuentas. Esa es una combinación peligrosa cuando no hay una forma clara de diagnosticar o corregir errores o sesgos a medida que ocurren.
Las marcas no deben sentarse en la banca, pero necesitan proceder estratégicamente.












