Líderes de opinión
Por qué la calidad de los datos decide si la inteligencia artificial empresarial tiene éxito o fracasa

Desde que OpenAI lanzó ChatGPT a finales de 2022, todas las empresas han estado compitiendo para avanzar más rápido con la inteligencia artificial. Los grandes jugadores de hardware como Nvidia están vendiendo más tarjetas gráficas que nunca, mientras que los constructores de modelos grandes como OpenAI y Anthropic continúan construyendo modelos cada vez más grandes.
Sin embargo, incluso con los modelos más avanzados y los presupuestos más grandes, muchos proyectos de inteligencia artificial aún no logran el éxito. Hemos visto que esto sucede en diversas industrias, desde la atención médica hasta el transporte y las finanzas, entre otras. La razón no es difícil de entender: la inteligencia artificial es tan buena como los datos en los que se entrena y los datos que recibe en tiempo real. Cuando esos datos están mal etiquetados, desactualizados o incompletos, ningún modelo puede producir resultados consistentes o confiables.
Y ese es el gran problema que enfrentan muchas empresas hoy en día. Invierten mucho en herramientas de inteligencia artificial, mientras que sus sistemas de datos siguen siendo dispersos y poco fiables. El resultado es una ilusión de progreso. Mientras que los modelos producen respuestas impresionantes, las ideas y conclusiones a menudo se basan en cimientos débiles. La verdadera barrera para el éxito de la inteligencia artificial no es el rendimiento del modelo, sino la calidad de los datos.
Qué significa realmente una buena calidad de datos
La alta calidad de los datos no se trata solo de precisión. Significa información que es actual, completa y relevante para el problema en cuestión. Imagina a un cliente que intenta cancelar un pedido en un sitio de comercio electrónico. El sistema necesita verificar los detalles del pedido, el estado de envío y el registro de pago. Si alguno de esos puntos de datos vive en sistemas diferentes que no se comunican entre sí, el asistente de inteligencia artificial no podrá dar una respuesta útil.
Los buenos datos conectan estos puntos al instante. Permiten que la inteligencia artificial vea una imagen completa en lugar de fragmentos de ella. Los malos datos, por otro lado, obligan al modelo a adivinar. Y cuando la inteligencia artificial comienza a adivinar, comete errores que cuestan dinero y dañan la confianza. Ejemplos recientes muestran lo peligrosos que pueden ser tales suposiciones.
El chatbot de negocios de la ciudad de Nueva York dio consejos ilegales porque se basó en información legal desactualizada o incompleta. El bot de servicio al cliente de Air Canada hizo reclamos de reembolso falsos porque carecía de contexto de la política de la empresa. Incluso los grandes sistemas de contratación han filtrado incorrectamente a los candidatos debido a datos sesgados o mal etiquetados, como se vio en el primer acuerdo relacionado con inteligencia artificial de la EEOC. Estos fracasos no son solo técnicos, sino también reputacionales y financieros, y se deben a sistemas de inteligencia artificial que se entrenaron con datos poco fiables.
Los estudios de la industria confirman la magnitud de este problema. Gartner informa que el 80 por ciento de los proyectos de inteligencia artificial no logran escalar debido a la mala calidad de los datos y la gobernanza. De manera similar, una encuesta de MIT Sloan Management Review encontró que los problemas de datos, y no los algoritmos, son la principal razón por la que los proyectos de inteligencia artificial empresarial fracasan.
La cultura importa tanto como el código
Mejorar la calidad de los datos no es algo que se pueda solucionar con una sola herramienta o comando. Requiere un cambio cultural. Es por eso que los líderes empresariales deben tratar los datos como un sistema vivo que necesita cuidado y responsabilidad. Esto no se trata solo de declarar que se quiere “mejorar los datos” — eso no es suficiente. Todas las partes de la organización deben entender cómo se mueve la información, quién la posee y qué sucede cuando cambia.
Hemos visto cómo se desarrolla esto en sistemas del mundo real. Muchas aplicaciones de inteligencia artificial dependen de actualizaciones de datos nocturnas. Si su base de datos se actualiza una vez al día, el conocimiento del modelo siempre estará por detrás de la realidad. En entornos de movimiento rápido, ese retraso puede significar ideas desactualizadas y malas decisiones. Las empresas necesitan replantear todo su flujo de datos, desde cómo se recopila la información hasta cómo se entrega al modelo.
Hacer esto bien puede ahorrar un tiempo y costo enormes. Cuando las tuberías de datos se diseñan con claridad y propósito, los sistemas de inteligencia artificial pueden aprender y actuar con la información más reciente y relevante. Cuando no es así, los equipos pasan más tiempo limpiando datos que utilizandolos.
Los expertos en gestión de datos a menudo señalan que la clave para una fuerte calidad de datos es un bucle de retroalimentación entre personas, procesos y plataformas. Sin ese bucle, la información se vuelve obsoleta y los modelos pierden contacto con las condiciones del mundo real — un problema a veces llamado deriva de datos.
Equilibrar la velocidad con la integridad
A menudo hay una tensión entre moverse rápido y mantener la precisión. Muchas organizaciones quieren resultados instantáneos de sus inversiones en inteligencia artificial, pero apresurarse puede llevar a problemas más grandes más adelante. El objetivo debe ser la agilidad de datos con integridad. En otras palabras, construir sistemas que puedan moverse rápidamente sin perder precisión.
Con este fin, cada empresa debe definir caminos claros para que los datos fluyan desde su fuente hasta el modelo en tiempo real. También ayuda definir qué tipo de información se permite y qué debe quedarse fuera. Los datos sensibles o privados nunca deben llegar al modelo, incluso si el usuario tiene acceso técnico a ellos. Proteger ese límite genera confianza y evita que los sistemas de inteligencia artificial filtren o malgasten información.
A medida que la inteligencia artificial se vuelve más autónoma, la supervisión humana seguirá siendo fundamental. El modelo no debe tener el control total sobre las acciones comerciales. Tampoco debe tomar decisiones. En su lugar, debe hacer solicitudes. Lo más importante es que los humanos siempre deben revisar y aprobar sus acciones para asegurarse de que se alineen con la política y la regulación de la empresa.
Construir para la calidad desde el principio
Mantener la calidad de los datos a escala no es solo cuestión de limpiar errores. Comienza con la arquitectura. Necesita identificar dónde viven sus datos más confiables, luego diseñar un sistema que los una en un lugar de confianza. Desde allí, puede rastrear qué datos usa el modelo y de dónde provienen.
Este enfoque evita la confusión y mantiene el sistema transparente. También ayuda a los equipos a solucionar problemas más rápido cuando algo sale mal. Cuando sabe exactamente qué datos alimentaron la respuesta del modelo, puede verificar y corregir problemas antes de que se propaguen.
El futuro de la inteligencia artificial empresarial pertenecerá a las empresas que incorporen la calidad en su infraestructura por defecto. Esperamos ver más sistemas de inteligencia artificial listos para usar que manejen tanto la razonamiento como la integración de datos en un solo paquete. Estos “electrodomésticos de inteligencia artificial” podrían hacer que sea más fácil para las organizaciones implementar sistemas inteligentes sin perder el control de sus datos.
Los analistas predicen que las organizaciones capaces de unificar y gobernar sus datos de manera efectiva verán una adopción más rápida y un mayor retorno de la inversión en proyectos de inteligencia artificial. Un informe reciente sobre preparación de datos explica que esta capacidad separa a las empresas que innovan continuamente de aquellas que se estancan después de los primeros pilotos. La diferencia a menudo se reduce a si sus sistemas de inteligencia artificial se basan en información consistente y bien estructurada.
La parte inferior
La calidad de los datos puede no sonar emocionante en comparación con los avances en el diseño de modelos, pero es la fuerza silenciosa que decide si la inteligencia artificial tiene éxito o fracasa. Sin datos limpios, actuales y consistentes, los sistemas más inteligentes tropezarán. Con ellos, incluso los proyectos de inteligencia artificial modestos pueden crear un valor duradero.
Cada líder que invierte en inteligencia artificial debe hacerse una pregunta simple: ¿Confiamos en los datos que impulsan nuestras decisiones? Desde lo que hemos visto, las empresas que pueden responder con confianza “sí” son las que ya están liderando en la carrera de la inteligencia artificial.












