Líderes del pensamiento
Los datos, no la IA, son la clave

La inteligencia artificial se ha arraigado tanto en las empresas que casi todas sus operaciones se han visto afectadas por ella de alguna manera. Y si analizamos el uso de la IA en particular, vemos que las organizaciones se están sumergiendo en nuevas formas de IA para innovar y optimizar los sistemas existentes. De hecho, un estudio reciente... en donde El 98 % de los líderes de TI descubrió que ya utiliza IA agente para orquestar casos de uso de GenAI o planea hacerlo en el futuro cercano.
En medio de la explosión de herramientas y tecnologías de IA que han surgido en los últimos años, los agentes de IA se están convirtiendo rápidamente en uno de los más populares. Estos agentes ayudan a las organizaciones a lograr todo tipo de tareas, desde mejorar la experiencia y el soporte al cliente hasta automatizar procesos internos u optimizar los modelos GenAI ya en uso. Sin embargo, escalar los numerosos beneficios de los agentes de IA, y de la IA en general, a toda la empresa no está exento de dificultades.
La razón por la que muchas organizaciones tienen dificultades con la IA, y en particular con los agentes de IA, a gran escala se debe a la confianza, no a la tecnología. Los agentes de IA, por naturaleza, trabajan en una multitud de sistemas. Dondequiera que se encuentren estos sistemas, es muy probable que dependan de datos altamente sensibles, ya sea un gran volumen de datos de clientes, información médica o datos bancarios y financieros. Aquí radica el problema. Incorporar cantidades masivas de datos a cualquier modelo de IA, sin la infraestructura adecuada de privacidad y seguridad de datos, expone a las empresas a un riesgo considerable.
Independientemente del resultado de un modelo de IA, solo es útil si los datos que lo entrenaron son confiables. Pero se trata de mucho más que simplemente garantizar la seguridad de los datos. Especialmente con los agentes de IA, existe una gran autonomía en el funcionamiento de estos modelos. Asegurarse de que comprendan quién debe acceder a los datos, cuándo y cómo es fundamental para generar confianza.
Sin embargo, superar las complicaciones de la privacidad de datos no es imposible. Con las políticas de datos, la gobernanza de metadatos, las API y los marcos de autorización de nivel empresarial adecuados, los responsables de TI empresariales pueden garantizar la seguridad y la fiabilidad de los datos que alimentan su IA.
Miremos más de cerca.
Navegando por la privacidad de datos y la necesidad de IA a gran escala
Uno de los objetivos más amplios de integrar agentes de IA en una empresa es optimizar los flujos de trabajo en todas las operaciones y sistemas. Sin embargo, hacerlo sin ninguna protección podría exponer inadvertidamente datos confidenciales. En un momento en que las filtraciones de datos y los ataques maliciosos evolucionan constantemente, cualquier dato expuesto o al que accedan usuarios no autorizados podría ser un desastre, no solo para una iniciativa de IA, sino para toda la empresa. El coste medio de una filtración de datos supera los... 4 millones de dólares A partir de 2025, según IBM. La adopción de la IA se está acelerando rápidamente, a menudo dejando atrás la gobernanza y la seguridad, a medida que los líderes empresariales buscan mayor innovación, conocimientos más profundos y nuevas oportunidades de crecimiento. Pero incluso con el auge de la adopción de la IA, las políticas y los requisitos regulatorios están evolucionando para mantener el ritmo y garantizar la seguridad de los datos.
De lo GDPR a la parte superior CCPA Incluso políticas de larga data como HIIPA, las complicaciones regulatorias plantean un desafío complejo para escalar los agentes de IA. Las herramientas de IA que requieren grandes cantidades de datos, si no se controlan, conllevan un mayor riesgo. A medida que los modelos de IA se extienden a todos estos sistemas internos, a menudo se transfieren y se accede a datos confidenciales en el proceso. En lo que respecta a los datos, las agencias reguladoras de todo el mundo están priorizando la privacidad, una gobernanza eficaz y una seguridad robusta.
Políticas más recientes como DORA—un conjunto de directrices sobre la gestión de riesgos de TIC para empresas de servicios financieros que operan en la UE— exige explícitamente la clasificación y notificación de incidentes de TIC, incluidos aquellos que afectan a la confidencialidad, la integridad o la disponibilidad de los datos. Si bien esta política se centra principalmente en la resiliencia operativa, sus implicaciones también se extienden a la adopción de la IA. A medida que más iniciativas de IA, incluidas aquellas con agentes de IA, acceden a datos a escala empresarial, aumenta el riesgo de acceso no autorizado. Si un proyecto de IA resultara en la pérdida o exposición de datos, regulaciones como estas cobrarían relevancia rápidamente.
Con tanto en juego, es importante que las organizaciones empresariales no pierdan de vista cuán importantes son la seguridad, la gobernanza y el acceso a los datos.
Construyendo las bases para impulsar a los agentes de IA
Las empresas necesitan construir una base sólida en una gobernanza eficaz, con límites firmes y reglas aplicables que definan lo que los agentes pueden y no pueden hacer. En el corazón de esta base se encuentra la gobernanza de datos: las políticas, estándares y estructuras de alto nivel que gestionan el uso responsable de los datos en toda la organización. Estas políticas garantizan que los agentes no excedan sus funciones, ya sea accediendo a conjuntos de datos restringidos o iniciando procesos sin supervisión humana.
La implementación de una política sólida de gobernanza de datos debe comenzar con algunos puntos clave. Estos incluyen la rendición de cuentas y la propiedad, la calidad y la consistencia de los datos, la seguridad y la privacidad, el cumplimiento normativo y la auditabilidad, y la transparencia y la trazabilidad.
Con estos puntos como base fundamental de la gobernanza, los líderes empresariales obtienen un mayor control sobre la toma de decisiones, mayor confianza en sus datos y una reducción del riesgo regulatorio que suponen los silos de datos. Esto se logra aprovechando capacidades como la gestión de metadatos, la clasificación y el linaje de datos para aumentar la transparencia y la visibilidad sobre quién o qué herramientas de IA pueden acceder. Cada uno de estos mecanismos permite a las empresas rastrear el origen de los datos, cómo fluyen y cómo se transforman.
La tecnología es importante, pero la confianza es primordial
Cada vez que un nuevo modelo o innovación de IA irrumpe en escena, su adopción se dispara. Sin embargo, con cualquier iniciativa de IA, surgen riesgos, aunque no siempre donde uno podría imaginar. Los desafíos técnicos que suelen dificultar la adopción de nuevas herramientas no siempre son la causa de la lenta integración de la IA. A menudo, la clave está en los datos. En concreto, en la confianza en ellos y en la preocupación por la privacidad. Dado que la IA avanza tan rápido, a veces puede ser un desafío garantizar que aspectos como los controles de acceso, la gobernanza de datos, el linaje y el cumplimiento normativo se mantengan al ritmo.
La gobernanza es un componente importante de la confianza, pero también requiere evaluaciones eficaces. Especialmente en la IA agencial, aún existe una brecha importante en las evaluaciones estandarizadas, aunque estas son esenciales para demostrar que los sistemas funcionan de forma fiable y segura.
Ya sea que desee optimizar el rendimiento de los sistemas internos, mejorar la detección de fraude o simplemente hacer que la experiencia del cliente sea más fluida, los mejores agentes de IA y las iniciativas de IA en general se basan en una base de datos confiables, privacidad y seguridad.












