Líderes de opinión
Si un bot puede coquetear con niños, ¿qué más se le permite hacer con tus datos?

Cuando filtraron las directrices internas que revelaron que Meta permitía que sus chatbots de IA coquetearan con niños, la mayoría de las personas lo trataron como un escándalo y pasaron a otra cosa. Pero vale la pena echar un vistazo más cercano a lo que la investigación nos dice sobre el estado actual de la ética de la IA: si una empresa como Meta está condonando tales políticas a su escala, ¿qué más están permitiendo silenciosamente estas plataformas? ¿Y cuánto de ello involucra tus datos?
Los líderes empresariales tienden a evaluar las herramientas de IA por lo que pueden hacer, con qué rapidez y a qué costo. Pero hay preguntas más difíciles que vale la pena hacer, especialmente a medida que las herramientas de IA se convierten rápidamente en una herramienta básica: ¿Qué términos estás aceptando cuando tus equipos comienzan a utilizar herramientas de IA? ¿Qué están haciendo los proveedores de modelos y los constructores de agentes con tus datos? ¿Y quién asume la responsabilidad cuando algo sale mal?
La mayoría de las organizaciones están tan envueltas en figuringar cómo sacar el máximo provecho de esta nueva tecnología, que aún no se han dado cuenta de considerar la pregunta más importante:
¿Qué está sucediendo realmente con tus datos?
La mayoría de las personas either sobreestiman enormemente el riesgo de compartir algo con un chatbot o descartan el asunto por completo. El hecho es que los grandes modelos de lenguaje están, en cierto sentido, congelados una vez que se entrenan y se lanzan al público. Eso significa que tus conversaciones se almacenan por separado, no se conectan instantáneamente a la memoria del sistema; lo que le dijiste a ChatGPT esta mañana no informa inmediatamente lo que el modelo diría a alguien más por la tarde.
Eso no significa que tus datos no se estén utilizando. Lo están. El camino es simplemente más complicado.
Los registros de conversación se almacenan por separado, y muchos laboratorios de IA reservan explícitamente el derecho de utilizarlos para entrenar la próxima versión de su modelo. Está justo allí en los términos del servicio. Lo que entra como una consulta de soporte al cliente o una lluvia de ideas de estrategia hoy puede, con el tiempo, influir en un modelo que millones utilizarán mañana.
El riesgo para los datos propietarios va más allá de la política. En 2025, Scale AI exposó involuntariamente miles de páginas de materiales de proyectos confidenciales de clientes, incluidos Meta, Google y xAI. Por separado, una violación de datos de un proveedor de OpenAI en noviembre llevó a que los hackers se llevaran datos de clientes, incluyendo nombres, correos electrónicos y detalles del sistema.
Para ser claro, esto no es una situación de cinco alarmas, pero tampoco está exenta de riesgo. Los sistemas de grado empresarial vienen con barandillas contractuales alrededor del reuse de datos. Las herramientas para consumidores en gran medida no. Si tus datos son tan sensibles que querrías un acuerdo de no divulgación para protegerlos, no deberías entregarlos a un chatbot de consumidor y asumir que no se utilizarán en otro lugar.
Los números sugieren que la mayoría de las organizaciones no han absorbido esto aún. Casi ocho de cada diez empleados han pegado información de la empresa en herramientas de IA, y de esos, más de cuatro de cada cinco lo hicieron utilizando sus cuentas personales, según una encuesta de la fuerza laboral de 2025. Una de cada cinco organizaciones ya ha informado de una violación de datos relacionada con el uso de IA en la sombra, y solo 37 por ciento tiene políticas en lugar para detectar o gestionar, según el Informe de costo de una violación de datos de IBM de 2025.
Una vez entendido, este tipo de riesgo de datos no es difícil de sortear. Diferenciar entre herramientas de consumidor y empresariales, saber a qué estás accediendo y habrás cubierto la mayoría de tus bases.
Donde la comunicación mediada por IA falla a las empresas
¿Qué sucede con tus datos es una pieza de la imagen. La otra, y para muchas empresas la más consecuente, es lo que estos sistemas hacen a la calidad y la responsabilidad de tus comunicaciones más importantes.












