Líderes de pensamento
Se um Bot Pode Flertar Com Crianças, O Que Mais Ele Está Autorizado a Fazer Com Seus Dados?

Quando diretrizes internas vazadas revelaram que a Meta estava permitindo que seus chatbots de IA flertassem com crianças, a maioria das pessoas tratou disso como um escândalo e seguiu em frente. Mas vale a pena dar uma olhada mais próxima no que a investigação nos diz sobre o estado atual da ética da IA: Se uma empresa como a Meta está condenando essas políticas em sua escala, o que mais essas plataformas estão permitindo silenciosamente? E quanto disso envolve seus dados?
Líderes empresariais tendem a avaliar as ferramentas de IA pelo que elas podem fazer, como rápido e a que custo. Mas há perguntas mais difíceis que valem a pena fazer, especialmente à medida que as ferramentas de IA se tornam rapidamente essenciais: Quais são os termos que você concorda quando suas equipes começam a usar ferramentas de IA? O que os provedores de modelos e construtores de agentes estão fazendo com seus dados? E quando algo dá errado, quem assume a responsabilidade?
A maioria das organizações está tão envolvida em descobrir como extrair o máximo de dinheiro dessa nova tecnologia que ainda não teve tempo de considerar a pergunta mais importante:
O que está acontecendo com seus dados?
A maioria das pessoas either superestima o risco de compartilhar algo com um chatbot ou descarta a questão por completo. O fato é que os grandes modelos de linguagem estão, de certa forma, congelados uma vez que são treinados e liberados ao público. Isso significa que suas conversas são armazenadas separadamente, não instantaneamente conectadas à memória do sistema; o que você disse ao ChatGPT esta manhã não está imediatamente informando o que o modelo diria a alguém mais à tarde.
Isso não significa que seus dados não estão sendo usados. Eles estão. O caminho é simplesmente mais complicado.
Os registros de conversas são armazenados separadamente, e muitos laboratórios de IA reservam explicitamente o direito de usá-los para treinar a próxima versão de seu modelo. Está lá nos termos de serviço. O que entra como uma consulta de suporte ao cliente ou uma reunião de estratégia hoje pode, com o tempo, influenciar um modelo que milhões usarão amanhã.
O risco para dados proprietários vai além da política. Em 2025, a Scale AI expos involuntariamente milhares de páginas de materiais de projeto confidenciais de clientes, incluindo Meta, Google e xAI. Separadamente, uma violação em novembro de um fornecedor da OpenAI levou a hackers que fizeram com que os dados dos clientes, incluindo nomes, e-mails e detalhes do sistema, fossem roubados.
Para ser claro, isso não é uma situação de cinco alarmes, mas também não está livre de risco. Os sistemas de nível empresarial vêm com guardrails contratuais em torno do reuso de dados. As ferramentas de consumidor em grande parte não. Se seus dados forem tão sensíveis que você gostaria de um NDA para protegê-los, você não deve entregá-los a um chatbot de consumidor e assumir que não serão usados em outro lugar.
Os números sugerem que a maioria das organizações ainda não absorveu isso. Quase oito em cada dez funcionários colaram informações da empresa em ferramentas de IA, e desses, mais de quatro em cada cinco fizeram isso usando suas contas pessoais, de acordo com uma pesquisa da força de trabalho de 2025. Uma em cada cinco organizações já relatou uma violação ligada ao uso de IA na sombra, e apenas 37 por cento tem políticas em vigor para detectar ou gerenciar, de acordo com o Relatório de Custo de Violação de Dados da IBM de 2025.
Uma vez entendido, esse tipo de risco de dados não é difícil de contornar. Diferenciar entre ferramentas de consumidor e empresarial, saber o que você está assinando, e você terá coberto a maioria de suas bases.
Onde a comunicação mediada por IA falha para as empresas
O que acontece com seus dados é uma parte do quadro. A outra, e para muitas empresas a mais consequencial, é o que esses sistemas fazem com a qualidade e a responsabilidade de suas comunicações mais importantes.
Pense nas conversas que movem os negócios: reuniões para manter clientes de longo prazo; uma negociação de vendas onde o tom e a confiança são quase mais importantes do que a linguagem do acordo; ou uma apresentação trimestral do conselho sobre o progresso em relação aos marcos do ano. Fica claro que a IA pode lidar com os elementos transacionais dessas interações de forma razoável, como tomar notas de reunião, atribuir prioridades e destacar pontos de ação. Ela luta com tudo o que está por baixo.
Os modos específicos de falha valem a pena ser nomeados. A IA comprime o contexto; resume, suaviza e padroniza de maneiras que podem tirar a nuances. Além disso, o conteúdo gerado por grandes modelos de linguagem é difícil de verificar. As pessoas para quem você enviou um e-mail gerado por IA ou resumiu notas de reunião não têm como confirmar se o que receberam reflete o que você quis dizer, ou se a mensagem não foi filtrada ou reestruturada pela IA.
Isso não significa que a IA não tenha lugar nas comunicações empresariais. Ela claramente tem. Mas há uma categoria de conversa onde os ganhos de eficiência não justificam a exposição, e a maioria das organizações não pensou o suficiente sobre diferenciar esses casos de uso.
Saiba quando fazer você mesmo
Então, a pergunta se torna: Para suas comunicações mais sensíveis, a IA deve estar no loop?
Minha resposta honesta é não, pelo menos não sem uma pessoa que possa ser responsabilizada por aquilo que foi dito, como foi dito e se a mensagem foi entregue. Verificar a comunicação humana não é uma preferência pela maneira antiga de fazer as coisas; é apenas um reconhecimento de que algumas conversas requerem uma pessoa para apoiá-las.
Os líderes devem fazer sua lição de casa. O que a política de dados do fornecedor diz sobre reuso? O que acontece com os registros de conversa da sua equipe quando o contrato termina? Essas não são perguntas para a equipe de TI resolver no fundo. São perguntas de aquisição, e elas pertencem mais cedo no processo do que é o caso atual.
O bot que foi autorizado a flertar com crianças não tomou essa decisão sozinho. Alguém aprovou. Todo sistema de IA reflete o julgamento das pessoas que o construíram e implantaram, e essas chamadas não são sempre óbvias por fora.
Até que as ferramentas para auditoria de ferramentas e sistemas de IA alcancem seu nível de adoção, a posição mais defensável que os líderes empresariais podem tomar é traçar a linha entre quais conversas eles estão confortáveis em rotear por IA e quais não estão.
O argumento de eficiência para a IA é convincente. Assim como o argumento para possuir o que sai em seu nome.












