Entre em contato

Quando a IA nos torna mais rápidos, mas não mais inteligentes: e o que os líderes devem fazer a respeito.

Líderes de pensamento

Quando a IA nos torna mais rápidos, mas não mais inteligentes: e o que os líderes devem fazer a respeito.

mm

Para muitos, a IA oferece a solução para uma ampla gama de desafios empresariais. Ela pode atuar como copiloto de código, aprimorar a automação de fluxos de trabalho e servir como assistente de análise. Mas, embora as organizações estejam se movendo mais rapidamente, também estão pensando menos. Portanto, o verdadeiro risco que a IA representa não é a substituição de empregos, mas a erosão do conhecimento. 

Pesquisas já comprovaram isso. A SBS Swiss Business School descobriu que a crescente dependência da IA ​​está ligada a pensamento crítico diminuído habilidades.

Essa erosão tem sérias consequências, pois as habilidades que tornam o julgamento humano valioso estão se deteriorando à medida que as equipes se apoiam na produção de máquinas sem entender como elas funcionam. Raciocínio enfraquecido, suposições não questionadas e governança de modelos degradada não equivalem à eficiência da IA, mas aumentam a fragilidade dos negócios.

A incompreensão da competência em IA

Organizações estão comemorando resultados mais rápidos como prova de uma adoção bem-sucedida de IA. Mas velocidade é uma métrica enganosa. O que muitas equipes chamam de competência em IA é cada vez mais confundido com fluência imediata. Mas os funcionários precisam poder confiar nas respostas que recebem. 

Se um resultado parece correto, muitas pessoas presumem que esteja correto. As verificações de modelos são esquecidas e as suposições não são verificadas. A força de trabalho, então, começa a depender da IA ​​para conclusões que antes exigiam raciocínio. 

A 2025 estudo de pesquisa Apoia esse padrão. O estudo constatou “uma correlação negativa significativa entre o uso frequente de ferramentas de IA e as habilidades de pensamento crítico, mediada pelo aumento da descentralização cognitiva”. Além disso, os participantes mais jovens, que se sentem mais à vontade com interfaces de IA, apresentaram pontuações de pensamento crítico mais baixas do que os participantes mais velhos. 

Este ponto também é corroborado por descobertas em The Economic Times, que descobriu que a proficiência fundamental em IA não vem do domínio de instruções. Ela vem das habilidades humanas que interpretam, questionam e contextualizam a saída da máquina, e a proficiência em IA vem do pensamento crítico, do raciocínio analítico, da resolução criativa de problemas e da inteligência emocional. Sem essas habilidades, os usuários se tornam consumidores passivos de conteúdo de IA em vez de tomadores de decisão ativos. 

Preocupantemente, essa transferência de carga cognitiva foi observada no nível neural. O Economic Times publicou um estudo do MIT Media Lab que revelou que os participantes que usavam o ChatGPT com frequência apresentavam menor retenção de memória, pontuações de desempenho mais baixas e atividade cerebral reduzida ao tentar realizar a tarefa sem o auxílio da IA. Como os pesquisadores afirmaram, “essa conveniência teve um custo cognitivo”. Os alunos que usaram IA tiveram um desempenho pior “em todos os níveis: neural, linguístico e de pontuação”.

Esses resultados ajudam a esclarecer o que os atalhos da IA ​​prejudicam. Eles enfraquecem as habilidades cognitivas das quais os profissionais dependem diariamente: 

  • Raciocínio analítico
  • Testando hipóteses
  • Instintos de depuração
  • Intuição de domínio

Esta pesquisa recente está finalmente revelando as desvantagens negligenciadas da IA ​​no nível humano. E isso está se tornando um problema ainda maior em decisões de alto risco, como gestão de riscos, previsões e alocação de recursos, que exigem compreensão contextual. Quanto menos as pessoas entendem a lógica por trás do design de um modelo, mais incerta se torna a tomada de decisões. 

Por que a falta de habilidades de interação humana cria riscos em nível empresarial

A nova divisão de competências enfraquece a governança.

Com a crescente adoção da IA, uma divisão está surgindo em muitas organizações. De um lado estão os inspetores, que podem questionar, desafiar, interpretar e refinar os resultados. Do outro lado estão os operadores, que aceitam os resultados sem questionar e seguem em frente.

Essa divisão é muito mais importante do que a maioria dos líderes imagina. A governança depende de equipes capazes de questionar as premissas de um modelo, e não apenas as respostas. Quando menos pessoas entendem como um sistema funciona, pequenas mudanças podem passar despercebidas, como os primeiros sinais de desvio do modelo e alterações na qualidade dos dados. 

Quando as equipes aceitam os resultados da IA ​​sem questioná-los, pequenos erros se propagam e se acumulam rapidamente. A dependência excessiva se torna um ponto único de falha. Isso levanta a questão: o que acontece quando uma organização terceiriza o julgamento mais rapidamente do que desenvolve o conhecimento? 

Essa lacuna de governança também representa um gargalo para a inovação. Equipes que não conseguem interagir com a IA não conseguem refinar as solicitações nem reconhecer quando uma descoberta é nova e original. A inovação acaba se centralizando em torno de um grupo cada vez menor de especialistas, o que prejudica a capacidade de adaptação da organização. 

A inovação estagna quando a curiosidade humana diminui.

A IA pode acelerar e automatizar muitas tarefas, mas não pode substituir o instinto humano de questionar e ir além das respostas óbvias. No entanto, esse instinto inerentemente humano está se deteriorando. Isso é conhecido como declínio da capacidade de agir. quatro estágios progresso na forma como os humanos delegam o pensamento às máquinas:

  1. Experimentação: por curiosidade e conveniência, as pessoas começam a delegar pequenas tarefas à IA. É algo que empodera e é eficiente. 
  2. Integração: a IA passa a fazer parte das tarefas diárias. As pessoas ainda possuem habilidades básicas, mas sentem-se um tanto desconfortáveis ​​ao trabalhar com auxílio. 
  3. Dependência: A IA começa a tomar decisões complexas. Os usuários ficam complacentes e as habilidades cognitivas começam a atrofiar, muitas vezes sem que se perceba. 
  4. Vício: também conhecido como cegueira por escolha. As pessoas não conseguem funcionar de forma eficaz sem IA, mas permanecem convencidas de sua própria autonomia. 

Essa progressão é importante porque a IA mina a capacidade de reconhecer quando nos falta conhecimento e de pensar em soluções inovadoras para novos problemas. Essas habilidades de ordem superior exigem prática constante. No entanto, a conveniência da IA ​​torna fácil negligenciá-las. 

As organizações tornam-se então eficientes, mas pouco criativas. A pesquisa e o desenvolvimento dependem da curiosidade e do ceticismo humanos, e ambos diminuem quando os resultados não são questionados. Essa perda de curiosidade e de capacidade de ação representa um risco estratégico. 

A perda do conhecimento tácito torna a organização frágil.

Em equipes saudáveis ​​e funcionais, o conhecimento especializado flui horizontalmente por meio de conexões entre pares e verticalmente, de profissionais mais experientes para os mais jovens. Mas, à medida que os colaboradores repassam suas dúvidas para a IA em vez de para humanos, esses ciclos de mentoria se enfraquecem. Os profissionais mais jovens param de aprender com os especialistas e de absorver suas decisões, e os mais experientes gradualmente deixam de documentar o conhecimento, pois a IA preenche as lacunas rotineiras. 

Com o tempo, o conhecimento essencial se deteriora. Mas esse risco demora a se manifestar, de modo que as empresas aparentam ser produtivas, mas sua base se torna frágil. Quando um modelo falha ou surgem anomalias, as equipes não possuem mais o conhecimento profundo do domínio necessário para responder com segurança.

Um estudo de caso de uma empresa de contabilidade publicado em Os Círculos Viciosos da Erosão de Habilidades Descobriu-se que a dependência a longo prazo da automação cognitiva gera um declínio significativo na expertise humana. À medida que os trabalhadores confiavam mais nas funções automatizadas, sua consciência das próprias atividades, a manutenção da competência e a avaliação do desempenho se enfraqueciam. Os pesquisadores observam que essa erosão de habilidades passa despercebida por funcionários e gerentes, deixando as equipes despreparadas quando os sistemas falham. 

O que os líderes devem fazer para restaurar a profundidade e evitar a dependência excessiva.

As empresas não podem retardar a adoção da IA, mas podem fortalecer o julgamento humano de seus funcionários, o que torna a IA mais confiável. Isso começa com a redefinição da competência em IA em toda a organização, porque fluência imediata não é sinônimo de proficiência. A verdadeira capacidade inclui compreender o raciocínio de um modelo e saber quando substituir a saída da máquina.  

Para entender isso, os funcionários precisam de treinamento sobre como o modelo simplifica o contexto, como a deriva se manifesta no trabalho diário e a diferença entre uma resposta que soa confiante e uma bem fundamentada. Uma vez que essa base esteja estabelecida, os líderes podem reintegrar o pensamento crítico aos fluxos de trabalho diários, normalizando as verificações, como:

  • Que pressuposto este modelo está fazendo?
  • O que tornaria esse resultado incorreto?
  • Isso contradiz algo que sabemos por experiência? 

Essa análise crítica leva apenas alguns minutos, mas combate a crise da terceirização cognitiva, ajudando a manter os funcionários e os resultados dos modelos de IA sob controle. 

A melhor maneira de as empresas treinarem seus funcionários é usando sistemas reais. Muitas vezes, o treinamento se concentra em cenários ideais. Mas as empresas não têm esses cenários; elas têm sistemas onde os dados são incompletos, o contexto é ambíguo e o julgamento humano é fundamental. 

Por exemplo, se uma empresa de logística tivesse treinado sua equipe de roteirização apenas com conjuntos de dados limpos, onde a IA funcionasse perfeitamente, os funcionários estariam completamente despreparados. Condições do mundo real, como intempéries, podem fazer com que os modelos de IA produzam instruções incorretas. Se os funcionários nunca tivessem visto o sistema se comportar de maneira incerta, não reconheceriam os primeiros sinais de desvio nem saberiam quando intervir. Nesse caso, o problema não é o modelo, mas o treinamento inadequado. É essencial treinar os funcionários com a IA que eles têm à disposição, incluindo cenários de desvio, resultados ambíguos, dados parciais e falhas. É aí que a capacidade humana é reconstruída. 

Para garantir que o treinamento seja prático, os líderes empresariais precisam avaliar a capacidade humana, e não apenas os resultados do sistema. As organizações geralmente monitoram a precisão do modelo ou as métricas de redução de custos, mas raramente acompanham os comportamentos que indicam uma supervisão humana eficaz. Os funcionários estão documentando por que confiam nos resultados de um modelo? Estão relatando resultados incomuns? Essas ações observáveis ​​mostram se o raciocínio está se fortalecendo ou se deteriorando. Quando os líderes reconhecem e recompensam as pessoas que aprimoram os resultados por meio de raciocínio profundo ou que levantam dúvidas válidas sobre os resultados da IA, eles reforçam os hábitos que tornam a implementação da IA ​​resiliente. 

A IA continuará a ficar mais rápida. Isso é indiscutível. A questão é se as equipes manterão as habilidades necessárias para questionar, corrigir e redirecionar a IA quando as coisas saírem do controle. É aí que a diferença ficará evidente. As organizações que investirem agora no julgamento humano serão as que obterão valor real da IA, e não uma eficiência superficial. Todas as outras estão construindo sobre areia movediça.

Com mais de 25 anos de experiência em bioquímica, inteligência artificial, biologia espacial e empreendedorismo, Guillermo desenvolve soluções inovadoras para o bem-estar humano na Terra e no espaço. Ele é cofundador e COO da Deep Space Biology, focada na criação de uma plataforma de IA BioSpace multiômica para a exploração espacial segura, e lidera a estratégia de IA na [nome da empresa/organização]. NisumComo consultor de estratégia corporativa, ele contribuiu para a visão da NASA sobre inteligência artificial para a biologia espacial e recebeu prêmios de inovação. Possui mestrado em Inteligência Artificial pelo Georgia Tech, obtido com honras. Além disso, como professor universitário, ministrou cursos sobre aprendizado de máquina, big data e genômica.