Connect with us

Líderes de pensamento

Não Culpe a IA pelo Problema de Credibilidade da RP

mm

Um artigo recente do Unite.ai examinou como a IA transformou a pesquisa de RP – tornando-a mais rápida para coletar dados, identificar tendências e produzir resultados prontos para a mídia, mas também mais difícil de garantir a precisão e a confiabilidade. Essa observação captura uma tensão real na indústria e merece uma análise mais profunda. O problema não é a IA em si; é como a velocidade pode superar o julgamento.

A IA certamente tornou a RP mais rápida. Mas, como sabemos ao dirigir, mais rápido não é sempre o caminho mais inteligente.

A tecnologia condensou o que costumava ser um processo cuidadoso e passo a passo – projetar pesquisas, limpar dados, validar fontes – em algo que pode acontecer quase instantaneamente. Essa compressão economiza tempo, mas também remove as pausas naturais que nos davam espaço para verificar e questionar o que encontramos. Sem essas pausas, a precisão se torna mais fácil de perder. O risco real não é que a IA vá quebrar a RP. É que vamos fazer isso nós mesmos, confundindo aceleração com progresso.

A lacuna de credibilidade na RP não é culpa da IA – pelo menos não diretamente. A lacuna vem de como rapidamente a IA nos permite nos mover. Todas as vezes que publicamos sem verificação ou tratamos “mais rápido” como sinônimo de “melhor”, erodimos a confiança que torna nosso trabalho importante. A credibilidade é o que dá peso ao nosso trabalho como profissionais de RP – quando a conquistamos. Preservar a credibilidade significa desacelerar o suficiente para questionar o que publicamos e tornar a verificação parte do processo, e não um afterthought.

Desacelere para acelerar

A IA tornou fácil mover-se de uma ideia para um conjunto de dados em tempo recorde. O que antes levava dias agora leva horas — e essa aceleração silenciosamente se tornou um reflexo da indústria. Mas a velocidade nos dá volume, não validade. Jornalistas não se importam com que rapidez entregamos dados; eles se importam se os dados se sustentam. Eu vi ferramentas de IA produzir resumos impressionantes de dezenas de artigos, mas também vi inventar estatísticas que soavam plausíveis, mas não tinham fonte real.

Estudos reforçam a necessidade de cautela. Um estudo da JMIR encontrou que grandes modelos de linguagem “alucinavam” – produzindo informações falsas ou não verificadas – em cerca de 40 por cento das saídas do GPT-3.5 e 29 por cento das saídas do GPT-4, mesmo em tarefas baseadas em fatos. Da mesma forma, uma auditoria da NewsGuard mostrou que sistemas de IA espalhavam alegações falsas ou enganosas em aproximadamente um terço das respostas relacionadas a notícias. Ambos os achados destacam uma verdade simples: a velocidade amplifica o risco quando a verificação não acompanha.

É por isso que gastar tempo extra para verificar não é um atraso; é um investimento em credibilidade. Um dia gasto confirmado dados, refinando o contexto ou testando a narrativa muitas vezes revela insights que de outra forma perderíamos. Pode significar a diferença entre um título que some e uma história que impulsiona uma conversa real. Desacelerar não é sobre resistir à tecnologia. É sobre manter o julgamento humano que transforma informações em algo que as audiências podem confiar.

Mantenha os humanos no loop

A IA é ótima em produzir resultados. Mas não é tão boa em saber se esses resultados fazem sentido. Esse é o problema central. Modelos podem gerar respostas a pesquisas, resumir milhares de artigos e até sintetizar insights que parecem airtight no papel. Mas modelos de IA não entendem contexto, intenção ou consequência. Um ser humano pode.

Essa discrepância é bem documentada na ética e discurso de confiabilidade da IA. O fenômeno da “alucinação” é frequentemente atribuído à forma como os LLMs aprendem padrões a partir de dados de treinamento em vez de princípios fundamentais, o que significa que podem afirmar coisas com confiança, mas sem base. No domínio da RP, o risco é especialmente agudo: as saídas da interface podem refletir vieses ou enquadrar alegações de maneira que favoreça narrativas em vez de fatos.

É fácil ver como um “fato” errante pode sair do controle. Imagine um ponto de dados gerado por IA que faz seu caminho para um pitch deck; uma porcentagem que soa certa e apoia a história. O cliente ama. Um repórter o cita. Então alguém verifica a fonte e percebe que nunca foi real. De repente, o que foi destinado a posicionar uma marca como pensada se torna uma tempestade de credibilidade.

Então, “manter os humanos no loop” não pode ser apenas uma linha em uma apresentação do PowerPoint – tem que ser como o trabalho é feito de fato. Editores, analistas e especialistas em domínio precisam estar lá para fazer as perguntas desconfortáveis que tornam o produto final confiável. Eles podem capturar vieses, sinalizar enquadramento fraco e garantir que o que publicamos reflita a realidade. Em outras palavras: a IA pode se mover rapidamente, mas ainda precisa de um motorista que saiba quando aplicar os freios. Sem esse julgamento, não estamos melhorando o processo; estamos apenas automatizando erros.

Treine para julgamento

À medida que a IA reorganiza o trabalho, a forma como treinamos tem que mudar junto. A maioria dos profissionais de comunicação hoje está bem além do ponto de aprender a escrever prompts melhores. A habilidade que todos precisamos agora é julgamento – saber quando confiar na saída, quando questioná-la e quando descartá-la completamente.

Quando eu treino jovens profissionais de RP, eu enfatizo que a IA pode escrever dez versões de um pitch em segundos. O trabalho deles não é escolher a mais brilhante; é encontrar a versão que realmente soa como o cliente e, em seguida, torná-la mais forte. Isso pode significar apertar o argumento, fundamentá-lo em dados reais ou adicionar a voz e o tom que a torna credível. Um modelo de IA pode criar uma cópia, mas nosso julgamento a transforma em comunicação que vale a pena ler.

Essa mudança já está acontecendo. Algumas agências estão mudando de “engenharia de prompts” para “edição de credibilidade”, construindo hábitos em torno de verificar alegações, validar fontes e alinhar a mensagem com a voz da marca. Exercícios agora incluem perguntas como: Eu diria isso a um repórter? Eu colocaria meu nome nisso?

Essas perguntas simples constroem os reflexos que protegem tanto os clientes quanto as reputações. E esse é o objetivo real da IA na RP. Não é sobre copiar mais rápido, mas sobre julgamento mais afiado. Treinar para julgamento eleva o padrão de pensamento e fortalece a confiança que torna a velocidade sustentável.

Meça confiança, não prazo

Profissionais de RP normalmente medem o desempenho por meio de métricas como velocidade de entrega, volume de cobertura e custo por colocação. Mas em uma indústria impulsionada por IA, essas métricas não contam a história toda. A saída é fácil de quantificar; a credibilidade não é. E, no entanto, é isso que clientes e jornalistas estão pesando mais do que nunca.

A diferença entre quantidade e credibilidade aparece nos dados. Em um estudo de medição, a análise de sentimento humana alcançou 85 por cento de precisão, em comparação com 59 por cento para métodos baseados em IA – uma lacuna que quantifica o papel da revisão crítica. Não é que os humanos trabalhem mais rápido, mas que interpretam o contexto, e é o mesmo instinto que os clientes confiam quando avaliam a credibilidade. Se podemos medir essa diferença de precisão, também podemos medir o valor da supervisão humana em si.

Tim Gray é um líder em comunicações e Consultor de Comunicações Estratégicas na Intelligent Relations. Um ex-jornalista de negócios e tecnologia, ele liderou comunicações corporativas e de produtos para marcas de alto crescimento e agora ajuda a moldar a estratégia na Intelligent Relations, uma plataforma de RP alimentada por IA.