Inteligência artificial
Por que os chatbots de IA costumam ser bajuladores?
Você está imaginando coisas ou os chatbots de inteligência artificial (IA) parecem ansiosos demais para concordar com você? Seja dizendo que sua ideia questionável é "brilhante" ou apoiando algo que pode ser falso, esse comportamento está atraindo atenção mundial.
Recentemente, a OpenAI virou manchete depois que usuários notaram que o ChatGPT estava agindo como um puxa-saco. A atualização do seu modelo 4o tornou o bot tão educado e assertivo que ele estava disposto a dizer qualquer coisa para agradar, mesmo que fosse tendencioso.
Por que esses sistemas tendem à bajulação e o que os faz ecoar suas opiniões? Perguntas como essas são importantes para que você possa usar a IA generativa com mais segurança e prazer.
A atualização do ChatGPT que foi longe demais
No início de 2025, os usuários do ChatGPT notaram algo estranho no modelo de linguagem grande (LLM). Ele sempre fora amigável, mas agora estava agradável demais. Começou a concordar com quase tudo, independentemente de quão estranha ou incorreta fosse uma afirmação. Você poderia dizer que discorda de algo verdadeiro, e ele responderia com a mesma opinião.
Essa mudança ocorreu após uma atualização do sistema com o objetivo de tornar o ChatGPT mais útil e comunicativo. No entanto, na tentativa de aumentar a satisfação do usuário, o modelo começou a indexar excessivamente a conformidade. Em vez de oferecer respostas equilibradas ou baseadas em fatos, ele se voltou para a validação.
Quando os usuários começaram a compartilhar suas experiências com respostas excessivamente bajuladoras online, a reação foi rápida. Analistas de IA apontaram o problema como uma falha no ajuste do modelo, e a OpenAI respondeu revertendo partes da atualização para corrigir o problema.
Em uma postagem pública, a empresa admitiu que o GPT-4o é bajulador e prometeu ajustes para reduzir o comportamento. Foi um lembrete de que boas intenções no design de IA às vezes podem dar errado, e que os usuários percebem rapidamente quando ela começa a ser inautêntica.
Por que os chatbots de IA bajulam os usuários?
A bajulação é algo que pesquisadores têm observado em muitos assistentes de IA. Um estudo publicado no arXiv descobriu que a bajulação é um padrão generalizado. A análise revelou que Modelos de IA de cinco provedores de primeira linha Concordar com os usuários de forma consistente, mesmo quando isso leva a respostas incorretas. Esses sistemas tendem a admitir seus erros quando você os questiona, resultando em feedback tendencioso e erros imitados.
Esses chatbots são treinados para acompanhá-lo mesmo quando você está errado. Por que isso acontece? A resposta curta é que os desenvolvedores criaram a IA para que ela pudesse ser útil. No entanto, essa utilidade se baseia em treinamentos que priorizam o feedback positivo do usuário. Por meio de um método chamado aprendizado por reforço com feedback humano (RLHF), modelos aprendem a maximizar respostas que os humanos consideram satisfatórios. O problema é que satisfatório nem sempre significa preciso.
Quando um modelo de IA detecta que o usuário busca um determinado tipo de resposta, ele tende a pecar por ser condescendente. Isso pode significar afirmar sua opinião ou sustentar alegações falsas para manter a conversa fluindo.
Há também um efeito de espelhamento em ação. Os modelos de IA refletem o tom, a estrutura e a lógica da informação que recebem. Se você soar confiante, o bot provavelmente também soará seguro. Mas isso não significa que o modelo esteja pensando que você está certo. Em vez disso, ele está cumprindo sua função de manter as coisas amigáveis e aparentemente úteis.
Embora possa parecer que seu chatbot é um sistema de suporte, isso pode ser um reflexo de como ele foi treinado para agradar em vez de rejeitar.
Os problemas com a IA bajuladora
Pode parecer inofensivo quando um chatbot obedece a tudo o que você diz. No entanto, o comportamento bajulador da IA tem desvantagens, especialmente à medida que esses sistemas se tornam mais amplamente utilizados.
A desinformação tem um passe livre
A precisão é um dos maiores problemas. Quando esses robôs inteligentes confirmam alegações falsas ou tendenciosas, correm o risco de reforçar mal-entendidos em vez de corrigi-los. Isso se torna especialmente perigoso quando se busca orientação sobre temas sérios como saúde, finanças ou atualidades. Se o LLM priorizar a concordância em detrimento da honestidade, as pessoas podem sair com informações erradas e disseminá-las.
Deixa pouco espaço para o pensamento crítico
Parte do que torna a IA atraente é seu potencial para atuar como um parceiro pensante — para desafiar suas suposições ou ajudá-lo a aprender algo novo. No entanto, quando um chatbot sempre concorda, você tem pouco espaço para pensar. Como ele reflete suas ideias ao longo do tempo, pode enfraquecer o pensamento crítico em vez de aprimorá-lo.
Desconsidera vidas humanas
O comportamento bajulador é mais do que um incômodo — é potencialmente perigoso. Se você pedir conselho médico a um assistente de IA e ele responder com um acordo reconfortante em vez de orientações baseadas em evidências, o resultado pode ser seriamente prejudicial.
Por exemplo, digamos que você acesse uma plataforma de consulta para usar um bot médico baseado em IA. Após descrever os sintomas e o que você suspeita que esteja acontecendo, o bot pode validar seu autodiagnóstico ou minimizar sua condição. Isso pode levar a um diagnóstico incorreto ou ao atraso no tratamento, contribuindo para consequências graves.
Mais usuários e acesso aberto tornam o controle mais difícil
À medida que essas plataformas se tornam mais integradas à vida cotidiana, o alcance desses riscos continua a crescer. Agora, só o ChatGPT atende 1 bilhão de usuários toda semana, então preconceitos e padrões excessivamente agradáveis podem fluir entre um público enorme.
Além disso, essa preocupação aumenta quando se considera a rapidez com que a IA está se tornando acessível por meio de plataformas abertas. Por exemplo, DeepSeek AI permite que qualquer pessoa personalize e desenvolver seus LLMs gratuitamente.
Embora a inovação em código aberto seja empolgante, ela também significa muito menos controle sobre o comportamento desses sistemas nas mãos de desenvolvedores sem proteções. Sem supervisão adequada, as pessoas correm o risco de ver comportamentos bajuladores amplificados de maneiras difíceis de rastrear, quanto mais de corrigir.
Como os desenvolvedores do OpenAI estão tentando consertar isso
Após reverter a atualização que tornou o ChatGPT um recurso popular, a OpenAI prometeu corrigi-lo. Veja como a empresa está lidando com esse problema de várias maneiras importantes:
- Reformulando o treinamento principal e os prompts do sistema: Os desenvolvedores estão ajustando a forma como treinam e orientam o modelo com instruções mais claras que o levam em direção à honestidade e o afastam do acordo automático.
- Adicionando barreiras mais fortes para honestidade e transparência: A OpenAI está incorporando mais proteções em nível de sistema para garantir que o chatbot use informações factuais e confiáveis.
- Ampliando os esforços de pesquisa e avaliação: A empresa está investigando mais profundamente o que causa esse comportamento e como preveni-lo em modelos futuros.
- Envolvendo os usuários mais cedo no processo: Está criando mais oportunidades para as pessoas testarem modelos e darem feedback antes que as atualizações sejam publicadas, ajudando a identificar problemas como bajulação mais cedo.
O que os usuários podem fazer para evitar a IA bajuladora
Enquanto os desenvolvedores trabalham nos bastidores para retreinar e refinar esses modelos, você também pode moldar a resposta dos chatbots. Algumas maneiras simples, mas eficazes, de incentivar interações mais equilibradas incluem:
- Usando instruções claras e neutras: Em vez de formular sua opinião de uma forma que implore por validação, tente fazer perguntas mais abertas para que pareça menos pressionado a concordar.
- Peça múltiplas perspectivas: Experimente sugestões que questionem ambos os lados de um argumento. Isso mostra ao mestre que você busca equilíbrio, e não afirmação.
- Desafie a resposta: Se algo parecer muito lisonjeiro ou simplista, peça checagens de fatos ou contrapontos. Isso pode levar o modelo a respostas mais complexas.
- Use os botões de polegar para cima ou polegar para baixo: O feedback é fundamental. Clicar em "não curtir" respostas excessivamente cordiais ajuda os desenvolvedores a identificar e ajustar esses padrões.
- Configurar instruções personalizadas: O ChatGPT agora permite que os usuários personalizem a forma como respondem. Você pode ajustar o tom formal ou casual. Você pode até mesmo pedir para ser mais objetivo, direto ou cético. Se você acessar Configurações > Instruções Personalizadas, poderá dizer à modelo qual tipo de personalidade ou abordagem você prefere.
Dando a verdade por cima de um polegar para cima
A IA bajuladora pode ser problemática, mas a boa notícia é que tem solução. Desenvolvedores estão tomando medidas para orientar esses modelos em direção a um comportamento mais adequado. Se você percebeu que seu chatbot está tentando agradá-lo demais, tente transformá-lo em um assistente mais inteligente e confiável.


