Connect with us

Estas as Empresas Preparadas para a Próxima Onda de Ciberataques Impulsionados por IA?

Cibersegurança

Estas as Empresas Preparadas para a Próxima Onda de Ciberataques Impulsionados por IA?

mm

Analisar tendências atuais permite que os especialistas prevejam como os cibercriminosos utilizarão a inteligência artificial no futuro. Com essas informações, eles podem identificar as maiores ameaças emergentes e determinar se as empresas estão preparadas. Eles podem até ser capazes de discernir uma solução. 

O Estado das Ameaças de IA nos Últimos Anos

Embora a tecnologia de IA seja relativamente nova, ela já se tornou uma ferramenta proeminente para hackers. Essas tendências sugerem que os ciberataques de IA estão em ascensão. 

1. Manipulação de Modelos

Ao visar diretamente os grandes modelos de linguagem (LLMs), os atores ameaçadores podem manipular o comportamento do modelo, diminuir a precisão da saída ou expor dados de treinamento de identificação pessoal. O envenenamento de dados e a engenharia de prompts são técnicas de ataque comuns. 

Alguns ataques são liderados por atores ameaçadores que buscam causar caos ou roubar informações sensíveis. Outros são administrados por artistas descontentes que desejam proteger suas obras de arte contra a extração de IA. De qualquer forma, a empresa e seus usuários finais são afetados negativamente.  

2. Ataques de Impersonação

Em 2024, um executivo da Ferrari recebeu várias mensagens de WhatsApp do CEO, Benedetto Vigna. Vigna falou sobre uma aquisição iminente e instou seu funcionário a assinar um acordo de não divulgação. Ele até ligou para discutir o financiamento. Havia um problema — não era ele.

O deepfake era quase perfeito, imitando o sotaque italiano meridional de Vigna de forma excepcional. No entanto, pequenas inconsistências na voz alertaram o executivo para o golpe. O funcionário perguntou sobre o título de um livro que Vigna havia recomendado dias antes, uma pergunta que apenas o verdadeiro CEO saberia responder. O golpista desligou imediatamente. 

A IA pode clonar a voz de uma pessoa, o comportamento de navegação, o estilo de escrita e a semelhança. À medida que essa tecnologia avança, torna-se cada vez mais difícil identificar deepfakes. Os golpistas frequentemente colocam o alvo em uma situação de urgência para evitar que ele questione pequenas discrepâncias. 

3. Phishing de IA

No passado, uma pessoa podia identificar um e-mail de phishing procurando por gramática ruim, links suspeitos, saudações genéricas e solicitações fora de lugar. Agora, com a tecnologia de processamento de linguagem natural, os hackers podem criar mensagens convincentes com gramática impecável.

Pesquisadores descobriram que e-mails de phishing de Spear automatizados e habilitados por IA têm uma taxa de cliques de 54%, o que é comparável à taxa de cliques de e-mails de phishing escritos por humanos. Como esses golpes são mais convincentes, eles estão se tornando cada vez mais comuns. Estudos descobriram que mais de 80% dos e-mails de phishing mostram evidências de envolvimento de IA. 

4. Engenharia Social

A engenharia social envolve manipular alguém para que ele tome uma ação ou divulgue informações. A IA permite que os hackers respondam mais rapidamente e criem mensagens mais convincentes. Qualquer modelo de processamento de linguagem natural pode realizar uma análise semântica para identificar o estado emocional do destinatário, tornando-o mais provável de ceder. 

Além de aprimorar as técnicas de engenharia social, a tecnologia de aprendizado de máquina reduz as barreiras de entrada tradicionais, permitindo que novatos realizem campanhas sofisticadas. Se qualquer pessoa pode se tornar um cibercriminoso, qualquer pessoa pode se tornar um alvo. 

A Próxima Onda de Ataques de IA Orientados por Dados

No início de 2026, os ataques de IA devem permanecer em um nível de maturidade baixo. No entanto, eles avançarão exponencialmente à medida que o ano progride, permitindo que os cibercriminosos entrem nas fases de otimização, implantação e escalabilidade. Eles logo poderão lançar campanhas totalmente automatizadas. Exemplos confirmados de ciberataques de IA não serão raros por muito tempo. 

O malware polimórfico é um vírus habilitado por IA que pode alterar seu código a cada vez que se replica para evitar detecção. Os atacantes podem entregar a carga útil por meio de ecossistemas de IA, chamar LLMs em tempo de execução para gerar comandos ou incorporar diretamente o vírus no LLM. O Google Threat Intelligence Group descobriu que os adversários implantaram esse malware pela primeira vez em 2025.  

As famílias de malware são PROMPTFLUX e PROMPTSTEAL. Durante a execução, elas usam LLMs para solicitar técnicas de ofuscação e evasão de VBScript. Eles evitam a detecção baseada em assinatura ofuscando seu próprio código sob demanda. 

Evidências sugerem que essas ameaças ainda estão na fase de teste — alguns recursos incompletos estão comentados, e as chamadas de programação de aplicações são limitadas. Essas famílias de malware de IA em desenvolvimento podem ainda estar em desenvolvimento, mas sua mera existência representa um grande passo adiante na direção de técnicas de ataque autônomas e adaptáveis. 

A pesquisa da NYU Tandon mostra que os LLMs já podem executar autonomamente ataques de ransomware, apelidados de Ransomware 3.0. Eles podem realizar reconhecimento, gerar cargas úteis e personalizar extorsão sem intervenção humana. Isso requer apenas prompts de linguagem natural incorporados no binário. O modelo produz variantes polimórficas que se adaptam ao ambiente de execução gerando dinamicamente o código malicioso em tempo de execução. 

Estas as Empresas Preparadas para Ataques de IA?

Apesar de bilhões gastos em segurança cibernética, as empresas privadas continuam a lutar para acompanhar a evolução do cenário de ameaças. A tecnologia de aprendizado de máquina pode tornar o software de detecção e resposta existente obsoleto, complicando ainda mais a defesa. Não ajuda que muitas delas falhem em atender aos padrões de segurança básicos. 

O relatório de maturidade de segurança cibernética DIB de 2024 pesquisou 400 profissionais de tecnologia da informação nos Estados Unidos da base industrial de defesa (DIB). Mais da metade dos respondentes relatou estar anos longe do cumprimento do Cybersecurity Maturity Model Certification (CMMC) 2.0, apesar do cumprimento equivalente do NIST 800-171 ter sido delineado nos contratos do Departamento de Defesa (DoD) desde 2016. Muitos avaliam sua postura de segurança como muito melhor do que realmente é. 

Os novos requisitos do CMMC entraram em vigor em 10 de novembro de 2025. Em frente, todos os contratos do DoD exigirão algum nível de cumprimento do CMMC como condição de premiação do contrato. As novas regras visam fortalecer a segurança cibernética da DIB, mas serão eficazes na era da IA?

A IA Defensiva é a Resposta?

Lutar fogo com fogo pode ser a única maneira de combater a inevitável onda de ataques de IA. Com a IA defensiva, as organizações podem responder dinamicamente às ameaças em tempo real. No entanto, essa abordagem vem com suas próprias falhas de segurança — garantir a segurança do modelo contra manipulação exigirá supervisão e auditoria contínuas. 

De acordo com a Harvard Business Review, soluções convencionais deixam as empresas vulneráveis a ataques cibernéticos de IA. Para alcançar a resiliência cibernética, elas devem usar a tecnologia de aprendizado de máquina para antecipar e responder automaticamente às ameaças. 

Não há uma resposta simples para saber se a IA defensiva é a solução para esse problema. As empresas devem investir seus recursos para implantar ferramentas de aprendizado de máquina não comprovadas ou expandir suas equipes de tecnologia da informação? É impossível prever qual investimento dará retorno a longo prazo. 

Grandes empresas podem ver retornos significativos com segurança cibernética automatizada, enquanto pequenas empresas podem lutar para justificar o custo. A tecnologia de automação convencional pode fechar a lacuna a um preço muito menor, mas não poderá responder a ameaças dinâmicas. 

Steve Durbin, CEO do Information Security Forum, afirma que a adoção de IA tem benefícios significativos, mas também tem desvantagens importantes. Por exemplo, as empresas frequentemente experimentam um aumento de alertas de positivos falsos, o que desperdiça o tempo das equipes de segurança. Além disso, a dependência excessiva de IA pode levar as equipes a se tornarem excessivamente confiantes, resultando em lapsos de segurança. 

Navegando no Cenário de Ameaças de IA

É impossível determinar a extensão exata da presença da IA no cenário de ameaças, pois os atacantes podem utilizá-la para criar código malicioso ou redigir e-mails de phishing, em vez de usá-la em tempo de execução. Cibercriminosos solitários e grupos de ameaças patrocinados pelo Estado podem estar usando em larga escala. 

Com base nas informações disponíveis, a manipulação de modelos, o phishing de IA e o malware polimórfico serão as maiores ameaças cibernéticas de 2026. Os cibercriminosos provavelmente continuarão usando LLMs para gerar, entregar e adaptar cargas úteis maliciosas, visando indústrias de alto valor, como finanças, bem como pessoas comuns.

Zac Amos é um escritor de tecnologia que se concentra em inteligência artificial. Ele também é o editor de recursos do ReHack, onde você pode ler mais sobre seu trabalho.