Connect with us

Líderes de pensamento

O LLM e a IA Geradora Resolverão um Problema de 20 Anos na Segurança de Aplicativos?

mm

No cenário em constante evolução da cibersegurança, manter-se à frente dos atores mal-intencionados é um desafio constante. Durante as últimas duas décadas, o problema da segurança de aplicativos persistiu, com métodos tradicionais frequentemente falhando na detecção e mitigação de ameaças emergentes. No entanto, uma nova tecnologia promissora, IA Geradora (GenAI), está prestes a revolucionar o campo. Neste artigo, exploraremos como a IA Geradora é relevante para a segurança, por que ela aborda desafios de longa data que as abordagens anteriores não conseguiram resolver, as possíveis perturbações que ela pode trazer para o ecossistema de segurança e como ela difere dos modelos de Aprendizado de Máquina (ML) mais antigos.

Por que o Problema Exige Nova Tecnologia

O problema da segurança de aplicativos é multifacetado e complexo. As medidas de segurança tradicionais dependem principalmente da correspondência de padrões, detecção baseada em assinaturas e abordagens baseadas em regras. Embora eficazes em casos simples, esses métodos lutam para abordar as maneiras criativas pelas quais os desenvolvedores escrevem código e configuram sistemas. Os adversários modernos constantemente evoluem suas técnicas de ataque, ampliam a superfície de ataque e tornam a correspondência de padrões insuficiente para proteger contra riscos emergentes. Isso exige uma mudança de paradigma nas abordagens de segurança, e a IA Geradora detém uma possível chave para lidar com esses desafios.

A Magia do LLM na Segurança

A IA Geradora é uma evolução sobre os modelos mais antigos usados nos algoritmos de aprendizado de máquina que eram ótimos para classificar ou agrupar dados com base no aprendizado de amostras sintéticas. Os LLMs modernos são treinados em milhões de exemplos de grandes repositórios de código (por exemplo, GitHub) que são parcialmente marcados para problemas de segurança. Ao aprender com vastas quantidades de dados, os modelos LLM modernos podem entender os padrões subjacentes, estruturas e relacionamentos dentro do código e ambiente do aplicativo, permitindo que eles identifiquem possíveis vulnerabilidades e prevejam vetores de ataque, dado os inputs e priming corretos.

Outro grande avanço é a capacidade de gerar amostras de correção realistas que podem ajudar os desenvolvedores a entender a causa raiz e resolver problemas mais rapidamente, especialmente em organizações complexas onde os profissionais de segurança estão isolados e sobrecarregados.

Perturbações Imminentes Habilitadas pela GenAI

A IA Geradora tem o potencial de perturbar o ecossistema de segurança de aplicativos de várias maneiras:

Detecção Automática de Vulnerabilidades: As ferramentas de varredura de vulnerabilidades tradicionais frequentemente dependem da definição manual de regras ou da correspondência de padrões limitada. A IA Geradora pode automatizar o processo aprendendo com extensos repositórios de código e gerando amostras sintéticas para identificar vulnerabilidades, reduzindo o tempo e o esforço necessários para análise manual.

Simulação de Ataque Adversário: O teste de segurança geralmente envolve simular ataques para identificar pontos fracos em um aplicativo. A IA Geradora pode gerar cenários de ataque realistas, incluindo ataques sofisticados e multietapas, permitindo que as organizações fortaleçam suas defesas contra ameaças do mundo real. Um ótimo exemplo é o “BurpGPT”, uma combinação de GPT e Burp, que ajuda a detectar problemas de segurança dinâmicos.

Geração Inteligente de Patches: Gerar patches eficazes para vulnerabilidades é uma tarefa complexa. A IA Geradora pode analisar bases de código existentes e gerar patches que abordam vulnerabilidades específicas, economizando tempo e minimizando erros humanos no processo de desenvolvimento de patches.

Embora esse tipo de correção tenha sido tradicionalmente rejeitado pela indústria, a combinação de correções de código automatizadas e a capacidade de gerar testes pela GenAI pode ser uma ótima maneira para a indústria impulsionar os limites para novos níveis.

Inteligência de Ameaças Aumentada: A IA Geradora pode analisar grandes volumes de dados relacionados à segurança, incluindo relatórios de vulnerabilidades, padrões de ataque e amostras de malware. A GenAI pode melhorar significativamente as capacidades de inteligência de ameaças, gerando insights e identificando tendências emergentes de uma indicação inicial para um playbook real e ação, permitindo estratégias de defesa proativas.

O Futuro do LLM e da Segurança de Aplicativos

Os LLMs ainda têm lacunas para alcançar a segurança de aplicativos perfeita devido à sua compreensão contextual limitada, cobertura de código incompleta, falta de avaliação em tempo real e ausência de conhecimento específico de domínio. Para abordar essas lacunas nos próximos anos, uma solução provável terá que combinar abordagens de LLM com ferramentas de segurança dedicadas, fontes de enriquecimento externas e scanners. Os avanços contínuos em IA e segurança ajudarão a preencher essas lacunas.

Em geral, se você tiver um conjunto de dados maior, poderá criar um LLM mais preciso. Isso é o mesmo para o código, então, quando tivermos mais código na mesma linguagem, poderemos usá-lo para criar LLMs melhores, o que, por sua vez, impulsionará uma melhor geração de código e segurança para frente.

Antecipamos que nos próximos anos, testemunharemos avanços na tecnologia LLM, incluindo a capacidade de utilizar tamanhos de token maiores, o que tem um grande potencial para melhorar ainda mais a cibersegurança baseada em IA de maneiras significativas.

Neatsun Ziv é o CEO e co-fundador da OX Security, a primeira solução de segurança de cadeia de suprimento de software de ponta a ponta para DevSecOps. Antes de fundar a OX, ele foi o VP de Segurança Cibernética da Check Point, onde supervisionou todas as iniciativas de segurança cibernética. Sua equipe foi uma das primeiras a responder aos ataques SolarWinds, NotPetya e outros ataques importantes, trabalhando em estreita colaboração com a Interpol, CERT Local e outras agências de aplicação da lei.