toco Como os hackers estão usando a inteligência artificial - Unite.AI
Entre em contato

Cíber segurança

Como os hackers estão usando a inteligência artificial

mm

Publicado

 on

A IA provou ser uma tecnologia de valor agregado em toda a economia global.

À medida que as empresas se esforçavam para se adaptar aos eventos atuais nos últimos anos, algumas delas encontraram maneiras de acumular o valor de meia década - no caso da Frito-Lay – das transformações digitais em um prazo muito mais curto. Harris Poll e Appen descobriram que Os orçamentos de IA aumentaram em 55% durante a pandemia mundial.

Como qualquer ferramenta, a inteligência artificial não tem valor moral inato. A utilidade ou potencial de dano da IA ​​se resume a como o sistema “aprende” e o que os humanos fazem com ele.

Algumas tentativas de alavancar a IA – como “prever” o crime antes que ele aconteça – mostram que modelos treinados em dados tendenciosos tendem a replicar as deficiências humanas. Até agora, o treinamento de IA usando dados do sistema de justiça dos EUA resultou em tragicamente raciocínio de IA preconceituoso.

Em outros exemplos, os humanos escolhem formas mais deliberadas de alavancar o potencial destrutivo da IA. Os hackers estão mostrando suas tendências inovadoras mais uma vez, usando inteligência artificial para melhorar o alcance, a eficácia e a lucratividade de seus ataques. E como a guerra cibernética se torna cada vez mais comum em todo o mundo, certamente veremos as aplicações da IA ​​em hacking se desenvolverem ainda mais.

IA é uma oportunidade e um risco

A inteligência artificial oferece um mundo de possibilidades para empresas que desejam melhorar as estratégias de previsão, otimização de negócios e retenção de clientes. Também é uma sorte inesperada para aqueles que pretendem comprometer a soberania digital de outras pessoas.

Aqui estão algumas maneiras pelas quais a inteligência artificial pode ser suscetível a adulterações discretas e esforços mais evidentes para transformá-la em ações agressivas.

1. Comprometendo a Lógica da Máquina

A principal vantagem da IA ​​para consumidores e empresas comerciais é que ela realiza atos de lógica previsíveis e repetíveis sem interferência humana. Esta é também a sua maior fraqueza.

Como qualquer outra construção digital, a IA pode ser suscetível à penetração de forças externas. Os hackers que acessam e comprometem a lógica da máquina que alimenta a IA podem fazer com que ela execute ações imprevisíveis ou prejudiciais. Por exemplo, uma IA encarregada do monitoramento de condições industriais pode fornecer leituras falsas ou deixar que os pings de manutenção não sejam entregues.

Como todo o objetivo dos investimentos em IA é eliminar a intervenção humana e os resultados duvidosos, o dano à infraestrutura ou à qualidade do produto causado por um ataque dessa natureza pode não ser percebido até uma falha catastrófica.

2. Utilizando Algoritmos de Engenharia Reversa

Outro caminho potencial para danos – especialmente quando se trata de propriedade intelectual (IP) e dados de consumidores ou comerciais – é a noção de engenharia reversa. Os hackers podem até roubar o próprio código de inteligência artificial. Com tempo suficiente para estudar como funciona, eles poderiam eventualmente descobrir os conjuntos de dados usados para treinar a IA em primeiro lugar.

Isso pode provocar vários resultados, o primeiro dos quais é o envenenamento por IA. Outros exemplos podem envolver hackers aproveitando os próprios dados de treinamento de IA para coletar informações comprometedoras sobre mercados, concorrentes, governos, fornecedores ou consumidores em geral.

3. Aprendendo sobre os alvos pretendidos

A vigilância de alvos é provavelmente uma das implicações mais perturbadoras da IA ​​cair nas mãos de hackers. A capacidade da IA ​​de chegar a conclusões sobre as habilidades de uma pessoa, áreas de conhecimento, temperamento e a probabilidade de ser vítima de segmentação, fraude ou abuso está se mostrando particularmente preocupante para alguns especialistas em segurança cibernética.

A inteligência artificial pode ingerir e chegar a conclusões surpreendentemente detalhadas sobre pessoas, equipes e grupos com base em alguns dos pontos de dados mais improváveis. Um indivíduo “envolvido” ou “distraído” pode digitar rapidamente, mexer com o mouse ou mover-se rapidamente entre as guias do navegador. Um usuário que está “confuso” ou “hesitante” pode fazer uma pausa antes de clicar nos elementos da página ou revisitar vários sites.

Nas mãos certas, dicas como essas ajudam os departamentos de RH a aumentar o engajamento dos funcionários ou ajudam as equipes de marketing a aprimorar seus sites e funis de vendas.

Para os hackers, sinais como esses podem resultar em um perfil psicológico surpreendentemente sutil de um alvo pretendido. Os cibercriminosos podem saber, com base em dicas invisíveis para os humanos, quais pessoas podem ser vulneráveis ​​a phishing, smishing, ransomware, fraude financeira e outros tipos de danos. Também pode ajudar os malfeitores a aprender a melhor forma de convencer seus alvos de que suas tentativas de fraude vêm de fontes legítimas.

4. Sondagem de vulnerabilidades de rede

Profissionais de segurança cibernética publicaram dados em 20,175 vulnerabilidades de segurança conhecidas em 2021. Isso foi um aumento em relação a 2020, quando havia 17,049 dessas vulnerabilidades.

O mundo está cada vez mais interconectado digitalmente – alguns diriam interdependente – a cada hora. O mundo agora hospeda um número vertiginoso de redes industriais e de pequena escala, com bilhões de dispositivos conectados online e mais a caminho. Tudo está online, desde sensores de monitoramento de condição até software de planejamento empresarial.

A inteligência artificial mostra-se promissora em ajudando as equipes de segurança cibernética rapidamente sondar vulnerabilidades de rede, software e hardware mais rápido do que os humanos sozinhos. A velocidade e a escala do crescimento da infraestrutura digital da Terra significam que é quase impossível pesquisar trilhões de linhas de código para corrigir falhas de segurança. Tudo isso tem que acontecer enquanto esses sistemas estão online devido ao custo do tempo de inatividade.

Se a IA é uma ferramenta de segurança cibernética aqui, também é uma faca de dois gumes. Os hackers podem usar os mesmos mecanismos que a multidão de TI “white hat” para realizar o mesmo trabalho: sondar redes, software e firmware em busca de vulnerabilidades com mais eficiência do que especialistas humanos em TI.

Uma corrida armamentista digital

Existem muitos aplicativos de IA no cibercrime para citar todos, mas aqui estão mais alguns:

  • Os hackers podem ocultar o código AI dentro de um aplicativo benigno que executa um comportamento malicioso quando detecta um gatilho ou limite predeterminado.
  • Modelos maliciosos de IA podem ser usados ​​para determinar credenciais ou recursos de gerenciamento de TI monitorando a entrada biométrica, como impressões digitais e reconhecimento de voz.
  • Mesmo que uma tentativa de ataque cibernético falhe, os hackers equipados com IA poderão usar o aprendizado de máquina para determinar o que deu errado e o que poderiam fazer de diferente na próxima vez.

Parecia levar apenas uma história bem colocada sobre hackear um jipe ​​enquanto ele está dirigindo para retardar o desenvolvimento de veículos autônomos. Um hack de alto perfil em que a IA atua como um eixo central pode causar uma erosão semelhante na opinião pública. Algumas pesquisas mostram que o americano médio é altamente duvidoso sobre os benefícios da IA já.

A computação onipresente traz riscos de segurança cibernética – e tanto os hackers de chapéu branco quanto os de chapéu preto sabem disso. A IA pode ajudar a manter nossas vidas online seguras, mas também é o epicentro de uma nova corrida armamentista digital.

Zac Amos é um escritor de tecnologia com foco em inteligência artificial. Ele também é o editor de recursos da Rehackear, onde você pode ler mais de seu trabalho.