CĂber segurança
Como os hackers estĂŁo usando a inteligĂȘncia artificial

A IA provou ser uma tecnologia de valor agregado em toda a economia global.
Ă medida que as empresas se esforçavam para se adaptar aos eventos atuais nos Ășltimos anos, algumas delas encontraram maneiras de acumular o valor de meia dĂ©cada - no caso da Frito-Lay â das transformaçÔes digitais em um prazo muito mais curto. Harris Poll e Appen descobriram que Os orçamentos de IA aumentaram em 55% durante a pandemia mundial.
Como qualquer ferramenta, a inteligĂȘncia artificial nĂŁo tem valor moral inato. A utilidade ou potencial de dano da IA ââse resume a como o sistema âaprendeâ e o que os humanos fazem com ele.
Algumas tentativas de alavancar a IA â como âpreverâ o crime antes que ele aconteça â mostram que modelos treinados em dados tendenciosos tendem a replicar as deficiĂȘncias humanas. AtĂ© agora, o treinamento de IA usando dados do sistema de justiça dos EUA resultou em tragicamente raciocĂnio de IA preconceituoso.
Em outros exemplos, os humanos escolhem maneiras mais deliberadas de aproveitar o potencial destrutivo da IA. Os hackers estĂŁo mostrando suas tendĂȘncias inovadoras mais uma vez, usando a inteligĂȘncia artificial para melhorar o alcance, a eficĂĄcia e a lucratividade de seus ataques. E como a guerra cibernĂ©tica se torna cada vez mais comum em todo o mundo, certamente veremos as aplicaçÔes da IA ââem hacking se desenvolverem ainda mais.
IA Ă© uma oportunidade e um risco
A inteligĂȘncia artificial oferece um mundo de possibilidades para empresas que desejam melhorar as estratĂ©gias de previsĂŁo, otimização de negĂłcios e retenção de clientes. TambĂ©m Ă© uma sorte inesperada para aqueles que pretendem comprometer a soberania digital de outras pessoas.
Aqui estĂŁo algumas maneiras pelas quais a inteligĂȘncia artificial pode ser suscetĂvel a adulteraçÔes discretas e esforços mais evidentes para transformĂĄ-la em açÔes agressivas.
1. Comprometendo a LĂłgica da MĂĄquina
A principal vantagem da IA ââpara consumidores e empresas comerciais Ă© que ela realiza atos de lĂłgica previsĂveis e repetĂveis sem interferĂȘncia humana. Esta Ă© tambĂ©m a sua maior fraqueza.
Como qualquer outra construção digital, a IA pode ser suscetĂvel Ă penetração de forças externas. Os hackers que acessam e comprometem a lĂłgica da mĂĄquina que alimenta a IA podem fazer com que ela execute açÔes imprevisĂveis ou prejudiciais. Por exemplo, uma IA encarregada do monitoramento de condiçÔes industriais pode fornecer leituras falsas ou deixar que os pings de manutenção nĂŁo sejam entregues.
Como todo o objetivo dos investimentos em IA é eliminar a intervenção humana e os resultados duvidosos, o dano à infraestrutura ou à qualidade do produto causado por um ataque dessa natureza pode não ser percebido até uma falha catastrófica.
2. Utilizando Algoritmos de Engenharia Reversa
Outro caminho potencial para danos â especialmente quando se trata de propriedade intelectual (IP) e dados de consumidores ou comerciais â Ă© a noção de engenharia reversa. Os hackers podem atĂ© roubar o prĂłprio cĂłdigo de inteligĂȘncia artificial. Com tempo suficiente para estudar como funciona, eles poderiam eventualmente descobrir os conjuntos de dados usados para treinar a IA em primeiro lugar.
Isso pode provocar vårios resultados, o primeiro dos quais é o envenenamento por IA. Outros exemplos podem envolver hackers aproveitando os próprios dados de treinamento de IA para coletar informaçÔes comprometedoras sobre mercados, concorrentes, governos, fornecedores ou consumidores em geral.
3. Aprendendo sobre os alvos pretendidos
A vigilĂąncia de alvos Ă© provavelmente uma das implicaçÔes mais perturbadoras da IA ââcair nas mĂŁos de hackers. A capacidade da IA ââde chegar a conclusĂ”es sobre as habilidades de uma pessoa, ĂĄreas de conhecimento, temperamento e a probabilidade de ser vĂtima de segmentação, fraude ou abuso estĂĄ se mostrando particularmente preocupante para alguns especialistas em segurança cibernĂ©tica.
A inteligĂȘncia artificial pode ingerir e chegar a conclusĂ”es surpreendentemente detalhadas sobre pessoas, equipes e grupos com base em alguns dos pontos de dados mais improvĂĄveis. Um indivĂduo âenvolvidoâ ou âdistraĂdoâ pode digitar rapidamente, mexer com o mouse ou mover-se rapidamente entre as guias do navegador. Um usuĂĄrio que estĂĄ âconfusoâ ou âhesitanteâ pode fazer uma pausa antes de clicar nos elementos da pĂĄgina ou revisitar vĂĄrios sites.
Nas mĂŁos certas, dicas como essas ajudam os departamentos de RH a aumentar o engajamento dos funcionĂĄrios ou ajudam as equipes de marketing a aprimorar seus sites e funis de vendas.
Para os hackers, sinais como esses podem resultar em um perfil psicolĂłgico surpreendentemente sutil de um alvo pretendido. Os cibercriminosos podem saber, com base em dicas invisĂveis para os humanos, quais pessoas podem ser vulnerĂĄveis ââa phishing, smishing, ransomware, fraude financeira e outros tipos de danos. TambĂ©m pode ajudar os malfeitores a aprender a melhor forma de convencer seus alvos de que suas tentativas de fraude vĂȘm de fontes legĂtimas.
4. Sondagem de vulnerabilidades de rede
Profissionais de segurança cibernética publicaram dados em 20,175 vulnerabilidades de segurança conhecidas em 2021. Isso foi um aumento em relação a 2020, quando havia 17,049 dessas vulnerabilidades.
O mundo estĂĄ cada vez mais interconectado digitalmente â alguns diriam interdependente â a cada hora. O mundo agora hospeda um nĂșmero vertiginoso de redes industriais e de pequena escala, com bilhĂ”es de dispositivos conectados online e mais a caminho. Tudo estĂĄ online, desde sensores de monitoramento de condição atĂ© software de planejamento empresarial.
A inteligĂȘncia artificial mostra-se promissora em ajudando as equipes de segurança cibernĂ©tica rapidamente sondar vulnerabilidades de rede, software e hardware mais rĂĄpido do que os humanos sozinhos. A velocidade e a escala do crescimento da infraestrutura digital da Terra significam que Ă© quase impossĂvel pesquisar trilhĂ”es de linhas de cĂłdigo para corrigir falhas de segurança. Tudo isso tem que acontecer enquanto esses sistemas estĂŁo online devido ao custo do tempo de inatividade.
Se a IA Ă© uma ferramenta de segurança cibernĂ©tica aqui, tambĂ©m Ă© uma faca de dois gumes. Os hackers podem usar os mesmos mecanismos que a multidĂŁo de TI âwhite hatâ para realizar o mesmo trabalho: sondar redes, software e firmware em busca de vulnerabilidades com mais eficiĂȘncia do que especialistas humanos em TI.
Uma corrida armamentista digital
Existem muitos aplicativos de IA no cibercrime para citar todos, mas aqui estĂŁo mais alguns:
- Os hackers podem ocultar o cĂłdigo AI dentro de um aplicativo benigno que executa um comportamento malicioso quando detecta um gatilho ou limite predeterminado.
- Modelos maliciosos de IA podem ser usados ââpara determinar credenciais ou recursos de gerenciamento de TI monitorando a entrada biomĂ©trica, como impressĂ”es digitais e reconhecimento de voz.
- Mesmo que uma tentativa de ataque cibernético falhe, os hackers equipados com IA poderão usar o aprendizado de måquina para determinar o que deu errado e o que poderiam fazer de diferente na próxima vez.
Parecia levar apenas uma histĂłria bem colocada sobre hackear um jipe ââenquanto ele estĂĄ dirigindo para retardar o desenvolvimento de veĂculos autĂŽnomos. Um hack de alto perfil em que a IA atua como um eixo central pode causar uma erosĂŁo semelhante na opiniĂŁo pĂșblica. Algumas pesquisas mostram que o americano mĂ©dio Ă© altamente duvidoso sobre os benefĂcios da IA jĂĄ.
A computação onipresente traz riscos de segurança cibernĂ©tica â e tanto os hackers de chapĂ©u branco quanto os de chapĂ©u preto sabem disso. A IA pode ajudar a manter nossas vidas online seguras, mas tambĂ©m Ă© o epicentro de uma nova corrida armamentista digital.












