Connect with us

Inteligência artificial

IA Enganosa: Explorando Modelos Gerativos em Esquemas Criminosos

mm
Discover how generative AI, including models like GPT-3 and DALL-E, is being exploited by cybercriminals for phishing, frauds, and deepfakes

IA Gerativa, um subconjunto de Inteligência Artificial, ganhou proeminência rapidamente devido à sua notável capacidade de gerar várias formas de conteúdo, incluindo texto semelhante ao humano, imagens realistas e áudio, a partir de vastos conjuntos de dados. Modelos como GPT-3, DALL-E e Redes Adversárias Gerativas (GANs) demonstraram capacidades excepcionais a este respeito.

Um relatório da Deloitte destaca a natureza dual da IA Gerativa e enfatiza a necessidade de vigilância contra a IA Enganosa. Embora os avanços da IA ajudem na prevenção de crimes, também empoderam atores mal-intencionados. Apesar de aplicações legítimas, essas ferramentas potentes são cada vez mais exploradas por cibercriminosos, fraudadores e atores afiliados ao Estado, levando a um aumento em esquemas complexos e enganosos.

O Crescimento da IA Gerativa em Atividades Criminosas

O crescimento da IA Gerativa levou a um aumento em atividades enganosas que afetam tanto o ciberespaço quanto a vida diária. Phishing, uma técnica para enganar indivíduos a divulgar informações sensíveis, agora utiliza a IA Gerativa para tornar os e-mails de phishing altamente convincentes. À medida que o ChatGPT se torna mais popular, os e-mails de phishing aumentaram, com criminosos usando-o para criar mensagens personalizadas que parecem comunicações legítimas.

Esses e-mails, como alertas de banco falsos ou ofertas atraentes, aproveitam a psicologia humana para enganar os destinatários a dar informações sensíveis. Embora a OpenAI proíba o uso ilegal de seus modelos, aplicar essa proibição não é fácil. Promptings inocentes podem facilmente se transformar em esquemas mal-intencionados, exigindo revisores humanos e sistemas automatizados para detectar e prevenir o mau uso.

Da mesma forma, a fraude financeira também aumentou com os avanços da IA. A IA Gerativa alimenta golpes, criando conteúdo que engana investidores e manipula a opinião do mercado. Imagine encontrar um chatbot, aparentemente humano, mas projetado apenas para enganar. A IA Gerativa impulsiona esses bots, envolvendo os usuários em conversas aparentemente genuínas, enquanto extrai informações sensíveis. Modelos gerativos também melhoram ataques de engenharia social criando mensagens personalizadas que exploram confiança, empatia e urgência. As vítimas caem em armadilhas para pedidos de dinheiro, dados confidenciais ou credenciais de acesso.

Doxxing, que envolve revelar informações pessoais sobre indivíduos, é outra área onde a IA Gerativa ajuda criminosos. Seja desmascarando personas anônimas online ou expostas detalhes privados, a IA amplifica o impacto, levando a consequências no mundo real, como roubo de identidade e assédio.

E então há deepfakes, vídeos, áudio ou imagens gerados por IA que parecem reais. Esses duplos digitais embaçam a realidade, apresentando riscos que vão desde a manipulação política até a assassinação de personagens.

Incidentes Notáveis de Deepfakes com Impactos Críticos

O mau uso da IA Gerativa levou a uma série de incidentes incomuns, destacando os profundos riscos e desafios apresentados por essa tecnologia quando cai em mãos erradas. A tecnologia de deepfake, em particular, embaça as linhas entre realidade e ficção. Resultante da união de GANs e malevolência criativa, deepfakes misturam elementos reais e fabricados. GANs consistem em duas redes neurais: o gerador e o discriminador. O gerador cria conteúdo cada vez mais realista, como faces, enquanto o discriminador tenta detectar os falsos.

Incidentes notáveis envolvendo deepfakes já ocorreram. Por exemplo, Dessa utilizou um modelo de IA para criar uma cópia de voz convincente de Joe Rogan, demonstrando a capacidade da IA de produzir vozes falsas realistas. Deepfakes também tiveram um impacto significativo na política, como visto em vários exemplos. Por exemplo, um robocall que imitava o presidente dos EUA, Joe Biden, enganou eleitores de New Hampshire, enquanto gravações de áudio geradas por IA na Eslováquia imitaram um candidato liberal para influenciar os resultados das eleições. Vários incidentes semelhantes foram relatados, afetando a política de muitos países.

Golpes financeiros também utilizaram deepfakes. Uma empresa de engenharia britânica chamada Arup foi vítima de um golpe de deepfake no valor de £20 milhões, no qual um funcionário de finanças foi enganado para transferir fundos durante uma chamada de vídeo com fraudadores que usavam vozes e imagens geradas por IA para imitar executivos da empresa. Isso destaca o potencial da IA para fraude financeira.

Cibercriminosos cada vez mais exploram ferramentas de IA Gerativa, como WormGPT e FraudGPT, para melhorar seus ataques, criando uma ameaça significativa de segurança cibernética. WormGPT, baseado no modelo GPT-J, facilita atividades maliciosas sem restrições éticas. Pesquisadores da SlashNext usaram-no para criar um e-mail de fatura fraudulenta altamente persuasivo. FraudGPT, que circula em canais do Telegram, é projetado para ataques complexos e pode gerar código malicioso, criar páginas de phishing convincentes e identificar vulnerabilidades de sistema. O surgimento dessas ferramentas destaca a crescente sofisticação das ameaças cibernéticas e a necessidade urgente de medidas de segurança aprimoradas.

Implicações Legais e Éticas

As implicações legais e éticas da enganação impulsionada por IA apresentam uma tarefa formidável em meio a avanços rápidos em modelos gerativos. Atualmente, a IA opera dentro de uma zona cinzenta regulatória, com formuladores de políticas precisando de ajuda para acompanhar os desenvolvimentos tecnológicos. Estruturas robustas são urgentemente necessárias para limitar o mau uso e proteger o público de golpes e atividades fraudulentas impulsionadas por IA.

Além disso, os criadores de IA têm responsabilidade ética. Transparência, divulgação e adesão a diretrizes são aspectos essenciais do desenvolvimento responsável de IA. Desenvolvedores devem antecipar o uso indevido potencial e criar medidas para que seus modelos de IA mitiguem riscos de forma eficaz.

Manter um equilíbrio entre inovação e segurança é importante para enfrentar os desafios apresentados pela fraude impulsionada por IA. Regulação excessiva pode restringir o progresso, enquanto a supervisão relaxada convida ao caos. Portanto, regulamentações que promovam a inovação sem comprometer a segurança são imperativas para o desenvolvimento sustentável.

Além disso, os modelos de IA devem ser projetados com segurança e ética em mente. Incorporar recursos como detecção de viés, testes de robustez e treinamento adversarial pode melhorar a resistência contra exploração maliciosa. Isso é particularmente importante, considerando a crescente sofisticação dos golpes impulsionados por IA, enfatizando a necessidade de previsão ética e agilidade regulatória para proteger contra o potencial enganoso dos modelos de IA Gerativa.

Estratégias de Mitigação

Estratégias de mitigação para o uso enganoso de modelos de IA Gerativa exigem uma abordagem multifacetada que envolva medidas de segurança aprimoradas e colaboração entre as partes interessadas. Organizações devem empregar revisores humanos para avaliar o conteúdo gerado por IA, usando sua expertise para identificar padrões de mau uso e aprimorar os modelos. Sistemas automatizados equipados com algoritmos avançados podem varrer por sinais de alerta associados a golpes, atividades maliciosas ou desinformação, servindo como sistemas de alerta antecipado contra ações fraudulentas.

Além disso, a colaboração entre empresas de tecnologia, agências de aplicação da lei e formuladores de políticas é vital para detectar e prevenir enganos impulsionados por IA. As empresas de tecnologia devem compartilhar insights, melhores práticas e inteligência de ameaças, enquanto as agências de aplicação da lei trabalham em estreita colaboração com especialistas em IA para ficar à frente dos criminosos. Formuladores de políticas precisam se envolver com empresas de tecnologia, pesquisadores e sociedade civil para criar regulamentações eficazes, enfatizando a importância da cooperação internacional no combate aos enganos impulsionados por IA.

Olhando para o futuro, o futuro da IA Gerativa e prevenção de crimes é caracterizado por desafios e oportunidades. À medida que a IA Gerativa evolui, também evoluirão as táticas criminosas, com avanços em IA quântica, computação de borda e modelos descentralizados moldando o campo. Portanto, a educação sobre desenvolvimento ético de IA está se tornando cada vez mais fundamental, com escolas e universidades instadas a tornar cursos de ética obrigatórios para praticantes de IA.

O Ponto Principal

A IA Gerativa apresenta tanto benefícios imensos quanto riscos significativos, destacando a necessidade urgente de estruturas regulatórias robustas e desenvolvimento ético de IA. À medida que cibercriminosos exploram ferramentas avançadas, estratégias de mitigação eficazes, como supervisão humana, algoritmos de detecção avançados e cooperação internacional, são essenciais.

Equilibrando inovação com segurança, promovendo transparência e projetando modelos de IA com salvaguardas incorporadas, podemos combater eficazmente a ameaça crescente de engano impulsionado por IA e garantir um ambiente tecnológico mais seguro para o futuro.

O Dr. Assad Abbas, um Professor Associado Titular da COMSATS University Islamabad, Paquistão, obteve seu Ph.D. na North Dakota State University, EUA. Sua pesquisa se concentra em tecnologias avançadas, incluindo computação em nuvem, névoa e borda, análise de big data e IA. O Dr. Abbas fez contribuições substanciais com publicações em jornais científicos e conferências respeitáveis. Ele também é o fundador de MyFastingBuddy.