Líderes de pensamento
Construir Confiança em IA com Verificação de Identidade

A IA gerativa capturou o interesse de empresas em todo o mundo. De fato, 60% das organizações com adoção de IA relatada agora estão usando IA gerativa. Hoje, os líderes estão correndo para determinar como incorporar ferramentas de IA em seus conjuntos de tecnologia para permanecer competitivos e relevantes – e os desenvolvedores de IA estão criando mais ferramentas do que nunca. Mas, com a adoção rápida e a natureza da tecnologia, muitas preocupações de segurança e ética não estão sendo totalmente consideradas à medida que as empresas correm para incorporar a última e melhor tecnologia. Como resultado, a confiança está diminuindo.
Uma pesquisa recente encontrou que apenas 48% dos americanos acreditam que a IA é segura e segura, enquanto 78% dizem que estão muito ou um pouco preocupados de que a IA possa ser usada para intenções maliciosas. Embora a IA tenha sido encontrada para melhorar os fluxos de trabalho diários, os consumidores estão preocupados com atores ruins e sua capacidade de manipular a IA. As capacidades de deepfake, por exemplo, estão se tornando mais ameaçadoras à medida que a acessibilidade da tecnologia às massas aumenta.
Ter uma ferramenta de IA não é mais suficiente. Para que a IA atinja seu verdadeiro potencial benéfico, as empresas precisam incorporar a IA em soluções que demonstrem uso responsável e viável da tecnologia para trazer maior confiança aos consumidores, especialmente na cibersegurança, onde a confiança é fundamental.
Desafios de Cibersegurança da IA
A tecnologia de IA gerativa está progredindo a um ritmo rápido e os desenvolvedores estão apenas agora entendendo a importância de trazer essa tecnologia para a empresa, como visto no lançamento recente do ChatGPT Enterprise.
A tecnologia de IA atual é capaz de alcançar coisas que apenas eram discutidas no reino da ficção científica menos de uma década atrás. Como ela opera é impressionante, mas a expansão relativamente rápida em que tudo está acontecendo é ainda mais impressionante. É isso que torna a tecnologia de IA tão escalável e acessível a empresas, indivíduos e, claro, fraudadores. Embora as capacidades da tecnologia de IA tenham liderado a inovação, seu uso generalizado também levou ao desenvolvimento de tecnologias perigosas, como deepfakes como serviço. O termo “deepfake” é derivado da tecnologia que cria esse estilo particular de conteúdo manipulado (ou “falso”) que requer o uso de técnicas de aprendizado profundo.
Os fraudadores sempre seguirão o dinheiro que lhes fornece o maior ROI – então qualquer empresa com um alto potencial de retorno será seu alvo. Isso significa que fintech, empresas que pagam faturas, serviços governamentais e varejistas de bens de alto valor sempre estarão no topo de sua lista.
Estamos em um lugar onde a confiança está em jogo, e os consumidores estão cada vez menos confiáveis, dando a fraudadores amadores mais oportunidades do que nunca para atacar. Com a nova acessibilidade de ferramentas de IA e o custo cada vez mais baixo, é mais fácil para atores ruins de qualquer nível de habilidade manipular imagens e identidades de outras pessoas. As capacidades de deepfake estão se tornando mais acessíveis às massas por meio de aplicativos e sites de deepfake, e criar deepfakes sofisticados requer muito pouco tempo e um nível de habilidade relativamente baixo.
Com o uso da IA, também vimos um aumento nos takeovers de contas. Os deepfakes gerados por IA tornam fácil para qualquer pessoa criar imitações ou identidades sintéticas, seja de celebridades ou até mesmo do seu chefe.
A IA e as aplicações de linguagem gerativa de Large Language Model (LLM) podem ser usadas para criar fraudes mais sofisticadas e evasivas que são difíceis de detectar e remover. Os LLMs, em particular, criaram um uso generalizado de ataques de phishing que podem falar sua língua materna perfeitamente. Isso também cria um risco de “fraude romântica” em larga escala, quando uma pessoa faz uma conexão com alguém por meio de um site ou aplicativo de namoro, mas a pessoa com quem está se comunicando é um golpista usando um perfil falso. Isso está levando muitas plataformas sociais a considerar a implantação de “provas de humanidade” para permanecer viável em larga escala.
No entanto, as soluções de segurança atuais em vigor, que usam análise de metadados, não podem parar atores ruins. A detecção de deepfake é baseada em classificadores que procuram diferenças entre real e falso. No entanto, essa detecção não é mais poderosa o suficiente, pois essas ameaças avançadas requerem mais pontos de dados para detectar.
IA e Verificação de Identidade: Trabalhando Juntos
Os desenvolvedores de IA precisam se concentrar em usar a tecnologia para fornecer salvaguardas melhoradas para medidas de cibersegurança comprovadas. Isso não apenas fornecerá um caso de uso mais confiável para a IA, mas também pode fornecer um uso mais responsável – incentivando melhores práticas de cibersegurança, enquanto avança as capacidades das soluções existentes.
Um dos principais casos de uso dessa tecnologia está dentro da verificação de identidade. O cenário de ameaças de IA está constantemente evoluindo e as equipes precisam estar equipadas com tecnologia que possa rapidamente e facilmente ajustar e implementar novas técnicas.
Algumas oportunidades no uso da IA com tecnologia de verificação de identidade incluem:
- Examinar atributos-chave do dispositivo
- Usar contra-IA para identificar manipulação: Para evitar serem fraudados e proteger dados importantes, a contra-IA pode identificar a manipulação de imagens de entrada.
- Tratar a “falta de dados” como um fator de risco em certas circunstâncias
- Procurar ativamente por padrões em várias sessões e clientes
Essas defesas em camadas fornecidas pela IA e pela tecnologia de verificação de identidade investigam a pessoa, o documento de identidade afirmado, a rede e o dispositivo, minimizando o risco de manipulação como resultado de deepfakes e garantindo que apenas pessoas confiáveis e genuínas tenham acesso aos seus serviços.
A IA e a verificação de identidade precisam continuar a trabalhar juntas. Quanto mais robusto e completo for o conjunto de dados de treinamento, melhor será o modelo, e como a IA é apenas tão boa quanto os dados que ela é alimentada, mais pontos de dados tivermos, mais precisa será a verificação de identidade e a IA.
Futuro da IA e Verificação de Identidade
É difícil confiar em algo online, a menos que seja comprovado por uma fonte confiável. Hoje, o núcleo da confiança online está na identidade comprovada. O acesso a LLMs e ferramentas de deepfake aumenta o risco de fraude online. Grupos de crime organizado estão bem financiados e agora podem aproveitar a última tecnologia em larga escala.
As empresas precisam ampliar seu paisagem de defesa e não podem ter medo de investir em tecnologia, mesmo que isso adicione um pouco de atrito. Já não pode haver apenas um ponto de defesa – elas precisam olhar todos os pontos de dados associados à pessoa que está tentando acessar os sistemas, bens ou serviços e continuar verificando ao longo de sua jornada.
Os deepfakes continuarão a evoluir e se tornarão mais sofisticados, os líderes empresariais precisam revisar continuamente os dados dos implantes de soluções para identificar novos padrões de fraude e trabalhar para evoluir suas estratégias de cibersegurança continuamente ao longo das ameaças.












