Inteligência artificial
Deepfakes e IA: Insights do Relatório de Inteligência e Segurança de Voz da Pindrop de 2024
O avanço rápido da inteligência artificial (IA) trouxe benefícios significativos e mudanças transformadoras em várias indústrias. No entanto, também introduziu novos riscos e desafios, particularmente quando se trata de fraude e segurança. Deepfakes, um produto da IA geradora, estão se tornando cada vez mais sofisticados e representam uma ameaça substancial à integridade dos sistemas de segurança baseados em voz.
As descobertas do Relatório de Inteligência e Segurança de Voz da Pindrop de 2024 destacam o impacto dos deepfakes em vários setores, os avanços tecnológicos que impulsionam essas ameaças e as soluções inovadoras que estão sendo desenvolvidas para combatê-las.
O Surgimento dos Deepfakes: Uma Espada de Dois Gumes
Os deepfakes utilizam algoritmos de aprendizado de máquina avançados para criar conteúdo de áudio e vídeo sintético altamente realista. Embora essas tecnologias tenham aplicações emocionais em entretenimento e mídia, também apresentam desafios de segurança graves. De acordo com o relatório da Pindrop, os consumidores dos EUA estão mais preocupados com o risco de deepfakes e clones de voz no setor bancário e financeiro, com 67,5% expressando preocupação significativa.
Impacto nas Instituições Financeiras
As instituições financeiras são particularmente vulneráveis a ataques de deepfakes. Os fraudadores usam vozes geradas por IA para se passar por indivíduos, obter acesso não autorizado a contas e manipular transações financeiras. O relatório revela que houve um número recorde de violações de dados em 2023, totalizando 3.205 incidentes – um aumento de 78% em relação ao ano anterior. O custo médio de uma violação de dados nos EUA agora é de $ 9,5 milhões, com os centros de contato arcando com a maior parte do impacto de segurança.
Um caso notável envolveu o uso de uma voz deepfake para enganar uma empresa com sede em Hong Kong para transferir $ 25 milhões, destacando o potencial devastador dessas tecnologias quando usadas com má-fé.
Ameaças Mais Amplas à Mídia e à Política
Além dos serviços financeiros, os deepfakes também representam riscos significativos para as instituições de mídia e política. A capacidade de criar conteúdo de áudio e vídeo falso convincente pode ser usada para espalhar desinformação, manipular a opinião pública e minar a confiança nos processos democráticos. O relatório observa que 54,9% dos consumidores estão preocupados com a ameaça dos deepfakes às instituições políticas, enquanto 54,5% se preocupam com o impacto na mídia.
Em 2023, a tecnologia de deepfake foi implicada em vários incidentes de alto perfil, incluindo um ataque de robocall que usou uma voz sintética do presidente Biden. Tais incidentes destacam a urgência de desenvolver mecanismos de detecção e prevenção robustos.
Avanços Tecnológicos que Impulsionam os Deepfakes
A proliferação de ferramentas de IA geradora, como o ChatGPT da OpenAI, o Bard da Google e o Bing AI da Microsoft, reduziu significativamente as barreiras para a criação de deepfakes. Hoje, mais de 350 sistemas de IA geradora são usados para várias aplicações, incluindo Eleven Labs, Descript, Podcastle, PlayHT e Speechify. O modelo VALL-E da Microsoft, por exemplo, pode clonar uma voz a partir de um clipe de áudio de apenas três segundos.
Esses avanços tecnológicos tornaram os deepfakes mais baratos e fáceis de produzir, aumentando sua acessibilidade a usuários benignos e atores mal-intencionados. Até 2025, a Gartner prevê que 80% das ofertas de IA conversacional incorporarão IA geradora, em comparação com 20% em 2023.
Combater os Deepfakes: Inovações da Pindrop
Para enfrentar a ameaça crescente dos deepfakes, a Pindrop introduziu várias soluções de ponta. Uma das mais notáveis é a Garantia de Deepfake Pulse, uma garantia inédita que reembolsa os clientes elegíveis se a Suíte de Produtos da Pindrop falhar em detectar um deepfake ou fraude de voz sintética. Essa iniciativa visa fornecer tranquilidade aos clientes, enquanto impulsiona as capacidades de detecção de fraude.
Soluções Tecnológicas para Melhorar a Segurança
O relatório da Pindrop destaca a eficácia de sua tecnologia de detecção de vivacidade, que analisa chamadas telefônicas ao vivo para recursos espectro-temporais que indicam se a voz na chamada é “ao vivo” ou sintética. Nos testes internos, a solução de detecção de vivacidade da Pindrop foi encontrada para ser 12% mais precisa do que os sistemas de reconhecimento de voz e 64% mais precisa do que os humanos na identificação de vozes sintéticas.
Além disso, a Pindrop emprega prevenção de fraude e autenticação de fator múltiplo integrada, utilizando voz, dispositivo, comportamento, metadados do operador e sinais de vivacidade para melhorar a segurança. Essa abordagem em camadas aumenta significativamente a barreira para os fraudadores, tornando cada vez mais difícil para eles terem sucesso.
Tendências Futuras e Preparação
Olhando para o futuro, o relatório prevê que a fraude de deepfake continuará a crescer, representando um risco de $ 5 bilhões para os centros de contato nos EUA apenas. A crescente sofisticação dos sistemas de texto-para-fala, combinada com a tecnologia de fala sintética de baixo custo, apresenta desafios contínuos.
Para ficar à frente dessas ameaças, a Pindrop recomenda técnicas de detecção de risco antecipado, como detecção de spoofing de ID de chamador e detecção contínua de fraude, para monitorar e mitigar atividades fraudulentas em tempo real. Ao implementar essas medidas de segurança avançadas, as organizações podem se proteger melhor contra o panorama em evolução da fraude impulsionada por IA.
Conclusão
O surgimento dos deepfakes e da IA geradora representa um desafio significativo no campo da fraude e segurança. O Relatório de Inteligência e Segurança de Voz da Pindrop de 2024 destaca a necessidade urgente de soluções inovadoras para combater essas ameaças. Com avanços na detecção de vivacidade, autenticação de fator múltiplo e estratégias de prevenção de fraude abrangentes, a Pindrop está à frente dos esforços para garantir a segurança do futuro das interações baseadas em voz. À medida que o cenário tecnológico continua a evoluir, também devem evoluir nossas abordagens para garantir segurança e confiança na era digital.










