Entre em contato

Inteligência artificial

Vijay Balasubramaniyan, cofundador e CEO da Pindrop – série de entrevistas

mm

Publicado

 on

Vijay Balasubramaniyan é cofundador e CEO da Pindrop. Ele ocupou vários cargos de engenharia e pesquisa no Google, Siemens, IBM Research e Intel.

Vijay detém patentes em segurança e escalabilidade VoIP e frequentemente fala sobre ameaças de fraude telefônica em conferências técnicas, incluindo RSA, Black Hat, FS-ISAC, CCS e ICDCS. Vijay obteve um PhD em Ciência da Computação pelo Georgia Institute of Technology. Sua tese de doutorado foi sobre segurança de telecomunicações.

pindropAs soluções da empresa estão abrindo caminho para o futuro da voz, estabelecendo o padrão de identidade, segurança e confiança para cada interação de voz. As soluções da Pindrop protegem alguns dos maiores bancos, seguradoras e varejistas do mundo usando tecnologia patenteada que extrai inteligência de cada chamada e voz encontrada. As soluções Pindrop ajudam a detectar fraudadores e autenticar clientes genuínos, reduzindo fraudes e custos operacionais, ao mesmo tempo que melhoram a experiência do cliente e protegem a reputação da marca. Pindrop, uma empresa privada com sede em Atlanta, GA, foi fundada em 2011 pelo Dr. Vijay BalasubramaniyanDr. Paul Juize Dr. Mustaque Ahamad e é apoiado por Andreessen Horowitz, Citi Ventures, Felicis Ventures, CapitalG, GV, IVP e Vitruvian Partners. Para obter mais informações, visite pindrop.com.

Quais são as principais conclusões Relatório de inteligência e segurança de voz de 2024 da Pindrop em relação ao estado atual da fraude e segurança baseadas em voz?

O relatório fornece um mergulho profundo nas questões urgentes de segurança e nas tendências futuras, especialmente nos contact centers que atendem instituições financeiras e não financeiras. As principais conclusões do relatório incluem:

  • Aumento significativo na fraude em contact centers: A fraude em contact centers aumentou 60% nos últimos dois anos, atingindo os níveis mais altos desde 2019. Até o final deste ano, espera-se que uma em cada 730 chamadas para um contact center seja fraudulenta.
  • Aumentando a sofisticação dos invasores usando Deepfakes: Os ataques deepfake, incluindo sofisticados clones de voz sintética, estão aumentando, representando um risco de fraude estimado em US$ 5 bilhões para os contact centers dos EUA. Essa tecnologia está sendo aproveitada para aprimorar táticas de fraude, como reconhecimento de contas automatizado e em grande escala, personificação de voz, smishing direcionado e engenharia social.
  • Os métodos tradicionais de detecção e autenticação de fraudes não estão funcionando: As empresas ainda dependem da autenticação manual dos consumidores, que é demorada, cara e ineficaz para impedir fraudes. 350 milhões de vítimas de violações de dados. US$ 12 bilhões gastos anualmente em autenticação e US$ 10 bilhões perdidos devido a fraudes são evidências de que os métodos de segurança atuais não estão funcionando
  • Novas abordagens e tecnologias são necessárias: A detecção de vivacidade é crucial para combater a má IA e aumentar a segurança. A análise de voz ainda é importante, mas precisa ser combinada com detecção de vivacidade e autenticação multifatorial. 

Segundo o relatório, 67.5% dos consumidores norte-americanos estão preocupados com os deepfakes no setor bancário. Você pode explicar os tipos de ameaças deepfake que as instituições financeiras enfrentam?

A fraude bancária através de canais telefônicos está aumentando devido a vários fatores. Como as instituições financeiras dependem fortemente dos clientes para confirmar atividades suspeitas, os call centers podem tornar-se os principais alvos dos fraudadores. Os fraudadores usam táticas de engenharia social para enganar os representantes de atendimento ao cliente, persuadindo-os a remover restrições ou ajudar a redefinir as credenciais bancárias on-line. De acordo com um cliente do banco Pindrop, 36% das chamadas fraudulentas identificadas visavam principalmente remover retenções impostas por controles de fraude. Outro cliente do Pindrop Banking relata que 19% das ligações fraudulentas visavam obter acesso ao banco online. Com o surgimento da IA ​​generativa e dos deepfakes, esses tipos de ataques tornaram-se mais potentes e escaláveis. Agora, um ou dois fraudadores numa garagem podem criar qualquer número de vozes sintéticas e lançar ataques simultâneos a múltiplas instituições financeiras e amplificar as suas táticas. Isto criou um elevado nível de risco e preocupação entre os consumidores sobre se o sector bancário está preparado para repelir estes ataques sofisticados. 

Como é que os avanços na IA generativa contribuíram para o aumento dos deepfakes e que desafios específicos estes representam para os sistemas de segurança?

Embora os deepfakes não sejam novos, os avanços na IA generativa os tornaram um vetor potente no ano passado, à medida que foram capazes de se tornar mais verossímeis em uma escala muito maior. Os avanços na GenAI tornaram os grandes modelos de linguagem mais aptos a criar fala e linguagem confiáveis. Agora, o som sintético natural (fala falsa) pode ser criado de forma muito barata e em grande escala. Esses desenvolvimentos tornaram os deepfakes acessíveis a todos, incluindo os fraudadores. Esses deepfakes desafiam os sistemas de segurança, permitindo ataques de phishing altamente convincentes, espalhando informações erradas e facilitando fraudes financeiras por meio de personificações realistas. Eles prejudicam os métodos tradicionais de autenticação, criam riscos significativos à reputação e exigem tecnologias de detecção avançadas para acompanhar sua rápida evolução e escalabilidade.

Como o Pindrop Pulse contribuiu para identificar o mecanismo TTS usado no ataque robocall do presidente Biden e quais implicações isso tem para a detecção futura de deepfakes?

Pindrop Pulse desempenhou um papel crítico na identificação do ElevenLabs, o mecanismo TTS usado no ataque robocall do presidente Biden. Usando nossa tecnologia avançada de detecção de deepfake, implementamos um processo de análise de quatro estágios envolvendo filtragem e limpeza de áudio, extração de recursos, análise de segmento e pontuação contínua. Esse processo nos permitiu filtrar quadros não falados, reduzir a resolução do áudio para replicar as condições típicas do telefone e extrair recursos espectrotemporais de baixo nível. 

Ao dividir o áudio em 155 segmentos e atribuir pontuações de vivacidade, determinamos que o áudio era consistentemente artificial. Usando “impressões falsas”, comparamos o áudio com 122 sistemas TTS e identificamos com 99% de probabilidade de que o ElevenLabs ou um sistema semelhante tenha sido usado. Esse achado foi validado com 84% de probabilidade por meio do ElevenLabs SpeechAI Classifier. Nossa análise detalhada revelou artefatos deepfake, especialmente em frases com fricativas ricas e expressões incomuns para o presidente Biden. 

Este caso ressalta a importância de nossos sistemas de detecção de deepfakes escaláveis ​​e explicáveis, que aumentam a precisão, criam confiança e se adaptam a novas tecnologias. Também destaca a necessidade de sistemas generativos de IA incorporarem salvaguardas contra o uso indevido, garantindo que a clonagem de voz seja consentida por indivíduos reais. Nossa abordagem estabelece uma referência para lidar com ameaças de mídia sintética, enfatizando o monitoramento e a pesquisa contínuos para nos mantermos à frente da evolução dos métodos deepfake.

O relatório menciona preocupações significativas sobre os deepfakes que afetam os meios de comunicação e as instituições políticas. Você poderia fornecer exemplos de tais incidentes e seu impacto potencial?

A nossa investigação descobriu que os consumidores dos EUA estão mais preocupados com o risco de deepfakes e clones de voz no sector bancário e financeiro. Mas, para além disso, a ameaça dos deepfakes de prejudicar os nossos meios de comunicação social e as instituições políticas representa um desafio igualmente significativo. Fora dos EUA, o uso de deepfakes também foi observado na Indonésia (Suharto deepfake) e na Eslováquia (Michal Šimečka e Monika Tódová voice deepfake). 

2024 é um ano eleitoral significativo nos EUA e na Índia. Com a expectativa de que 4 mil milhões de pessoas em 40 países votem, a proliferação da tecnologia de inteligência artificial torna mais fácil do que nunca enganar as pessoas na Internet. Prevemos um aumento nos ataques deepfake direcionados a instituições governamentais, empresas de redes sociais, outros meios de comunicação e à população em geral, que visam criar desconfiança nas nossas instituições e semear a desinformação no discurso público. 

Você pode explicar as tecnologias e metodologias que o Pindrop usa para detectar deepfakes e vozes sintéticas em tempo real?

Pindrop usa uma variedade de tecnologias e metodologias avançadas para detectar deepfakes e vozes sintéticas em tempo real, incluindo: 

    • Detecção de vivacidade: Pindrop usa aprendizado de máquina em grande escala para analisar quadros não falados (por exemplo, silêncio, ruído, música) e extrair recursos espectrotemporais de baixo nível que distinguem entre fala humana gerada por máquina e fala humana genérica
    • Impressão digital de áudio – Isso envolve a criação de uma assinatura digital para cada voz com base em suas propriedades acústicas, como altura, tom e cadência. Essas assinaturas são então usadas para comparar e combinar vozes em diferentes chamadas e interações.
    • Análise de Comportamento – Usado para analisar padrões de comportamento que parecem fora do comum, incluindo acesso anômalo a diversas contas, atividade rápida de bots, reconhecimento de contas, mineração de dados e discagem robótica.
  • Análise de Voz – Ao analisar recursos de voz, como características do trato vocal, variações fonéticas e estilo de fala, o Pindrop pode criar uma impressão vocal para cada indivíduo. Qualquer desvio da impressão de voz esperada pode acionar um alerta.
  • Abordagem de segurança multicamadas – Isso envolve combinar diferentes métodos de detecção para verificar resultados cruzados e aumentar a precisão da detecção. Por exemplo, os resultados da impressão digital auditiva podem ser cruzados com a análise biométrica para confirmar uma suspeita.
  • Aprendizagem Contínua e Adaptação – Pindrop atualiza continuamente seus modelos e algoritmos. Isso envolve incorporar novos dados, refinar técnicas de detecção e ficar à frente das ameaças emergentes. O aprendizado contínuo garante que suas capacidades de detecção melhorem com o tempo e se adaptem a novos tipos de ataques de voz sintética.

O que é a garantia Pulse Deepfake e como ela aumenta a confiança do cliente nas capacidades do Pindrop para lidar com ameaças deepfake?

Pulse Deepfake Warranty é uma garantia inédita que oferece reembolso contra fraude de voz sintética no call center. Enquanto estamos à beira de uma mudança sísmica no cenário dos ataques cibernéticos, espera-se que as perdas financeiras potenciais aumentem para US$ 10.5 trilhões até 2025, a garantia Pulse Deepfake aumenta a confiança do cliente, oferecendo várias vantagens importantes:

  • Confiança aprimorada: A garantia Pulse Deepfake demonstra a confiança da Pindrop em seus produtos e tecnologia, oferecendo aos clientes uma solução de segurança confiável ao atender seus titulares de contas.
  • Reembolso de Perdas: os clientes do Pindrop podem receber reembolsos por eventos de fraude de voz sintética não detectados pelo Pindrop Product Suite.
  • Melhorias Contínuast: As solicitações dos clientes da Pindrop recebidas sob o programa de garantia ajudam a Pindrop a se manter à frente da evolução das táticas de fraude de voz sintética.

Há algum estudo de caso notável em que as tecnologias da Pindrop tenham mitigado com sucesso ameaças deepfake? Quais foram os resultados?

O incidente na escola secundária de Pikesville: Em 16 de janeiro de 2024, uma gravação apareceu no Instagram supostamente apresentando o diretor da Pikesville High School em Baltimore, Maryland. O áudio continha comentários depreciativos sobre estudantes e professores negros, desencadeando uma tempestade de protestos públicos e sérias preocupações.

À luz destes desenvolvimentos, Pindrop empreendeu uma investigação abrangente, conduzindo três análises independentes para descobrir a verdade. Os resultados da nossa investigação minuciosa levaram a uma conclusão sutil: embora o áudio de janeiro tivesse sido alterado, faltavam-lhe as características definitivas da fala sintética gerada por IA. Nossa confiança nesta determinação é apoiada por uma certeza de 97% com base em nossas métricas de análise. Esta conclusão fundamental sublinha a importância de realizar análises detalhadas e objectivas antes de fazer declarações públicas sobre a natureza dos meios de comunicação social potencialmente manipulados.

Em um grande banco dos EUA, Pindrop descobriu que um fraudador estava usando voz sintética para contornar a autenticação no IVR. Descobrimos que o fraudador estava usando voz gerada por máquina para contornar a autenticação IVR para contas específicas, fornecendo as respostas corretas para as perguntas de segurança e, em um caso, até mesmo passando senhas de uso único (OTP). Os bots que foram autenticados com sucesso no IVR identificaram contas que valiam a pena segmentar por meio de consultas básicas de saldo. As ligações subsequentes para essas contas foram feitas por um ser humano real para perpetrar a fraude. Pindrop alertou o banco sobre essa fraude em tempo real usando a tecnologia Pulse e conseguiu deter o fraudador. 

Noutra instituição financeira, Pindrop descobriu que alguns fraudadores estavam a treinar os seus próprios robôs de voz para imitar os sistemas de resposta automatizados dos bancos. No que pareceu uma primeira chamada bizarra, um robô de voz ligou para o IVR do banco não para fazer o reconhecimento da conta, mas para repetir as instruções do IVR. Várias chamadas chegavam a diferentes ramos da árvore de conversação IVR e, a cada dois segundos, o bot reafirmava o que ouvia. Uma semana depois, mais ligações foram observadas fazendo o mesmo, mas, neste momento, o robô de voz repetiu as frases precisamente com a mesma voz e maneirismos do IVR do banco. Acreditamos que um fraudador estava treinando um voicebot para espelhar o IVR do banco como ponto de partida de um ataque smishing. Com a ajuda do Pindrop Pulse, a instituição financeira conseguiu impedir este ataque antes que qualquer dano fosse causado. 

Experimento Deepfake de Áudio NPR Independente: A segurança digital é uma corrida armamentista em constante evolução entre fraudadores e fornecedores de tecnologia de segurança. Existem vários fornecedores, incluindo pindrop, que afirmam detectar deepfakes de áudio de forma consistente – NPR fez essas afirmações ao teste para avaliar se as soluções tecnológicas atuais são capazes de detectar deepfakes de áudio gerados por IA de forma consistente. 

O Pindrop Pulse detectou com precisão 81 das 84 amostras de áudio, traduzindo-se em uma taxa de precisão de 96.4%. Além disso, o Pindrop Pulse detectou 100% de todas as amostras deepfake como tal. Embora outros provedores também tenham sido avaliados no estudo, a Pindrop emergiu como líder ao demonstrar que sua tecnologia pode detectar de maneira confiável e precisa áudio deepfake e genuíno. 

Que tendências futuras em fraude e segurança baseadas em voz você prevê, especialmente com o rápido desenvolvimento das tecnologias de IA? Como a Pindrop está se preparando para lidar com isso?

Esperamos que a fraude em contact centers continue aumentando em 2024. Com base na análise acumulada no ano das taxas de fraude em todos os setores, estimamos de forma conservadora que a taxa de fraude atinja 1 em cada 730 chamadas, representando um aumento de 4-5% em relação aos níveis atuais . 

Espera-se que a maior parte do aumento da fraude tenha impacto no sector bancário, uma vez que se espera que os seguros, a corretagem e outros segmentos financeiros permaneçam nos níveis actuais. Estimamos que estas taxas de fraude representam uma exposição à fraude de 7 mil milhões de dólares para as instituições financeiras nos EUA, que precisa de ser protegida. No entanto, prevemos uma mudança significativa, especialmente com os fraudadores que utilizam IVRs como campo de testes. Recentemente, observamos um aumento no número de fraudadores inserindo manualmente informações de identificação pessoal (PII) para verificar detalhes da conta. 

Para ajudar a combater isso, continuaremos a desenvolver as soluções atuais da Pindrop e a lançar ferramentas novas e inovadoras, como o Pindrop Pulse, que protegem nossos clientes. 

Além das tecnologias atuais, que novas ferramentas e técnicas estão a ser desenvolvidas para melhorar a prevenção e autenticação de fraudes de voz?

As técnicas de prevenção e autenticação de fraudes por voz estão em constante evolução para acompanhar os avanços da tecnologia e a sofisticação das atividades fraudulentas. Algumas ferramentas e técnicas emergentes incluem: 

  • Detecção e investigação contínua de fraudes: Fornece uma “retrospectiva” histórica de instâncias de fraude com novas informações que já estão disponíveis. Com essa abordagem, os analistas de fraude podem “ouvir” novos sinais de fraude, procurar histórico de chamadas que possam estar relacionadas e reavaliar essas chamadas. Isso fornece às empresas uma perspectiva contínua e abrangente sobre fraudes em tempo real. 
  • Análise inteligente de voz: Os sistemas biométricos de voz tradicionais são vulneráveis ​​a ataques deepfake. Para melhorar as suas defesas, são necessárias novas tecnologias, como a incompatibilidade de voz e a correspondência de voz negativa. Essas tecnologias fornecem uma camada adicional de defesa, reconhecendo e diferenciando múltiplas vozes, repetindo chamadas e identificando onde uma voz com som diferente pode representar uma ameaça. 
  • Detecção precoce de fraudes: As tecnologias de detecção de fraude que fornecem um sinal de fraude rápido e confiável no início do processo de chamada são inestimáveis. Além da detecção de vivacidade, tecnologias como análise de metadados da operadora, detecção de falsificação de identificador de chamadas e detecção de falsificação baseada em áudio fornecem proteção contra ataques de fraude no início de uma conversa, quando as defesas estão mais vulneráveis. 

Obrigado pela ótima entrevista, para saber mais leia o Relatório de inteligência e segurança de voz de 2024 da Pindrop ou visite pindrop

Sócio fundador da unite.AI e membro do Conselho de Tecnologia da Forbes, Antoine é um futurista que é apaixonado pelo futuro da IA ​​e da robótica.

Ele também é o fundador da Valores Mobiliários.io, um site que foca em investir em tecnologia disruptiva.