Verbind je met ons

Artificial Intelligence

Deepfakes en AI: inzichten uit het Voice Intelligence and Security Report 2024 van Pindrop

mm
Bijgewerkt on

De snelle vooruitgang van kunstmatige intelligentie (AI) heeft in verschillende sectoren aanzienlijke voordelen en transformatieve veranderingen teweeggebracht. Het heeft echter ook nieuwe risico's en uitdagingen met zich meegebracht, vooral als het gaat om bedrog en veiligheid. Deepfakes, een product van generatieve AI, worden steeds geavanceerder en vormen een substantiële bedreiging voor de integriteit van spraakgestuurde beveiligingssystemen.

De bevindingen van Pindrop's Voice Intelligence- en beveiligingsrapport 2024benadrukken de impact van deepfakes op verschillende sectoren, de technologische vooruitgang die deze bedreigingen veroorzaakt, en de innovatieve oplossingen die worden ontwikkeld om deze te bestrijden.

De opkomst van deepfakes: een tweesnijdend zwaard

Deepfakes maken gebruik van geavanceerde algoritmen voor machine learning zeer realistisch te creëren synthetische audio- en video-inhoud. Hoewel deze technologieën opwindende toepassingen hebben in entertainment en media, brengen ze ook ernstige veiligheidsproblemen met zich mee. Volgens het rapport van Pindrop maken Amerikaanse consumenten zich het meest zorgen over het risico van deepfakes en stemklonen in de bank- en financiële sector, waarbij 67.5% zich grote zorgen maakt.

Impact op financiële instellingen

Financiële instellingen zijn bijzonder kwetsbaar voor deepfake-aanvallen. Fraudeurs gebruiken door AI gegenereerde stemmen om zich voor te doen als individuen, ongeautoriseerde toegang te krijgen tot accounts en financiële transacties te manipuleren. Uit het rapport blijkt dat er in 2023 een recordaantal datalekken plaatsvonden, met een totaal van 3,205 incidenten – een stijging van 78% ten opzichte van het voorgaande jaar. De gemiddelde kosten van een datalek in de Verenigde Staten bedragen nu 9.5 miljoen dollar, waarbij de contactcentra het zwaarst te lijden hebben onder de gevolgen voor de beveiliging.

Een opmerkelijk geval betrof het gebruik van a deepfake-stem om een ​​in Hongkong gevestigd bedrijf te misleiden om 25 miljoen dollar over te maken, waarbij het verwoestende potentieel van deze technologieën wordt benadrukt wanneer ze kwaadwillig worden gebruikt.

Bredere bedreigingen voor media en politiek

Naast financiële diensten, Deepfakes brengen ook aanzienlijke risico’s met zich mee voor de media en politieke instellingen. Het vermogen om overtuigende nep-audio- en video-inhoud te creëren kan worden gebruikt om desinformatie te verspreiden, de publieke opinie te manipuleren en het vertrouwen in democratische processen te ondermijnen. Het rapport merkt op dat 54.9% van de consumenten zich zorgen maakt over de dreiging van deepfakes voor politieke instellingen, terwijl 54.5% zich zorgen maakt over de impact ervan op de media.

In 2023 was deepfake-technologie betrokken bij verschillende spraakmakende incidenten, waaronder: robocall-aanval waarbij gebruik werd gemaakt van een synthetische stem van president Biden. Dergelijke incidenten onderstrepen de urgentie van het ontwikkelen van robuuste detectie- en preventiemechanismen.

Technologische vooruitgang zorgt voor deepfakes

De proliferatie van generatieve AI-tools, zoals ChatGPT van OpenAI, Bard van Google en Bing AI van Microsoft, heeft de barrières voor het creëren van deepfakes aanzienlijk verlaagd. Tegenwoordig worden meer dan 350 generatieve AI-systemen gebruikt voor verschillende toepassingen, waaronder Eleven Labs, Descript, Podcastle, PlayHT en Speechify. Het VALL-E-model van Microsoft kan bijvoorbeeld een stem klonen uit een audiofragment van slechts drie seconden.

Deze technologische vooruitgang heeft deepfakes goedkoper en gemakkelijker te produceren gemaakt, waardoor de toegankelijkheid ervan voor zowel goedaardige gebruikers als kwaadwillende actoren is toegenomen. Tegen 2025, Gartner voorspelt dat 80% van het conversationele AI-aanbod generatieve AI zal bevatten, tegen 20% in 2023.

Bestrijding van deepfakes: Pindrop's innovaties

Om de groeiende dreiging van deepfakes aan te pakken, heeft Pindrop verschillende geavanceerde oplossingen geïntroduceerd. Een van de meest opvallende is de Pulse Deepfake-garantie, een unieke garantie die in aanmerking komende klanten vergoedt als Pindrop's Product Suite er niet in slaagt een deepfake of andere synthetische stemfraude te detecteren. Dit initiatief is bedoeld om klanten gemoedsrust te bieden en tegelijkertijd de grenzen van de mogelijkheden voor fraudedetectie te verleggen.

Technologische oplossingen om de veiligheid te verbeteren

Het rapport van Pindrop benadrukt de doeltreffendheid van zijn liveness-detectietechnologie, die live telefoongesprekken analyseert op spectro-temporele kenmerken die aangeven of de stem tijdens het gesprek 'live' of synthetisch is. Uit interne tests bleek dat Pindrop's oplossing voor liveness-detectie 12% nauwkeuriger was dan stemherkenningssystemen en 64% nauwkeuriger dan mensen bij het identificeren van synthetische stemmen.

Daarnaast maakt Pindrop gebruik van geïntegreerde multi-factor fraudepreventie en authenticatie, waarbij gebruik wordt gemaakt van spraak-, apparaat-, gedrags-, carrier-metadata en liveness-signalen om de veiligheid te verbeteren. Deze gelaagde aanpak legt de lat voor fraudeurs aanzienlijk hoger, waardoor het voor hen steeds moeilijker wordt om te slagen.

Toekomstige trends en paraatheid

Vooruitblikkend, de prognoses rapporteren dat deepfake-fraude zal blijven toenemen, waardoor alleen al in de VS een risico van 5 miljard dollar ontstaat voor de contactcentra. De toenemende verfijning van tekst-naar-spraaksystemen, gecombineerd met goedkope synthetische spraaktechnologie, zorgt voor voortdurende uitdagingen.

Om deze bedreigingen een stap voor te blijven, raadt Pindrop technieken voor vroege risicodetectie aan, zoals detectie van nummerherkenning en voortdurende fraudedetectie, om frauduleuze activiteiten in realtime te monitoren en te beperken. Door deze geavanceerde beveiligingsmaatregelen te implementeren kunnen organisaties zichzelf beter beschermen tegen het veranderende landschap van AI-gestuurde fraude.

Conclusie

De opkomst van deepfakes en generatieve AI vormt een aanzienlijke uitdaging op het gebied van fraude en veiligheid. Het Voice Intelligence and Security Report 2024 van Pindrop onderstreept de dringende behoefte aan innovatieve oplossingen om deze bedreigingen te bestrijden. Met verbeteringen op het gebied van liveness-detectie, multi-factor authenticatie en uitgebreide fraudepreventiestrategieën loopt Pindrop voorop bij de inspanningen om de toekomst van spraakgebaseerde interacties veilig te stellen. Naarmate het technologielandschap blijft evolueren, moeten ook onze benaderingen om veiligheid en vertrouwen in het digitale tijdperk te garanderen dat doen.

Een van de oprichters van unite.AI en lid van de Forbes Technologieraad, Antoine is een futuristisch die gepassioneerd is over de toekomst van AI en robotica.

Hij is tevens de oprichter van Effecten.io, een website die zich richt op het investeren in disruptieve technologie.