Artificiell intelligens
Deepfakes och AI: Insikter från Pindrops 2024 Voice Intelligence and Security Report
Den snabba utvecklingen av artificiell intelligens (AI) har medfört betydande fördelar och omvälvande förändringar inom olika branscher. Det har dock också introducerat nya risker och utmaningar, särskilt när det gäller bedrägeri och säkerhet. Deepfakes, en produkt av generativ AI, blir alltmer sofistikerade och utgör en betydande hot mot integriteten hos röstbaserade säkerhetssystem.
Fynden från Pindrops 2024 Voice Intelligence and Security Report belyser effekterna av deepfakes på olika sektorer, de tekniska framstegen som driver dessa hot och de innovativa lösningarna som utvecklas för att bekämpa dem.
Uppkomsten av Deepfakes: Ett tvåeggat svärd
Deepfakes använder avancerade maskinlärningsalgoritmer för att skapa högrealistiska syntetiska ljud- och videoinnehåll. Medan dessa teknologier har spännande tillämpningar inom underhållning och media, presenterar de också allvarliga säkerhetsutmaningar. Enligt Pindrops rapport är amerikanska konsumenter mest oroliga för risken med deepfakes och röstkloner inom bank- och finanssektorn, där 67,5 % uttrycker betydande oro.
Effekter på finansiella institutioner
Finansiella institutioner är särskilt sårbara för deepfake-attacker. Bedragare använder AI-genererade röster för att imitera individer, få obehörig åtkomst till konton och manipulera finansiella transaktioner. Rapporten avslöjar att det förekom en rekordmängd datakränkningar 2023, totalt 3 205 incidenter – en ökning med 78 % jämfört med föregående år. Den genomsnittliga kostnaden för en dataintrång i USA uppgår nu till 9,5 miljoner dollar, och kontakcenter bär tyngden av säkerhetskonsekvenserna.
Ett anmärkningsvärt fall involverade användningen av en deepfake-röst för att lura en Hongkong-baserad firma att överföra 25 miljoner dollar, vilket belyser den förödande potentialen hos dessa teknologier när de används ondskefullt.
Större hot mot media och politik
Utöver finansiella tjänster utgör deepfakes också betydande risker för media och politiska institutioner. Förmågan att skapa övertygande fejkade ljud- och videoinnehåll kan användas för att sprida desinformation, manipulera allmänhetens åsikt och undergräva förtroendet för demokratiska processer. Rapporten påpekar att 54,9 % av konsumenterna är oroliga för hotet från deepfakes mot politiska institutioner, medan 54,5 % oroar sig för deras påverkan på media.
2023 var deepfake-teknologi inblandad i flera högprofilerade incidenter, inklusive en robocall-attack som använde en syntetisk röst av president Biden. Sådana incidenter understryker brådskan att utveckla robusta upptäckts- och förebyggande mekanismer.
Tekniska framsteg som driver deepfakes
Spridningen av generativ AI-verktyg, som OpenAI:s ChatGPT, Google’s Bard och Microsoft’s Bing AI, har betydligt sänkt trösklarna för att skapa deepfakes. Idag används över 350 generativa AI-system för olika tillämpningar, inklusive Eleven Labs, Descript, Podcastle, PlayHT och Speechify. Microsoft’s VALL-E-modell kan till exempel klona en röst från bara en tresekunders ljudklipp.
Dessa tekniska framsteg har gjort deepfakes billigare och enklare att producera, vilket ökar deras tillgänglighet för både harmlösa användare och ondskefulla aktörer. Fram till 2025 förutspår Gartner att 80 % av konversationsbaserade AI-erbjudanden kommer att omfatta generativ AI, jämfört med 20 % 2023.
Bekämpning av deepfakes: Pindrops innovationer
För att hantera det växande hotet från deepfakes har Pindrop introducerat flera banbrytande lösningar. En av de mest anmärkningsvärda är Pulse Deepfake Warranty, en första i sitt slag-garanti som ersätter berättigade kunder om Pindrops Produkt Suite misslyckas med att upptäcka en deepfake eller annan syntetisk röstbedrägeri. Detta initiativ syftar till att ge kunderna trygghet medan man utvidgar gränserna för bedrägeridetektering.
Tekniska lösningar för att förbättra säkerheten
Pindrops rapport belyser effektiviteten hos deras liveness-detekteringsteknologi, som analyserar live-samtal för spektro-temporala funktioner som indikerar om rösten i samtalet är “live” eller syntetisk. I interna tester visade sig Pindrops liveness-detektering vara 12 % mer exakt än röstigenkänningssystem och 64 % mer exakt än människor när det gäller att identifiera syntetiska röster.
Pindrop använder också integrerad multifaktorbedrägeriförebyggande och autentisering, som utnyttjar röst, enhet, beteende, operatörsmetadata och liveness-signaler för att förbättra säkerheten. Detta multilager-tillvägagångssätt höjer betydligt ribban för bedragare, vilket gör det allt svårare för dem att lyckas.
Framtida trender och beredskap
I framtiden förutspår rapporten att deepfake-bedrägeri kommer att fortsätta öka, vilket utgör en risk på 5 miljarder dollar för kontakcenter i USA ensamt. Den ökande sofistikeringen av text-till-tal-system, i kombination med lågkostnadssyntetisk talteknologi, presenterar pågående utmaningar.
För att hålla jämna steg med dessa hot rekommenderar Pindrop tidiga riskdetekteringsmetoder, såsom upptäckt av spoofad caller-ID och kontinuerlig bedrägeridetektering, för att övervaka och mildra bedrägeriaktiviteter i realtid. Genom att implementera dessa avancerade säkerhetsåtgärder kan organisationer bättre skydda sig mot den föränderliga landskapsbilden av AI-drivet bedrägeri.
Slutsats
Uppkomsten av deepfakes och generativ AI representerar en betydande utmaning inom området bedrägeri och säkerhet. Pindrops 2024 Voice Intelligence and Security Report understryker det brådskande behovet av innovativa lösningar för att bekämpa dessa hot. Med framsteg inom liveness-detektering, multifaktorautentisering och omfattande bedrägeriförebyggande strategier är Pindrop i framkanten av ansträngningarna att säkra framtiden för röstbaserade interaktioner. Medan teknologilandskapet fortsätter att utvecklas, måste också våra tillvägagångssätt för att säkerställa säkerhet och förtroende i den digitala eran utvecklas.












