Tankeledere
Opbygning af tillid til AI med ID-verificering

Generativ AI har fanget interesse på tværs af virksomheder globalt. Faktisk 60% af organisationer med rapporteret AI-adopteringsgrad bruger nu generativ AI. I dag løber ledere efter at bestemme, hvordan de kan inkorporere AI-værktøjer i deres teknologistakke for at forblive konkurrencedygtige og relevante – og AI-udviklere skaber mere værktøjer end nogensinde før. Men med hurtig adoption og teknologiens natur, overvejes mange sikkerheds- og etiske bekymringer ikke fuldt ud, mens virksomheder skynder sig at inkorporere den seneste og bedste teknologi. Som resultat af dette, svinder tilliden.
En ny undersøgelse fandt ud af, at kun 48% af amerikanerne mener, at AI er sikkert og sikret, mens 78% siger, at de er meget eller delvist bekymrede for, at AI kan bruges til ondsindet formål. Mens AI er blevet fundet til at forbedre daglige arbejdsgange, er forbrugere bekymrede for onde aktører og deres evne til at manipulere AI. Deepfake-kapaciteter er for eksempel blevet mere af en trussel, da teknologiens tilgængelighed for masserne øges.
At have et AI-værktøj er ikke længere nok. For at AI kan nå sin sande, gavnlige potentiale, har virksomheder brug for at inkorporere AI i løsninger, der demonstrerer ansvarlig og gennemførlig brug af teknologien for at bringe højere tillid til forbrugerne, især på området for cybersikkerhed, hvor tillid er nøgle.
AI-cybersikkerhedsudfordringer
Generativ AI-teknologi udvikler sig i en hurtig takt, og udviklere er lige nu ved at forstå betydningen af at bringe denne teknologi til virksomhederne, som set i den seneste lancering af ChatGPT Enterprise.
Den nuværende AI-teknologi er i stand til at opnå ting, der kun blev talt om i science fiction-for menos end et årti siden. Hvordan den fungerer er imponerende, men den relativt hurtige udvidelse, det hele sker med, er endnu mere imponerende. Det er det, der gør AI-teknologien så skalerbar og tilgængelig for virksomheder, personer og, naturligvis, svindlere. Mens AI-teknologiens kapaciteter har ført an i innovation, har dens udbredte brug også ført til udviklingen af farlig teknologi som deepfakes-as-a-service. Begrebet “deepfake” er afledt af teknologien, der skaber denne bestemte type manipuleret indhold (eller “falsk”), der kræver brug af dybe læringsmetoder.
Svindlere vil altid følge pengene, der giver dem den største afkast, så enhver virksomhed med høj potentiel afkast vil være deres mål. Det betyder fintech, virksomheder, der betaler fakturaer, regeringservice og detailhandlere med højværdige varer vil altid være øverst på deres liste.
Vi er i en situation, hvor tillid er på spil, og forbrugere er stadig mindre tillidsfulde, hvilket giver amatørsvindlere flere muligheder end nogensinde før for at angribe. Med den nye tilgængelighed af AI-værktøjer og den stigende lavere omkostning er det lettere for onde aktører af enhver færdighedsniveau at manipulere andres billeder og identiteter. Deepfake-kapaciteter bliver mere tilgængelige for masserne gennem deepfake-apps og -websteder, og det kræver meget lidt tid og et relativt lavt niveau af færdigheder at skabe sofistikerede deepfakes.
Med brugen af AI har vi også set en stigning i overtager af konti. AI-genererede deepfakes gør det let for enhver at skabe imitationer eller syntetiske identiteter, enten det er af berømtheder eller selv din chef.
AI og Large Language Model (LLM) generative sprogapplikationer kan bruges til at skabe mere sofistikeret og undvigende svindel, der er svær at opdage og fjerne. LLM’er har specifikt skabt en udbredt brug af phishing-angreb, der kan tale dit modersmål perfekt. Disse skaber også en risiko for “romance-svindel” i stor målestok, når en person skaber en forbindelse med nogen gennem en dating-website eller -app, men personen, de kommunikerer med, er en svindler, der bruger en falsk profil. Dette fører til, at mange sociale platforme overvejer at implementere “bevis for menneskelighed”-kontroller for at forblive livskraftige i stor målestok.
Men disse nuværende sikkerheds løsninger, der bruger metadata-analyse, kan ikke stoppe onde aktører. Deepfake-detektion er baseret på klassificatorer, der søger efter forskelle mellem rigtige og falske. Men denne detektion er ikke længere kraftfuld nok, da disse avancerede trusler kræver flere datapunkter for at detektere.
AI og identitetsverificering: Arbejdende sammen
AI-udviklere har brug for at fokusere på at bruge teknologien til at give forbedrede sikkerhedsforanstaltninger for bevisede cybersikkerhedsforanstaltninger. Dette vil ikke kun give en mere pålidelig brugssag for AI, men det kan også give en mere ansvarlig brug – opmuntre bedre cybersikkerhedspraksis, mens det udvikler kapaciteterne af eksisterende løsninger.
En hovedbrugsøjeblik for denne teknologi er inden for identitetsverificering. AI-trusselslandskabet udvikler sig konstant, og hold har brug for at være udstyret med teknologi, der kan hurtigt og let justere og implementere nye teknikker.












