stomp Vertrouwen opbouwen in AI met ID-verificatie - Unite.AI
Verbind je met ons

Gedachte leiders

Vertrouwen opbouwen in AI met ID-verificatie

mm

gepubliceerd

 on

Genatieve AI heeft de belangstelling van bedrijven over de hele wereld gewekt. In werkelijkheid, 60% van de organisaties met gerapporteerde AI-adoptie maakt nu gebruik van generatieve AI. De leiders van vandaag zijn in een race om te bepalen hoe ze AI-tools in hun tech-stacks kunnen opnemen om concurrerend en relevant te blijven – en AI-ontwikkelaars creëren meer tools dan ooit tevoren. Maar door de snelle adoptie en de aard van de technologie worden veel veiligheids- en ethische problemen niet volledig in overweging genomen, omdat bedrijven zich haasten om de nieuwste en beste technologie te integreren. Het gevolg is dat het vertrouwen afneemt.

Een recent onderzoek ontdekte dat slechts 48% van de Amerikanen gelooft dat AI veilig is, terwijl 78% zegt zeer of enigszins bezorgd te zijn dat AI voor kwade bedoelingen kan worden gebruikt. Hoewel is gebleken dat AI de dagelijkse workflows verbetert, maken consumenten zich zorgen over slechte actoren en hun vermogen om AI te manipuleren. Deepfake-capaciteiten worden bijvoorbeeld een steeds grotere bedreiging naarmate de toegankelijkheid van de technologie voor de massa toeneemt.

Het hebben van een AI-tool is niet langer voldoende. Om AI zijn ware, nuttige potentieel te laten bereiken, moeten bedrijven AI integreren in oplossingen die een verantwoord en levensvatbaar gebruik van de technologie demonstreren om meer vertrouwen bij de consument te wekken, vooral op het gebied van cyberbeveiliging, waar vertrouwen cruciaal is.

AI-cyberbeveiligingsuitdagingen

Generatieve AI-technologie vordert snel en ontwikkelaars begrijpen nu pas het belang van het introduceren van deze technologie in de onderneming, zoals blijkt uit de recente lancering van ChatGPT Enterprise.

De huidige AI-technologie is in staat dingen te bereiken waarover nog geen tien jaar geleden alleen werd gesproken in de sciencefictionwereld. De werking ervan is indrukwekkend, maar de relatief snelle expansie waarin het allemaal gebeurt is nog indrukwekkender. Dat is wat AI-technologie zo schaalbaar en toegankelijk maakt voor bedrijven, individuen en uiteraard fraudeurs. Hoewel de mogelijkheden van AI-technologie innovatie voorop hebben gesteld, heeft het wijdverbreide gebruik ervan ook geleid tot de ontwikkeling van gevaarlijke technologie zoals deepfakes-as-a-service. De term ‘deepfake’ is afgeleid van de technologie die deze specifieke stijl van gemanipuleerde inhoud (of ‘fake’) creëert, waarvoor het gebruik van deep learning-technieken nodig is.

Fraudeurs zullen altijd het geld volgen dat hen de grootste ROI oplevert – dus elk bedrijf met een hoog potentieel rendement zal hun doelwit zijn. Dit betekent dat fintech, bedrijven die facturen betalen, overheidsdiensten en detailhandelaren in hoogwaardige goederen altijd bovenaan hun lijst zullen staan.

We bevinden ons op een plek waar vertrouwen op het spel staat en consumenten steeds minder betrouwbaar zijn, waardoor amateurfraudeurs meer mogelijkheden dan ooit krijgen om aan te vallen. Met de nieuwe toegankelijkheid van AI-tools en de steeds lagere kosten is het voor slechte actoren van elk vaardigheidsniveau gemakkelijker om de beelden en identiteiten van anderen te manipuleren. Deepfake-mogelijkheden worden steeds toegankelijker voor de massa via deepfake-apps en websites, en het creëren van geavanceerde deepfakes vereist zeer weinig tijd en een relatief laag vaardigheidsniveau.

Met het gebruik van AI hebben we ook een toename gezien in accountovernames. Door AI gegenereerde deepfakes maken het voor iedereen gemakkelijk om nabootsingen of synthetische identiteiten te creëren, of het nu van beroemdheden is of zelfs van je baas.​​

Generatieve taaltoepassingen met AI en Large Language Model (LLM) kunnen worden gebruikt om meer geavanceerde en ontwijkende fraude te creëren die moeilijk te detecteren en te verwijderen is. Vooral LLM's hebben een wijdverbreid gebruik van phishing-aanvallen gecreëerd die uw moedertaal perfect kunnen spreken. Deze creëren ook een risico op ‘romantiekfraude’ op grote schaal, wanneer iemand verbinding maakt met iemand via een datingwebsite of app, maar de persoon met wie hij communiceert een oplichter is die een nepprofiel gebruikt. Dit brengt veel sociale platforms ertoe te overwegen om ‘proof of humanity’-controles in te zetten om op grote schaal levensvatbaar te blijven.

De huidige beveiligingsoplossingen, die gebruik maken van metadata-analyse, kunnen slechte actoren echter niet tegenhouden. Deepfake-detectie is gebaseerd op classificaties die zoeken naar verschillen tussen echt en nep. Deze detectie is echter niet langer krachtig genoeg omdat deze geavanceerde bedreigingen meer datapunten nodig hebben om te detecteren.

AI en identiteitsverificatie: samenwerken

Ontwikkelaars van AI moeten zich concentreren op het gebruik van de technologie om betere waarborgen te bieden voor bewezen cyberbeveiligingsmaatregelen. Dit zal niet alleen een betrouwbaarder gebruiksscenario voor AI opleveren, maar het kan ook zorgen voor een meer verantwoord gebruik – waardoor betere cyberbeveiligingspraktijken worden gestimuleerd en tegelijkertijd de mogelijkheden van bestaande oplossingen worden vergroot.

Een belangrijk gebruiksvoorbeeld van deze technologie is identiteitsverificatie. Het AI-bedreigingslandschap evolueert voortdurend en teams moeten worden uitgerust met technologie die nieuwe technieken snel en gemakkelijk kan aanpassen en implementeren.

Enkele mogelijkheden bij het gebruik van AI met identiteitsverificatietechnologie zijn onder meer:

  • Onderzoek van de belangrijkste apparaatkenmerken
  • Counter-AI gebruiken om manipulatie te identificeren: Om fraude te voorkomen en belangrijke gegevens te beschermen, kan counter-AI de manipulatie van binnenkomende beelden identificeren.
  • Het onder bepaalde omstandigheden behandelen van de ‘afwezigheid van gegevens’ als een risicofactor
  • Actief op zoek naar patronen over meerdere sessies en klanten heen

Deze gelaagde verdedigingen die worden geboden door zowel AI als identiteitsverificatietechnologie, onderzoeken de persoon, het beweerde identiteitsdocument, het netwerk en het apparaat, waardoor het risico op manipulatie als gevolg van deepfakes wordt geminimaliseerd en ervoor wordt gezorgd dat alleen vertrouwde, echte mensen toegang krijgen tot uw diensten.

AI en identiteitsverificatie moeten blijven samenwerken. Hoe robuuster en completer de trainingsgegevens, hoe beter het model wordt en omdat AI slechts zo goed is als de gegevens die eraan worden toegevoegd, hoe meer datapunten we hebben, hoe nauwkeuriger identiteitsverificatie en AI kunnen zijn.

Toekomst van AI en ID-verificatie

Het is moeilijk om iets online te vertrouwen, tenzij bewezen door een betrouwbare bron. Tegenwoordig ligt de kern van online vertrouwen in bewezen identiteit. De toegankelijkheid van LLM's en deepfake-tools brengt een toenemend onlinefrauderisico met zich mee. Georganiseerde misdaadgroepen worden goed gefinancierd en kunnen nu op grotere schaal gebruik maken van de nieuwste technologie.

Bedrijven moeten hun defensielandschap verbreden en mogen niet bang zijn om in technologie te investeren, ook al zorgt dit voor wat wrijving. Er kan niet langer slechts één verdedigingspunt zijn: ze moeten kijken naar alle datapunten die verband houden met de persoon die toegang probeert te krijgen tot de systemen, goederen of diensten en dit gedurende de hele reis blijven verifiëren.

Deepfakes zullen zich blijven ontwikkelen en steeds geavanceerder worden. Bedrijfsleiders moeten voortdurend de gegevens van de implementatie van oplossingen beoordelen om nieuwe fraudepatronen te identificeren en eraan werken om hun cyberbeveiligingsstrategieën voortdurend te ontwikkelen naast de bedreigingen.

Als CEO en mede-oprichter is Kaarel de strategische denker en visionair erachter Veriff.
Met veel energie en enthousiasme moedigt hij het team van Veriff aan om te staan ​​voor eerlijkheid in de digitale wereld
wereld en houdt het team fraude en concurrentie in de dynamische wereld van online een stap voor
verificatie. In 2023 werd Kaarel geëerd in de EU Forbes 30 Under 30, in 2020 werd hij uitgeroepen tot EY
Ondernemer van het Jaar in Estland en Nordic Business Report hebben hem tot een van de 25 meest uitgeroepen
invloedrijke jonge ondernemers in Noord-Europa.