Connect with us

Tankeledere

Agentic AI sine “Personlige Digitale Dobbeltgjengere” Vil Kreve en Evolusjon i Identitetsverifisering

mm

Amazons annonsering av sin “Buy for Me”-funksjon var et modig skritt som signaliserer det virkelige potensialet for agentic AI i e-handel. Ved å aktivere AI-agenter til å kjøpe produkter direkte fra andre nettsider når disse varene ikke er tilgjengelige på Amazon, stiller selskapet seg selv som den ledende leverandøren av svært behagelige og tilfredsstillende handleopplevelser.

Agentic AI – hvor autonome agenter handler på vegne av virkelige brukere – er på vei til raskt bedrifts-tilpasning, særlig i en B2B-kontekst. Forestill deg en verden hvor “B2B AI-agenter” opererer i ulike kapasiteter (som kundeservice, salg, leverandørkjede, IT-drift, finans og HR) kan ta handling på mer mundane bedriftsoppgaver uten menneskelig innblanding.

Agentic AI er også godt nytt i forbrukerdomenet, med “B2C AI-agenter” som tilbyr betydelige muligheter for forbrukere til å spare tid og anstrengelse i deres daglige liv. Tenk på en “kjøpsagent” som kan hjelpe nettbutikkere med å finne de beste tilbudene, overvåke prisfall, automatisere kjøp, håndtere returer og gjøre reisebestillinger. Mulighetene over ulike bransjer ser ut til å være endelige:

  • Personlig økonomi og formueforvaltning – Tenk på AI-agenter som kan autonomt utføre finansielle strategier, omfordele porteføljer, finne optimale renter for sparing, og sogar håndtere skatteinnbetaling.
  • Kundeservice og støtte (for enkelpersoner) – I stedet for å ringe en hjelpelinje eller chatte med en bot, kan en personlig Agentic AI kommunisere direkte med et selskaps Agentic AI for å løse problemer, klargjøre bestillinger eller gjøre endringer. Dette fjerner behovet for enkelpersoner å gjenta informasjon eller navigere komplekse IVR-systemer.
  • Helsevesen – AI-agenter vil kunne håndtere avtaler, bestille resepter, sende inn forsikringskrav og sogar proaktivt søke andre meninger eller analysere medisinsk forskning på vegne av pasienter.

Å adoptere agentic AI tilbyr nettsteder muligheten til å sette seg selv fra hverandre gjennom unik brukervennlighet og opplevelser. Men på den andre siden av myntene er agentic AI svært sårbare for bedrageri. Forskning viser at bots utgjør mellom 40 og 50 prosent av all netttrafikk, med rundt 65 prosent av disse botene antas å være skadelige. Agentic AI er i realiteten en måte for vanlige forbrukere å bruke bots, og bedragere – som ofte utnytter bots i stor skala for å muliggjøre operasjoner i stor skala – vil nå ha en mye enklere tid å skjule seg i åpenbarhet blant legitime agentic-trafikk.

På et grunnleggende nivå vil evnen til å skille mellom disse skadelige og legitime botene i stor skala være en nøkelfaktor i å skille lederne i agentic AI-konkurransen. I en agentic verden vil maskiner bli gitt agenti og vil gå ned samme “cyber-gater” som oss mennesker.

Men er e-handelslandskapet Klar?

Agentic AI vil kreve en omtenkning, eller en utvidelse, av det online identitetsverifiseringsrammeverket slik det er kjent i dag, som igjen vil kreve at løsningsleverandørene må bli bedre på det de allerede gjør. Til dags dato har dette rammeverket vært sentrert rundt tre spørsmål:

  • Er denne personen ekte? Den raske spredningen av deepfakes gjør det nødvendig med liveness-sjekker for alle høyrisikotransaksjoner, for å sikre at de er initiert av en ekte, levende person. I sammenheng med agentic AI kan svaret være, “nei, jeg er ikke en person”, men det betyr ikke at liveness er irrelevant. Liveness-avkoding bør alltid være en del av biometriske sjekker som skjer på høyrisikopunkter i en brukeropplevelse, for å sikre at et menneske er i løkken – som når en konto opprettes, penger overføres eller konto-gjenopprettelse er ønsket (“Jeg glemte passordet”).
  • Er denne personen pålitelig? Dette er evnen til å bestemme om brukeren er en bedrager, en fremtidig VIP-kunde eller noe derimellom, som ofte involverer å sjekke mot offentlige databaser. For eksempel ville noen som prøver å bestille innkvartering på en nettbasert leie markedsplass bli flagget som høyrisiko hvis han/hun har en kjent kriminell historie av squatting eller eiendomsskade.
  • Er denne personen fortsatt bak kontoen? Dette refererer til kontinuerlig, varig autentisering – eller å sikre at personen hvis identitet ble verifisert ved innlogging fortsatt er der, og forhindrer konto- overtakelse av andre mennesker.

Agentic AI legger til et fjerde spørsmål – har denne agenten myndighet til å handle som den ekte brukerens proxy? Dette spørsmålet om myndighet er kritisk, og bekrefter omfanget og varigheten av den menneskelige autorisasjonen for AI-agenten til å handle som hans eller hennes proxy, i samsvar med kontekst. Dette handler ikke bare om at et menneske delesgerer en oppgave; det handler om å sikre at en AI-agent besitter spesifikke, tilbakekallelige, kontekst-bevisste menneske-avledede tillatelser. Alle AI-agent-handlinger må være sporbar til et ekte, legitimitetsbeviselig menneske; dette er nøkkelen til at B2C-nettsteder kan deployere agentic AI på en trygg og ansvarlig måte.

Ifølge en nylig anslag var AI ansvarlig for omtrent 20 prosent av bedrageriet som ble begått i 2024 over alle sektorer, og denne figuren forventes å vokse ettersom hackere deployerer nye teknikker. Foruten skadelige AI-agenter som etterligner legitime agenter, er et annet eksempel agent-hijacking, eller når en angriper forstyrer hvordan en agent oppfatter informasjon eller tar beslutninger. Så i tillegg til å verifisere legitimheten og myndigheten til AI-agenter, er det også kritisk å sjekke integriteten til agenter for å sikre at de ikke er blitt manipulert.

Gartner dæmpet sine sterke forutsigelser for agentic AI-vækst generelt med en viktig forbehold: over 40 prosent av agentic AI-prosjektene vil bli kansellert innen utgangen av 2027. Dette var en skremmende vekker – et tegn på at mange organisasjoner undervurderer kompleksiteten i agentic AI-implementeringer, særlig behovet for å sikre adekvate risikokontroller. Mens det finnes mange måter agentic AI-agenter kan utnyttes til å forårsake skade, er evnen til å verifisere legitimitet og myndighet en grunnleggende, basal trinn for å minimere risiko. Heldigvis er det ikke nødvendig å finne på noe nytt, men en evolusjon – en utvidelse av de etablerte online identitetsverifiseringsrammeverkene som eksisterer i dag.

#000000;font-family: arial, sans-serif">Hubert Behaghel er Chief Product & Technology Officer i Veriff, og sikrer at selskapets produkt- og teknologistrategi støtter dets vekst og innovasjon. Han har nesten to tiars erfaring fra industrigiganter som Amazon, Marks and Spencer og Sky, hvor han ledet betydelig ekspansjon i deres respektive ingeniøravdelinger samtidig som han innførte nye initiativer og foredlet eksisterende. Før han begynte i Veriff, var han Typeforms aller første VP of Engineering, og hadde ansvar for en strømlinjeformet ekspansjon av selskapets ingeniørteam, økte dets globale tilstedeværelse, og innførte en rekke nye funksjoner samtidig som utgiftene ble redusert.