Connect with us

Tankeledere

AI-agenter og markedsdynamikk: Risiko, mulighet og strategi

mm

2026 vil være et år med testing av AI-agenter for motstandsevne: markedet har vokst fra 7 milliarder dollar til nesten 10 milliarder dollar, regulatorene lanserer standardisering, venturekapitalfond og korporasjoner enten skalerer opp eller kutte tilbake på ressurser. Eufori har gitt plass til pragmatisme: analytikerne advarer om at GenAI nå er i en fase av skuffelse, og det er viktig å svare på spørsmålet om hvor nøyaktig agenter skaper målbare verdi, samt hva kostnadene er og hvordan de trygt kan integreres i kritiske prosesser.

Hva er en AI-agent i praksis?

I media blir en agent definert som nesten hva som helst som kan påkalle verktøy, men for markedet og regulatorene er en mer ned-to-jorden definisjon viktig.

En AI-agent er et system som ikke bare responderer på brukerforespørsler, men også uavhengig planlegger en kjede av handlinger og påkaller eksterne tjenester innenfor rammen av spesifiserte politikker og begrensninger. I motsetning til co-pilotene vi er vant med, som hjelper mennesker med spesifikke oppgaver, som å skrive et brev eller sammenfatte et dokument, tar en agent over hele arbeidsprosessen.

I fintech analyserer agentene kundens portefølje og samler markeddata. I operasjonsenheten kan agenten be om manglende KYC-dokumenter, sjekke status i eksterne registre og forberede en utkast til onboarding-beslutning.

Hvordan markedet forvrengte verdien av AI-agenter

Informasjonsboomen rundt introduksjonen av AI-agenter har vært kraftig: selskaper innlemmer denne funksjonaliteten i separate produkter, oppretter nye forretningsenheter og aktivt fremmer en ny bølge av autonomi for korporative kunder. En betydelig del av fremtidige AI-budsjett i fintech er allerede gjenfordelt til fordel for agentløsninger.

Kapitalmarkedet har tolket dette på sin egen måte: børsnoterte selskaper skynder seg å demonstrere sin strategi for å ikke å se ut av tiden; startups omposisjonerer seg i stor stil fra ML-produkter til agentplattformer; investorer risikerer å overbetale for enhver inntektsvekst som kan tilskrives agenter, selv om det i virkeligheten er relatert til tradisjonell automatisering.

Som resultat blir agenter kreditert som en kilde til verdi hvor virkelige avkastninger fortsatt genereres av etablerte prosesser, data og kontroll.

Hvor agenter allerede viser målbare resultater

I dag bruker bare et lite antall spillere en agenterings tilnærming i produksjon, mens de fleste fortsatt er i eksperimentell fase. De første tangiblene ROI kan ses i samme områder hvor kunstig intelligens tok av tidligere – høyvolum, formaliserbare arbeidsflyter med klare pre- og post-sykluser og kostnader, repetitive kundeforespørsler og møteforberedelse, operasjonell anti-svindel og overvåking av mistenkelige aktiviteter, hvor agenter er integrert i eksisterende varsling- og undersøkelsessystemer.

Som eksempel har en europeisk bank implementert AI-agenter for den innledende behandlingen av korrespondentkontoer. Agentene sorterer automatisk dokumenter, trekker ut data for KYC og sjekker for manglende informasjon. Som resultat er datasinnsamlingstiden redusert med 99%, kostnadene med 94%, og nøyaktigheten av analytikernes arbeid har økt.

Den virkelige verdien er infrastrukturen, ikke agenten selv

Investorer bør stille spørsmål om hvordan dataarkitekturen er strukturert under agenter, om det finnes en enkelt lag med tilgangsrettigheter og auditing for alle agenthandlinger, og hvordan privatlivs- og følsomme data lagres når eksterne modeller brukes.

Etter all, den viktigste verdien er arbeidsflyten som agenten er innlejret i: KYC, onboarding, anti-svindel, likviditetsstyring og kunde kommunikasjon. Selskaper som håndterer disse prosessene gjennom markedsoversikt, integreringsdybde eller regulatorisk status, nyter mer av agenter enn andre: de kan øke marginene og redusere tapene uten å tape kontroll.

En startup som selger en betinget universal agent, men ikke eier noen kritiske prosesser eller domener, finner seg i den minst fordelerige posisjonen: den kan relativt enkelt erstattes av en annen ramme.

Vi ser den virkelige verdien av en agent i dens tilgang til pålitelig, ren og juridisk sikker data og i dens integrasjon med eksisterende systemer.

Uten kontroll, ingen skalerbarhet

Regulatorene i ulike land krever allerede at AI-systemer er transparente, kontrollerbare og verifiserbare. Derfor er et selskaps evne til å kontrollere og dokumentere agentenes arbeid allerede en forutsetning for å operere i markedet.

Dette fører til den neste logiske steget: selskaper trenger en omfattende kontrollinfrastruktur. Dette inkluderer logging av alle agenthandlinger, konstant overvåking, varslinger for avvik og stresstester.

Et vellykket eksempel er Sumsub, som har deployert AI-co-piloten «Summy» for compliance og svindelundersøkelseseksperter. I motsetning til sorte bokser, tar systemet ikke autonome beslutninger, men analyserer transaksjonsarray og genererer auditklare rapporter på forespørsel i naturlig språk, og reduserer hendelsesbehandlingstiden med tre ganger samtidig som full menneskelig kontroll opprettholdes.

Leverandører som innlemmer en slik add-on i sine agentplattformer og løsninger, vinner ikke bare en teknologisk fordel, men også en regulatorisk en: de reduserer tiden og kostnadene for godkjenninger og forenkler due diligence og auditing.

Hva skal en investor sjekke utenom produktet?

Investorer underskatter ofte risiko, fordi de sjelden manifesterer seg umiddelbart. Mer ofte enn ikke, er det en gradvis, nesten umerkelig systemfeil som akkumulerer over tid og fører til alvorlige konsekvenser.

Hvis et selskap ikke setter strenge grenser og ikke implementerer en overvåkingsprosess, er problemet bare merkbart når det påpekes av regulatorene eller kundene.

I tillegg blir promptinjeksjon, datapforgiftning og omgåelse av tilgangspolitikker en reell trussel, da angripere kan utnytte alle disse. I fintech, berører slike angrep direkte anti-svindel, KYC og betalingsoperasjoner.

Et eksempel på en slik risiko: en finansiell ansatt i et multinasjonalt selskap overførte 25 millioner dollar til svindlernes kontoer etter å ha deltatt i en videokonferanse hvor angriperne brukte sanntids-generativ AI til å klonde ansikt og stemmer av CFO og flere kolleger.

Dette og mange andre lignende eksempler viser at tradisjonelle video- eller stemmeverifiseringsmetoder ikke lenger gir pålitelig beskyttelse i et korporativt miljø.

For investorer betyr dette å se på ikke bare produktet selv, men også på hvem det avhenger av. Hvem leverer teknologien? Kan det raskt erstattes? Er det en plan i tilfelle feil eller endringer i lisensvilkår?

Det er tid for en moden tilnærming

Nå, er det viktig for markedets vekst ikke revolusjonerende markedsføring, men tre enkle ting: å vite hvordan man arbeider med virkelige prosesser, normal kontroll og å være ærlig om risiko.

Investorer bør spørre hva selskapet virkelig har under kontroll. Startups må ærlig bestemme om de vil være multifunksjonelle eller dypt kunnskapsrike i ett bestemt område. Og korporasjoner må huske at agenter ikke erstatter eksisterende systemer, men forsterker dem. Men dette fungerer bare der det er orden i prosesser og ledelse.

Alexander Rugaev er en seriegründer og venturekapital ekspert med over 20 års erfaring innen teknologi, offentlige markeder og startup-utvikling. Han har grunnlagt og skalert opp flere selskaper innen AI, robotikk og blockchain, og kobler sammen tidlige innovasjoner med institusjonelle og offentlige investorer verden over.