intervjuer
Ali Sarrafi, administrerende direktør og grunnlegger av Kovant – intervjuserie

Ali Sarrafi, Administrerende direktør og grunnlegger av Kovant, er en erfaren teknologi- og AI-leder basert i Stockholm med en merittliste innen bygging og skalering av AI-selskaper med høy vekst. Siden Kovant ble grunnlagt sent i 2024, har han trukket på dyp erfaring innen AI-strategi for bedrifter, gjennomføring av markedet og operasjonell skalering. Tidligere var han visepresident for strategi hos Silo AI etter oppkjøpet av AMD, hvor han var ansvarlig for å utforme AI-strategi for bedrifter og drive storskala adopsjon. Tidligere i karrieren var han med på å grunnlegge Combient Mix, og ledet selskapet gjennom rask vekst og et vellykket oppkjøp av Silo AI, og har siden hatt rådgivende og styreroller på tvers av utdannings- og AI-oppstartsbedrifter, noe som gjenspeiler et konsekvent fokus på å oversette avansert AI til reell forretningspåvirkning.
Kovant er et AI-selskap for bedrifter som fokuserer på å gjøre det mulig for organisasjoner å gå fra eksperimentell bruk av AI til fullt operative, autonome forretningsprosesser. Selskapet utvikler en agentbasert plattform som er designet for å orkestrere team av AI-agenter på tvers av komplekse driftsdomener som innkjøp, forsyningskjeder, samsvar og kundeoperasjoner. Ved å legge vekt på sikker distribusjon i bedriftsklassen og rask verdiskaping, posisjonerer Kovant seg som en bro mellom strategisk AI-ambisjon og daglig gjennomføring, og hjelper store organisasjoner med å integrere AI direkte i kjernearbeidsflyter i stedet for å behandle det som et frittstående verktøy eller pilotprosjekt.
Du har ledet store AI-initiativer hos Spotify, skalert og solgt Combient Mix, og senere formet AI-strategien for bedrifter hos Silo AI før du grunnla Kovant. Hvilke spesifikke hull eller frustrasjoner møtte du i disse rollene som overbeviste deg om at tiden var inne for å bygge en autonom bedriftsplattform, og hvordan formet denne historien Kovants kjernefilosofi innen design?
I mine tidligere roller dukket det stadig opp noen gjentatte hull. For det første er de fleste «vertikale» AI-verktøyene i praksis fanget i én programvarestabel: de gjør én ting litt bedre innenfor den grensen, men sliter i det øyeblikket en arbeidsflyt må strekke seg over flere systemer. Samtidig er bedriftsdata spredt på tvers av mange verktøy, og mange automatiseringsløsninger klarer rett og slett ikke å nå dit. Legg på årevis med punktintegrasjoner, og du får klassisk spaghettiarkitektur: kompleksiteten øker, endringene blir tregere, og teamene ender opp med å automatisere individuelle trinn i stedet for å tenke nytt om arbeidsflyten fra ende til ende. Resultatet er at avkastningen ofte kommer saktere – og mindre – enn organisasjoner forventer.
Kovant er utformet som et svar på denne virkeligheten. Vår kjernefilosofi er at agenter bør oppføre seg mer som ansatte: de jobber på tvers av flere verktøy, de er «ansatt» for å gjøre jobber, ikke for å automatisere en enkelt skriptsekvens. Det er derfor integrasjoner og orkestrering er innebygd, og derfor antar vi at bedriftsdata ofte er rotete og ustrukturerte – de trenger en mer menneskelig tilnærming for å håndtere unntak og tvetydighet.
Vi bruker foundation-agenter for å oppnå hastighet og skalering, samtidig som vi holder datasuverenitet i sentrum: bedrifter kan få tilgang til og bruke sine egne data horisontalt uten at de forlater lokalene deres.
Kovant posisjonerer seg som en autonom bedriftsplattform som er i stand til å drive hele driften og avdelingene med AI-agenter. Hvordan definerer du «autonom» i en bedriftskontekst, og hvordan er dette forskjellig fra automatiseringen og agentverktøyene selskaper allerede eksperimenterer med i dag?
I en bedriftskontekst mener vi ikke «autonom» når vi sier «autonom». Vi mener at AI-agenter kan iverksette reelle handlinger fra ende til ende på tvers av en operasjon med klare mål og rekkverk, og de vil eskalere til mennesker når det er behov for tilsyn.
Det som gjør Kovant annerledes er våre grunnleggende agenter. I stedet for å automatisere en enkelt, fast prosess eller følge en forhåndsbygd sekvens, kan Kovant-agenter jobbe som et team (eller sverm) på en operasjon ved å bare bruke instruksjoner og en operasjonsoversikt vi kaller en blåkopi. De er ikke designet for én smal oppgave; de samarbeider for å løse komplekse arbeidsflyter, tilpasser seg når forholdene endrer seg, og gir videre til folk når situasjonen krever tilsyn.
For eksempel kan et lagerstyringsteam utføre alle følgende jobber uten å bygge dem opp igjen fra bunnen av, inkludert: kommunisere med leverandører via e-post, overvåke lagernivåer og utsolgte varer, spore forsendelser og bestillinger, oppdatere statuser på tvers av systemer, opprette avviksmeldinger som lagerplanleggere skal godkjenne, omfordele lagerbeholdning mellom lagre og konsolidere lagerrapporter.
Så skiftet er at i stedet for «chat pluss-verktøy» eller sprø automatiseringer som svikter i stor skala, går bedrifter fra å bygge agenter til å kjøre dem i stor skala.
Til tross for massiv interesse for agentisk AI, forblir mange organisasjoner fastlåst i pilotmodus. Ut fra det dere ser i reelle utrullinger, hva er hovedgrunnene til at bedrifter sliter med å gå fra eksperimentering til skalert produksjon?
Det vi ser er at de fleste organisasjoner ikke sitter fast i pilotmodus fordi ideen er feil; de sitter fast fordi miljøet er fiendtlig innstilt til skalering.
Den første hindringen er det fragmenterte teknologilandskapet for bedrifter. Arbeidsflyter spenner over mange systemer, data finnes på flere steder, og det er vanskelig å sette alt sammen på en pålitelig måte. Og agentisk AI brukes ofte som et tillegg til eksisterende verktøy, snarere enn som en måte å revurdere hvordan arbeidsflyten skal kjøres ende-til-ende.
Det er også et reelt arkitektur- og dataproblem. Mange SaaS-leverandører prøver fortsatt å låse data inne, noe som skaper inkompatibiliteter og begrenser hva agenter faktisk kan gjøre på tvers av systemer. Og mange team undervurderer det faktum at de fleste bedriftsdata er ustrukturerte (e-poster, dokumenter, saker, PDF-er, chatlogger). Hvis tilnærmingen din forutsetter rene, strukturerte data, blir tiden det tar å få verdi lang, smertefull og vanskelig å replikere utover pilotprosjektet.
Kort sagt: fragmentering, innelåsing og ustrukturerte data skaper motstand – og pilotprosjekter blir aldri til produksjon før disse realitetene er designet for.
Pålitelighet blir ofte nevnt som den største hindringen for å utplassere AI-agenter i den virkelige verden. Hvorfor svikter så mange agentsystemer når de forlater kontrollerte miljøer, og hvordan reduserer Kovants tilnærming problemer som hallusinasjoner og uforutsigbar atferd?
Noen agentsystemer ser flotte ut i demonstrasjoner, men feiler deretter i den virkelige verden fordi miljøet er rotete og uforutsigbart. Dataene er ufullstendige eller inkonsekvente, kanttilfeller dukker opp stadig vekk (refusjoner, tvister, spesielle godkjenninger). Arbeidsflyter spenner over flere verktøy, plattformer og integrasjoner som endres over tid, og tillatelsene varierer. Når en AI-agent blir bedt om å håndtere en stor oppgave og får for mye kontekst samtidig, øker risikoen for hallusinasjoner og merkelig oppførsel.
Kovant reduserer dette ved design. Vår unike arkitektur snevrer inn problemrommet, beslutningsrommet og konteksten som modeller jobber med for å redusere hallusinasjoner. Vi deler også opp operasjoner i smale, fokuserte oppgaver for individuelle agenter og trinn. Det gjør atferd mer forutsigbar, og det gir sporbarhet og kontrollerbarhet i systemet og kan håndtere hallusinasjoner bedre. Vi kan se hva hver agent gjorde, hvor en feil startet, og gripe inn eller eskalere når det er nødvendig.
Hallusinasjoner forsvinner ikke magisk, men ved å begrense hva hver agent er ansvarlig for og begrense konteksten den kan virke på, kan vi redusere hyppigheten og begrense virkningen. Denne «innsnevrede oppgave/kontekst»-tilnærmingen har også blitt støttet i nyere arbeid fra Nvidias forskerteam, som fant lignende fordeler ved å begrense agenters beslutningstaking.
Ansvarlighet er en stor bekymring etter hvert som AI-agenter begynner å iverksette reelle tiltak i forretningssystemer. Hvordan endrer detaljerte handlingslogger samtalen rundt tillit, samsvar og operasjonell risiko?
Med detaljerte handlingslogger kan vi se hva som skjedde, hvorfor det skjedde og hva som skjer videre.
De detaljerte loggene forvandler en agent fra en mystisk bot som jobber i maskinen til et system du kan inspisere.
Hos Kovant vil det ved enhver utplassering av AI-agenter være et risikokart som organisasjonen kan handle ut fra. Vi har innebygd gatekeeping for mennesker for risikable handlinger, noe som betyr at agenter bare kan utføre disse oppgavene hvis et menneske gjennomgår og godkjenner avgjørelsen. Alle disse loggføres på samme måte som et system med registre logges, og de er sporbare.
Vi mener det er viktig å kombinere handlingslogger med menneskelig tilsyn og observerbarhet for å minimere risikoen. Det betyr at du fortsatt får hastighets- og skaleringsfordelene til agenter som kjører reelle operasjoner.
Det er økende diskusjon om hvorvidt AI-agenter i det hele tatt kan forsikres på grunn av deres ugjennomsiktige beslutningstaking. Hvordan bidrar det til å løse problemet med «svart boks» og åpne døren for forsikringsmuligheter ved å gjøre agenters arbeidsflyter reviderbare og avspillbare?
Det er problemet med «svart boks» som gjør det vanskelig å forsikre seg. Hvis man ikke tydelig kan vise hva en agent gjorde, hvorfor den gjorde det, og hvilke kontroller som var på plass, er det vanskelig for alle, spesielt forsikringsselskaper, å prise risikoen.
Vår tilnærming er i hovedsak en utvidelse av ansvarlighetsoppsettet i det forrige svaret. Vi deler opp beslutningsomfanget og virkningen av handlinger i mindre deler, slik at modellen ikke tar én gigantisk, ugjennomsiktig beslutning som kan påvirke en hel operasjon. Hvert trinn er smalere, mer forutsigbart og enklere å evaluere.
Deretter legger vi til detaljerte logger, observerbarhet og menneskelig tilsyn. For de viktigste og mest innflytelsesrike beslutningene bruker vi en menneskelig portvokter, slik at agenten bare kan fortsette etter gjennomgang og godkjenning. Det skaper langt mer innsikt i hvordan arbeidsflyten oppfører seg i praksis.
Å gjøre arbeidsflyter reviderbare og gjentakbare er den siste delen. Hvis noe går galt, kan du gjenskape det som skjedde, undersøke det raskt, validere rettelser og demonstrere hvor ofte menneskelig godkjenning er nødvendig og hvor sikkerhetstiltakene sitter. I forsikringstermer dreier det seg om mystisk AI-oppførsel til noe som ligner nærmere standard operasjonell risiko.
Med initiativer som Agentic AI Foundation som mål å lage felles standarder for agentsystemer, hva ser du som de mest lovende aspektene ved disse tiltakene, og hvor kommer de fortsatt til kort for reell bedriftsdrift?
Standardisering er generelt sett en god ting. AAIF kan gjøre det lite glamorøse, men essensielle arbeidet med å få agentsystemer til å snakke samme språk, noe som burde gjøre integrasjoner enklere og redusere leverandørbinding over tid.
Det jeg er skeptisk til er hvis perspektiv som former standardene. Hvis mesteparten av arbeidet ledes av modellskapere og teknologiske oppskaleringsbedrifter, er det en risiko for at «standardene» optimaliserer for det som er enklest å bygge eller demonstrere, i stedet for det store organisasjoner faktisk trenger for å drive agenter på en sikker måte i hverdagen.
For reelle bedriftsoperasjoner handler hullene ofte mindre om koblinger og mer om kontroll: hva en agent kan få tilgang til og endre, godkjenningsarbeidsflyter for handlinger med stor innvirkning, reviderbare logger og observerbarhet slik at team kan overvåke atferd, undersøke hendelser og bevise samsvar. Bedrifter trenger også praktiske standarder for å operere i en rotete virkelighet: testing mot kanttilfeller, håndtering av endrede systemer og muligheten til å sette handlinger på pause, begrense eller rulle tilbake på en sikker måte på tvers av eldre verktøy og regulerte datamiljøer.
Så det er en lovende retning, men effekten vil være begrenset med mindre bedriftskrav og operasjonell risikokontroll ikke behandles som en ettertanke.
Kovant har allerede generert betydelige inntekter fra store nordiske bedrifter, samtidig som de i stor grad har operert i det skjulte. Hvilke typer forretningsfunksjoner eller arbeidsflyter viser seg å være mest klare for autonome AI-agenter i dag?
Ut fra det vi har sett i reelle implementeringer, er arbeidsflytene som er mest «klare» i dag de som består av reaktivt kontorarbeid: overvåking, forfølgelse, kontroll, oppdatering av systemer, håndtering av unntak og å holde driften i gang på tvers av flere verktøy.
I produksjon og bredere forsyningskjeder for bedrifter viser dette seg på tvers av:
- Innkjøp/innkjøp: tilgjengelighet av råvarer, bærekraftig innkjøp, samsvarsoperasjoner, leverandørvalg (inkludert dobbel/multisourcing), kontraktshåndtering, risikostyring for leverandør og anbuds-/tilbudshåndtering.
- Produksjonkapasitetsplanlegging, produksjonsplanlegging, vedlikeholdsstyring, kvalitetsstyring, flaskehalshåndtering og tapsforebygging.
- lagerMottak og inspeksjon, lagerstyring, lagerrotasjon (FIFO/FEFO) og syklustelling/revisjon.
- Transport / logistikk: valg av transportør og transportør, tollklarering/dokumentasjon, sporing og synlighet, utslippsovervåking og samsvar med handelsregler.
- Salg og serviceProdukttilgjengelighet, forebygging av lagertap, salgs-/returhåndtering, analyse av forbrukeratferd, samt ettersalgsområder som reparasjoner, sporing av slutten av levetiden, verksteddrift og servicekontrakter.
Når bedrifter bruker AI-agenter på tvers av kritiske operasjoner, hvordan anbefaler du å balansere autonomi med menneskelig tilsyn for å sikre kontroll uten å bremse alt?
Balansen er styrt autonomi. Du må la agenter bevege seg raskt på lavrisikoarbeid innenfor klare rekkverk, og eskalere til mennesker når handlingen krysser en definert risikoterskel.
Mange feil kommer av at modellen gis for mye omfang og for mye kontekst på én gang. Jeg anbefaler å dele opp operasjoner i mindre, snevert avgrensede beslutninger, der hvert trinn har klare tillatelser og en begrenset påvirkningsradius. Det reduserer uforutsigbar atferd og gjør det enklere å overvåke og forbedre ytelsen.
Så kombinerer du tre ting: observerbarhet, handlingslogger og menneskelig gatekeeping. Alt agenten gjør skal være sporbart, slik at du kan inspisere hva som skjedde og raskt undersøke. For handlinger med stor innvirkning eller risiko, legger du til et menneskelig godkjenningstrinn i arbeidsflyten, slik at agenten kan foreslå og forberede, men bare utfører når en person signerer.
Det holder ting i gang raskt. Om noe, så bremser det bare litt ned på det menneskelige tilsynstrinnet, men det er en viktig del av prosessen. Mennesker er ikke fanget opp og overvåker hvert klikk, men de har fortsatt kontroll over øyeblikkene som betyr noe. Resultatet er hastighet der det er trygt, og tilsyn der det er nødvendig.
Hvordan forventer du at rollen til autonome AI-agenter vil utvikle seg i store organisasjoner de neste årene, og hva vil skille selskaper som lykkes med agentisk AI fra de som sliter?
I løpet av de neste årene vil autonome AI-agenter gå fra å være interessante eksperimenter til å bli et reelt driftsnivå i store organisasjoner. De vil bli brukt til drift, kundeservice, økonomi og HR. Etter hvert som pålitelighet, styring og tilsyn forbedres, vil vi se at bedrifter går fra isolerte pilotprosjekter til å drive agentteam på tvers av komplette arbeidsflyter.
Den største endringen er at hastighet, smidighet, skala, effektivitet og kostnader vil bli en mye mer direkte konkurransefordel. Jeg tror en «Uber-bevegelse» er på vei for bedrifter. De som virkelig mestrer agentisk AI vil kunne operere i et fundamentalt høyere tempo enn etternølere, erobre markeder raskere og reagere på endringer uten den vanlige driftsmessige belastningen.
Det som skiller vinnerne er ikke bare utplassering av agenter, det er god utplassering av dem. Styrt autonomi, sterk observerbarhet og handlingslogger, og arkitekturer som snevrer beslutningsområdet vil være nøkkelen til dette. Bedrifter som behandler agentisk AI som en kjernefunksjon i driften, med riktige kontroller, integrasjon og eierskap, vil bruke den til å gjøre mer, ikke mindre. Det vil frigjøre team til å fokusere på vekst og innovasjon i stedet for å bruke dagene sine begravd i administrasjon. Kort sagt, radikal hastighet og effektivitet blir et reelt konkurransefortrinn i bedriftsskala.
Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Kovant.












