Connect with us

Ali Sarrafi, administrerende direktør og grundlægger af Kovant – Intervju-serie

Interviews

Ali Sarrafi, administrerende direktør og grundlægger af Kovant – Intervju-serie

mm

Ali Sarrafi, administrerende direktør og grundlægger af Kovant, er en erfaren teknologi- og AI-direktør baseret i Stockholm med en track record for at opbygge og skala op højvækst AI-virksomheder. Siden grundlæggelsen af Kovant i slutningen af 2024 har han draget på dyb erfaring i enterprise AI-strategi, go-to-market-udførelse og operativ skala. Tidligere fungerede han som vicepræsident for strategi i Silo AI efter dets overtagelse af AMD, hvor han var ansvarlig for at forme enterprise AI-strategi og drive storstilet adoption. Tidligere i sin karriere var han medstifter af Combient Mix, hvor han ledede virksomheden gennem hurtig vækst og en succesfuld overtagelse af Silo AI, og har siden da haft rådgivende og bestyrelsesroller på tværs af uddannelse og AI-startups, hvilket afspejler en konsekvent fokus på at oversætte avanceret AI til reel forretningsvirkning.

Kovant er en enterprise AI-virksomhed, der fokuserer på at enable organisationer til at gå fra eksperimentel AI-brug til fuldt operativ, autonom forretningsproces. Virksomheden udvikler en agent-baseret platform designet til at orkestrere hold af AI-agenter på tværs af komplekse operationelle domæner som indkøb, forsyningskæder, compliance og kundeoperationer. Ved at understrege sikker, enterprise-klar udrulning og hurtig tid-til-værdi, positionerer Kovant sig som en bro mellem strategisk AI-ambition og dag-til-dag-udførelse, hvilket hjælper store organisationer med at integrere AI direkte i kerne-workflows i stedet for at behandle det som et selvstændigt værktøj eller pilotprojekt.

Du har ledet større AI-initiativer hos Spotify, skaleret og afsluttet Combient Mix, og senere formet enterprise AI-strategi hos Silo AI, før du grundlagde Kovant. Hvad var de specifikke huller eller frustrationer, du mødte i disse roller, som overbeviste dig om, at det var tid at bygge en autonom enterprise-platform, og hvordan formede denne historie Kovants kerne-designfilosofi?

På tværs af mine tidligere roller, dukkede et par konsekvente huller op. Først er de fleste “vertikale” AI-værktøjer efektivt fanget i en enkelt software-stack: de gør én ting lidt bedre inden for denne grænse, men kæmper, øjeblikket et workflow skal omfatte multiple systemer. Samtidig er enterprise-data spredt over mange værktøjer, og mange automatiseringsløsninger kan simpelthen ikke nå det. Lag på år med punkt-integrationer, og du får klassisk spaghetti-arkitektur: kompleksiteten stiger, ændringer bliver langsommere, og hold ender med at automatisere enkelttrin i stedet for at genopfinde workflow’en slut-for-slut.

Kovant er designet som en respons på denne virkelighed. Vores kerne-filosofi er, at agenter skal opføre sig mere som medarbejdere: de arbejder på tværs af multiple værktøjer, de “ansættes” til at udføre job, ikke til at automatisere en enkelt scriptet sekvens. Det er derfor, integrationer og orkestrering er bygget ind, og hvorfor vi antager, at enterprise-data ofte er rodet og ustruktureret – det kræver en mere menneske-lignende tilgang til at håndtere undtagelser og tvetydighed.

Vi bruger grundlæggende agenter til at opnå hastighed og skala, samtidig med at vi holder data-suverænitet i centrum: virksomheder kan få adgang til og bruge deres egen data vandret uden at det forlader deres lokaler.

Kovant positionerer sig som en autonom enterprise-platform i stand til at køre hele operationer og afdelinger med AI-agenter. Hvordan definerer du “autonom” i en enterprise-kontekst, og hvordan adskiller det sig fra automatiserings- og agent-værktøjer, som virksomheder allerede eksperimenterer med i dag?

I en enterprise-kontekst, når vi siger “autonom”, mener vi ikke “usupert”. Vi mener AI-agenter kan tage virkelige handlinger slut-for-slut på tværs af en operation med klare mål og guardrails, og de vil eskalere til mennesker, når tilsyn er nødvendigt.

Hvad der gør Kovant anderledes, er vores grundlæggende agenter. I stedet for at automatisere en enkelt, fast proces eller følge en forudbygget sekvens, kan Kovant-agenter arbejde som et hold (eller sværm) på en operation ved hjælp af kun instruktioner og en operations-overblik, som vi kalder en blueprint. De er ikke designet til én smal opgave; de samarbejder om at løse komplekse workflows, tilpasse sig, når betingelserne ændrer sig, og overdrage til mennesker, når situationen kræver tilsyn.

For eksempel kan et lagerstyrings-agenthold udføre alle følgende job uden at genopbygge dem fra scratch, herunder: kommunikere med leverandører via e-mail, overvåge lager niveauer og udsalgssignaler, spore leverancer og købsordrer, opdatere statusser på tværs af systemer, oprette afvigelsesbilletter til lagerplanlæggere til at godkende, omfordele lager mellem lagerhuse og konsolidere lager-rapporter.

Så skiftet er, i stedet for “chat plus værktøjer” eller brækkede automatiseringer, som bryder sammen i skala, virksomheder flytter fra at bygge agenter til at køre dem i skala.

Trods massiv interesse i agentic AI, bliver mange organisationer stadig fast i pilot-tilstand. Fra hvad du ser i virkelige udrulninger, hvad er de primære årsager, virksomheder kæmper med at flytte fra eksperiment til skaleret produktion?

Hvad vi ser, er, at de fleste organisationer ikke bliver fast i pilot-tilstand, fordi idéen er forkert; de bliver fast, fordi miljøet er fjendtligt over for skala.

Den første blokeringsfaktor er den fragmenterede enterprise-teknologi-landsby. Workflows omfatter mange systemer, data bor i multiple steder, og at sy sammen alt pålideligt er svært. Og agentic AI bliver ofte udrullet som et tilføj til eksisterende værktøjer, snarere end som en måde at genopfinde, hvordan workflow’en skal køre slut-for-slut.

Der er også et virkeligt arkitektur- og data-problem. Mange SaaS-virksomheder prøver stadig at låse data inde, hvilket skaber inkompatibiliteter og begrænser, hvad agenter kan gøre på tværs af systemer. Og mange hold undervurderer, at de fleste enterprise-data er ustruktureret (e-mails, dokumenter, billetter, PDF’er, chat-logs). Hvis din tilgang antager ren, struktureret data, bliver tid-til-værdi lang, smertefuld og svær at reproducerer ud over piloten.

Kort sagt: fragmentering, låsning og ustruktureret data skaber træghed – og piloter bliver aldrig til produktion, før disse realiteter er designet for.

Pålidelighed citeres ofte som den største blokeringsfaktor for at udrulle AI-agenter i den virkelige verden. Hvorfor fejler så mange agent-systemer, når de forlader kontrollerede miljøer, og hvordan reducerer Kovants tilgang problemer som hallucinationer og upredicible adfærd?

Nogle agent-systemer ser godt ud i demos, men fejler i den virkelige verden, fordi miljøet er rodet og uprediciblet. Data er ufuldstændig eller inkonsistent, edge-cases viser sig konstant (refunder, disput, særlige godkendelser). Workflows omfatter multiple værktøjer, platforme og integrationer, som ændrer sig over tid, og tilladelser varierer. Når en AI-agent bedes om at håndtere en stor opgave og får for meget kontekst på én gang, øges risikoen for hallucinationer og underlig adfærd.

Kovant reducerer dette ved design. Vores unikke arkitektur indsnævrer problemrummet, beslutningsrummet og konteksten, som modeller arbejder med for at reducere hallucinationer. Vi brækker også operationer ned i smalle, fokuserede opgaver for enkelt-agenter og trin. Det gør adfærd mere forudsigelig, og det tilføjer sporbarhed og kontrollabilitet til systemet og kan håndtere hallucinationer bedre. Vi kan se, hvad hver agent gjorde, hvor et fejl startede, og intervenere eller eskalere, når det er nødvendigt.

Hallucinationer forsvinder ikke magisk, men ved at begrænse, hvad hver agent er ansvarlig for, og begrænse konteksten, den kan handle på, kan vi reducere deres hyppighed og begrænse deres impact. Denne “indsnævret opgave/kontekst”-tilgang er også blevet understøttet i nylig arbejde fra Nvidia’s forskningsteam, som fandt lignende fordele ved at begrænse agent-beslutning.

Ansvarlighed er en stor bekymring, da AI-agenter begynder at tage virkelige handlinger i forretnings-systemer. Hvordan ændrer detaljerede handling-logs samtalen om tillid, compliance og operativ risiko?

Med detaljerede handling-logs kan vi se, hvad der skete, hvorfor det skete og hvad der sker herefter.

De detaljerede logs omdanner en agent fra en mystisk bot, der arbejder i maskinen, til et system, du kan inspicere.

Hos Kovant, med enhver AI-agent-udrulning, vil der være en risiko-kort, som organisationen kan handle på, vi har bygget ind gate-keeping for mennesker for risikable handlinger, så agenter kun kan udføre disse opgaver, hvis en menneske gennemgår og godkender beslutningen. Alt dette er logget på samme måde, som et system af optegnelser er logget, og er sporbar.

Vi mener, det er vigtigt at kombinere handling-logs med menneskelig tilsyn og overvågning for at minimere risikoen. Det betyder, du stadig får hastigheds- og skalafordele ved, at agenter kører virkelige operationer.

Der er en voksende diskussion om, hvorvidt AI-agenter overhovedet kan forsikres på grund af deres uigennemsigtige beslutningsprocesser. Hvordan hjælper det med at gøre agent-workflows auditable og replayable at tackle “black box”-problemet og åbne døren for forsikringsmuligheder?

“Black box”-problemet er, hvad gør forsikringsmuligheder svære. Hvis du ikke kan klart vise, hvad en agent gjorde, hvorfor det gjorde det, og hvilke kontroller var på plads, er det svært for nogen, især forsikringsvirksomheder, at prisrisikoen.

Vores tilgang er essentielt en udvidelse af ansvarlighedsopsætningen i det foregående svar. Vi brækker beslutningsomfanget og impact af handlinger ned i mindre bidder, så modellen ikke tager én kæmpe, uigennemsigtig beslutning, som kan svinge en hel operation. Hver trin er smallere, mere forudsigelig og lettere at evaluere.

Vi tilføjer derefter detaljerede logs, overvågning og menneskelig tilsyn. For de vigtigste og mest betydningsfulde beslutninger bruger vi en menneskelig gatekeeper, så agenten kun kan fortsætte efter gennemgang og godkendelse. Det skaber langt mere synlighed i, hvordan workflow’en opfører sig i praksis.

At gøre workflows auditable og replayable er den endelige del. Hvis noget går galt, kan du reproducere, hvad der skete, undersøge det hurtigt, validere rettelser og demonstrere, hvor ofte menneskelig godkendelse er nødvendig og hvor sikkerhedsforanstaltningerne sidder. I underwriting-termer omdanner det mystisk AI-opførsel til noget tættere på standard operativ risiko.

Med initiativer som Agentic AI Foundation, der søger at skabe fælles standarder for agentic-systemer, hvad ser du som de mest lovende aspekter af disse bestræbelser, og hvor mangler de stadig for rigtige enterprise-operationer?

Standardisering er generelt en god ting. AAIF kan udføre det ikke-glamourøse, men essentielle arbejde med at få agent-systemer til at tale samme sprog, hvilket burde gøre integrationer lettere og reducere vendor-lås over tid.

Hvor jeg er forsigtig, er hvis hvis perspektivet, der former standarderne, er hvis arbejdet primært ledet af model-skabere og teknologi-virksomheder. Der er en risiko for, at “standarderne” optimerer for, hvad der er lettest at bygge eller demonstrere, snarere end hvad store organisationer virkelig har brug for til at køre agenter sikkert dag-til-dag.

For rigtige enterprise-operationer tenderer hullerne til at være mindre om forbindelser og mere om kontrol: hvad en agent kan få adgang til og ændre, godkendelses-workflows for høj-impact-handlinger, auditable logs og overvågning, så hold kan overvåge adfærd, undersøge hændelser og bevise compliance. Virksomheder har også brug for praktiske standarder for at operere i rodet virkelighed: test mod edge-cases, håndtering af ændrende systemer og evne til at pause, indeholde eller rulle tilbage handlinger sikkert på tværs af legacy-værktøjer og regulerede data-miljøer.

Så det er en lovende retning, men impacten vil være begrænset, hvis enterprise-krav og operativ risiko-kontroller ikke behandles som en eftertanke.

Kovant har allerede genereret betydelig omsætning fra store nordiske virksomheder, mens de opererer primært i skjul. Hvad er de typer af forretningsfunktioner eller workflows, der viser sig at være mest klar til autonome AI-agenter i dag?

Fra hvad vi har set i virkelige udrulninger, er workflows, der er mest “klar” i dag, de, der består af reaktivt hvid-kragen-arbejde: overvågning, jagt, kontrol, opdatering af systemer, håndtering af undtagelser og vedligeholdelse af operationer på tværs af multiple værktøjer.

I produktion og bredere enterprise-forsyningskæder viser det sig på tværs af:

  • Indkøb: råmateriale-tilgængelighed, bæredygtig indkøb, compliance-ops, leverandørvalg (herunder dual/multi-indkøb), kontraktstyring, leverandørrisiko-styring og budgivning/styring.
  • Produktion: kapacitetsplanlægning, produktionsskema, vedligeholdelsesstyring, kvalitetsstyring, flaskehals-styring og tabforebyggelse.
  • Lagerstyring: modtagelse & inspektion, lagerstyring, lager-rotation (FIFO/FEFO) og cyklus-tælling/revision.
  • Transport / logistik: valg af transportmiddel og leverandør, toldklarering/dokumentation, sporing & synlighed, emissions-overvågning og handels-compliance.
  • Salg og service: produkt-tilgængelighed, lager-undgåelse, salgs/retur-styring, forbruger-adfærdsanalyse, plus efter-salg-områder som reparationer, slut-brugssporing, værksted-ops og service-kontrakter.

Når virksomheder udruller AI-agenter på tværs af kritiske operationer, hvordan anbefaler du at balancere autonomi med menneskelig tilsyn for at sikre kontrol uden at bremse alt ned?

Balancen styres af styret autonomi. Du må lade agenter bevæge sig hurtigt på lav-risiko-arbejde inden for klare guardrails, og eskalere til mennesker, når handlingen overskrider en defineret risiko-grænse.

Mange fejl kommer fra at give modellen for megen omfang og for megen kontekst på én gang. Jeg anbefaler at bryde operationer ned i smalle, snævert definerede beslutninger, hvor hver trin har klare tilladelser og en begrænset impact-radius. Det reducerer upredicible adfærd og gør præstation lettere at overvåge og forbedre.

Så kombinerer du tre ting: overvågning, handling-logs og menneskelig gate-keeping. Alt, hvad agenten gør, skal være sporbar, så du kan inspicere, hvad der skete, og undersøge hurtigt. For høj-impact eller risikable handlinger sætter du en menneskelig godkendelses-trin i workflow-et, så agenten kan foreslå og forberede, men kun udføre, når en person godkender.

Det holder tingene i gang hurtigt. Hvis noget blot langsommere, er det kun ved det menneskelige tilsynstrin, men det er en vigtig del af processen. Mennesker er ikke fastholdt i at overvåge hvert klik, men de er stadig i kontrol over de øjeblikke, der betyder noget. Resultatet er hastighed, hvor det er sikkert, og tilsyn, hvor det er nødvendigt.

Med henblik på fremtiden, hvordan forventer du, at rollen af autonome AI-agenter vil udvikle sig inden for store virksomheder i de kommende år, og hvad vil adskille virksomheder, der lykkes med agentic AI, fra dem, der kæmper?

I de kommende år vil autonome AI-agenter flytte fra interessante eksperimenter til at blive en reel operativ lag inden for store virksomheder. De vil blive brugt til operationer, kunde-service, finans og HR. Da pålidelighed, styring og tilsyn forbedres, vil vi se virksomheder skifte fra isolerede piloter til at køre agent-hold på tværs af slut-for-slut-workflows.

Den største ændring er, at hastighed, agility, skala, effektivitet og omkostninger bliver en mere direkte konkurrencemæssig fordel. Jeg tror, en “Uber-bevægelse” er på vej for virksomheder. De, der virkelig mestrer agentic AI, vil kunne operere i en grundlæggende hurtigere tempo end langsigtede, kapre markeder hurtigere og reagere på ændringer uden den sædvanlige operative træghed.

Hvad adskiller vinderne, er ikke kun at udrulle agenter, men at udrulle dem godt. Styret autonomi, stærk overvågning og handling-logs, og arkitekturer, der indsnævrer beslutningsomfanget, vil være nøgle til det. Virksomheder, der behandler agentic AI som en kerne-operativ kapacitet, med de rigtige kontroller, integration og ejerskab, vil bruge det til at gøre mere, ikke mindre. Det vil frigøre hold til at fokusere på vækst og innovation i stedet for at tilbringe deres dage begravet i admin. Kort sagt, radikal hastighed og effektivitet bliver en sand konkurrencemæssig fordel på enterprise-skala.

Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge Kovant.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.