Interviews
Sohrab Hosseini, medstifter af orq.ai – Interviewserie

Sohrab Hosseini, medstifter af orq.ai, er en teknologileder og iværksætter med base i Amsterdam-området med dyb erfaring på tværs af SaaS, store skala systemer og anvendt AI. Siden han co-foundede orq.ai i 2022, har han fokuseret på at bygge praktisk infrastruktur, der hjælper hold med at flytte store sprogmodeller fra eksperimenter til pålidelig produktionsbrug. Hans baggrund omfatter seniort ledelsesroller som COO og CTO i Neocles, CTO for Future Technology i Transdev, hvor han arbejdede med autonom routing og flådestyring, og COO i TradeYourTrip. Samtidig er han aktiv som rådgiver og business angel, hvor han støtter tidlige AI-virksomheder med produktretning, teknisk dømmekraft og udførelsesstrategi.
orq.ai er en generativ AI-samarbejds- og LLMOps-platform bygget til at hjælpe organisationer med at designe, operere og skala AI-drevne produkter og agenter i virkelige miljøer. Platformen bringer promptstyring, eksperimentering, feedbacksamling og realtidsynlighed over præstation og omkostninger sammen i en enkelt arbejdsplads, samtidig med at den forbliver kompatibel med alle større store sprogmodelleverandører. Ved at enable nært samarbejde mellem tekniske og ikke-tekniske hold hjælper orq.ai virksomhederne med at forkorte udgivelsescykler, forbedre governance og gennemsigtighed og reducere kompleksiteten og omkostningerne ved at køre AI-systemer i produktion.
De har haft seniort tekniske og operationelle roller på tværs af autonome systemer, flådestyringsteknologi og SaaS-platforme, før de co-foundede Orq.ai — hvordan formede denne karrierebane deres beslutning om at bygge en enterprise-klar kontrolskikt for AI-agenter i 2022?
Vores baggrund har altid været om at lede ingeniørhold og fokusere på enablement-platforme; ting som cloud, DevOps og data-enablement, især under vores tid som teknologikonsulenter. Da den generative AI-boom startede, spurgte min medstifter og jeg os selv: Hvad for slags enablement vil virksomhederne behøve, ikke kun for at bygge AI, men for at styre og kontrollere det ordentligt?
Vi så, at det virkelige behov var for en enterprise-klar kontrolskikt for AI-agenter. Dette førte os til at bygge Orq.ai fra starten.
Da de først lancerede Orq.ai, hvad så de på markedet, der overbeviste dem om, at den virkelige flaskehals ikke var modelkvaliteten, men udygtigheden til at tage agenter fra demos til pålidelig produktion?
Vi har altid troet på, at når man bygger innovativt software, skal man bygge for fremtiden. Fra starten antog vi, at store sprogmodeller bare ville blive bedre og klogere over tid. Så det virkelige problem, vi så, var ikke modelkvaliteten i sig selv, men alle kontrol-, governance- og livscyklusproblemer, der opstår, når man forsøger at flytte fra en demo til et rigtigt produktionsmiljø.
Med andre ord, selvom modellerne forbedres, er den virkelige værdi for vores kunder (og for os) at sikre, at disse systemer faktisk kører pålideligt i produktion. Og det er virkelig, hvad vi satte os for at løse.
De fleste hold kan bygge imponerende prototyper, men kæmper med runtime-orchestration, governance og overvågning. I deres syn, hvad er det største knækpunkt, når ingeniørhold forsøger at skala fra et proof-of-concept-miljø til et live-produktionsagent?
Det største knækpunkt er, at hold ofte tror, det er en lige, lineær vej fra at starte med at bygge en agent til at have den færdig. I virkeligheden er det en meget iterativ proces.
Du justerer konstant dine antagelser, tester dem, flytter ting ind i produktion og overvåger, hvad der sker i den virkelige verden. Du finder edge-cases, og så starter du den cyklus igen.
Udfordringen er, at det ikke er en enkelt indsats; det er en kontinuerlig proces for forbedring. Og for at bygge videre på det, er det ikke kun, at det er iterativt, men det er, at der ofte ikke er nok værktøj eller scaffolding på plads til at støtte denne proces jævnt.
Du har brug for en måde for domæneeksperter, produktchefer og ingeniører at samarbejde uden at skabe siloer eller dyre overdragelser, der spilder meget tid. Så det er endnu en stor del af puslespillet: at sikre, at alle disse interessenter kan iterere sammen effektivt. Og det er noget, vi har forsøgt at løse.
Orq.ai positionerer sig som en samlet kontrolskikt, der spænder over eksperimentering, evaluering, overvågning og runtime. Hvorfor troede de, en end-to-end-arkitektur var essentiel, snarere end at tilbyde isolerede værktøjer som mange punktløsninger?
Når du starter ud, er det naturligt at vælge et enkelt værktøj, der løser dit største problem på det tidspunkt, ofte det, der måske er overvågning. Men når dit hold udvikler sig, rammer du den næste flaskehals og tilføjer endnu et værktøj, f.eks. en AI-gateway. Før du ved af det, har du fem til syv forskellige værktøjer i dit landskab. Data bliver fragmenteret, mennesker mister synlighed, og du spilder ressourcer bare med at vedligeholde alle disse integrationer. Du mister den samlede visning på tværs af din livscyklus.
Vi troede, at når agent-drevne virksomheder opstår, har du virkelig brug for den end-to-end-arkitektur. Du har brug for en samlet visning af, hvad alle dine agenter gør på tværs af organisationen, ikke kun fragmenterede punktløsninger. Det er derfor, vi ikke så nogen anden måde end at omfatte disse store dele af arbejdsprocessen i en samlet platform.
Med den nye Agent Studio og redesignet runtime, hvilke store udfordringer forsøgte de at løse baseret på feedback fra tidlige kunder på tværs af Europa og USA?
Hvad vi så, var, at hold brugte alle mulige åbne biblioteker til at bygge deres agenter, selvom den faktiske arkitektur af en agent kan være ret ren og simpel. De endte med at have opblæste biblioteker, meget overhead og en stor læringskurve, bare for at få simple agenter ud. Med Orq ville vi aflaste denne byrde.
I stedet for at bekymre sig om arkitekturen, computere, autoskalering, alligevel infrastruktur, kan holdene blot fokusere på at konfigurere deres agenter og give dem de rigtige værktøjer og API’er. Vi håndterer det tungeste arbejde, så de kan koncentrere sig om at bygge deres faktiske brugs Tilfælde. Og oveni det, fordi vi støtter hele livscyklussen, har vi bygget specialiserede arbejdsborde, der lar dig virkelig teste dine agenter i stor skala.
Det betyder, at du kan finde edge-cases hurtigere og hærde dine agenter mere effektivt. Det handler om at give holdene de rigtige værktøjer, ikke kun til at bygge agenter let, men til at forfine og styrke dem i virkelige scenarier, uden alt det ekstra besvær.
Som GDPR og EU’s AI-akt strammer kravene, hvordan påvirker disse reguleringer måden, virksomheder designer, overvåger og implementerer agenter — og hvordan tilpasser orq.ai sig?
Det er ikke så meget, at disse krav pludselig strammes, de er bare en del af loven, og vores kunder skal overholde dem. Hvad vi gør, er at sikre, at på tværs af hele livscyklussen giver vi holdene de rigtige værktøjer, evalueringer og guardrails, så de kan bygge compliance ind fra dag én.
Vi sikrer, at dataresidens, dataprotektion, alt det er indbygget fra starten. Og med de geopolitiske spændinger og skubben til tech- og AI-suverænitet i Europa, har vi set en stor efterspørgsel efter det. Da vi kan køre fuldt på-premises og hjælpe virksomhederne med at reducere afhængigheden, er vi i en god position til at hjælpe dem med at blive i kontrol over deres egen skæbne.
Virksomheder beder mere og mere om suveræne arkitekturer og hybrid-/on-premises-installationer. Hvad fortæller denne skift os om, hvor enterprise AI-infrastruktur er på vej?
Hver virksomhed og hver enkelt brugs Tilfælde indebærer kompromiser. Det er et spørgsmål om, hvor færdig og hvor sikker og på-premises noget skal være. Vi støtter hver smag på tværs af dette spektrum. Men hvad vi ser, er en stærk fokus på suverænitet og dataresidens på modelniveau.
Kunderne ønsker klarhed over, hvor deres data bor, og evnen til at reducere afhængigheden af store cloud-udbydere. Takket være vores AI-gateway, der kører på tværs af alle større cloud-platforme og på-premises, kan holdene let gøre disse kompromiser på et brugs Tilfælde-basis. De får fleksibiliteten til at blive i kontrol og flytte ubesværet mellem miljøer.
Vi ser en enorm efterspørgsel fra større virksomheder og offentlige institutioner.
Hvordan ser de multi-agent-workflows, safety-guardrails og mere avancerede resonanssystemer udvikle sig, når virksomheder flytter fra eksperimenter til sand agent-industrialisering i 2026?
Da brugen af agenter virkelig industrialiseres, ser vi nye typer problemer opstå, især med multi-agent-sæt. Du kan have dusinvis eller endda hundredvis af agenter, der kører rundt i din organisation på samme tid, ligesom medarbejdere.
Spørgsmålet er: Hvordan styrer du dem alle, når du har denne multi-dimensionale sæt af problemer, som f.eks. omkostninger, datakvalitet, dataresidens, korrekthed, hallucinationsmetrikker og så videre? Du har brug for et nyt styre-lag til at håndtere det, og du har brug for safety-guardrails, der kan deployes top-down.
Du har også brug for top-down-synlighed og nye aggregationslag, så din CFO, COO, CISO kan se, hvad der sker, og intervenere med handlebare indsigt. Vi mener virkelig, at i 2026 vil dette hele “agent-afdeling”-koncept og teknologien til at støtte det blive et meget varmere emne.
Agent-drift, kvalitetsregression og uklare dataflader er tilbagevendende problemer i produktions-AI. Hvordan tackler orq.ai’s kontrolskikt disse langvarige huller i versionering, evaluering og kontinuerlig overvågning?
Hver agent har virkelig brug for sin egen samling af evalueringer. Disse evalueringer definerer grundlæggende, hvad der er rigtigt og forkert for det pågældende scenario. Ved at bruge tid på at konfigurere disse evalueringssæt ordentligt fra starten, kan holdene gøre bedre offline-eksperimenter for at se, hvordan tingene opfører sig, før de går live. Og ved at overvåge disse samme evalueringer online, kan du spotte, når modellerne drifter eller når agentadfærd begynder at ændre sig over tid. På den måde har du en konsekvent sæt af kvalitetsmetrikker under offline-test, online-overvågning og guardrail.
Set fremad, hvad tror de, vil definere den næste generation af enterprise-klar AI-agenter — og hvordan positionerer orq.ai sig til at blive det standard-operationsplatform for den verden?
Set fremad tror jeg, at det, der vil definere den næste generation af enterprise AI-agenter, er, at hver enkelt leverandør vil levere sine egne agenter. I større virksomheder vil det være et bredt landskab af first-party- og third-party-agenter, der samarbejder og kalder på hinanden.
Det bliver ikke kun én type agent eller én leverandør; det er et helt økosystem, der kræver styre og compliance. Og det er her, orq.ai kommer ind. Vi positionerer os som agent-kontroltårnet, der giver forskellige lag i organisationen den rigtige aggregationsvisning og handlebare indsigt til at intervenere på ethvert stadium.
Uanset om det er bygning, skala, drift eller endda afvikling af agenter, har forskellige funktioner brug for forskellige visninger af det landskab. Og det er det, vi vil være den gå-to-leverandør for.












