Connect with us

Romain Sestier (CEO) & Guillaume Lebedel (CTO), Co-Founders of StackOne – Interview Series

Interviews

Romain Sestier (CEO) & Guillaume Lebedel (CTO), Co-Founders of StackOne – Interview Series

mm

Romain Sestier, Co-Founder & CEO of StackOne, har bygget et produkt fra scratch til en værdi på 1 milliard dollars hos Google og har også fungeret som VP of Product & CS hos Yieldify, hvor han ledede 70 mennesker globalt og ledte SaaS-integrationsstrategien. Romain åbnede også det britiske kontor som Head of UK Services hos ContentSquare og ledte integrationen med A/B-testværktøjer. Han har også co-founder en tidligere startup, Upper.ai, med Guillaume.

Guillaume Lebedel, Co-Founder & CTO of StackOne, var VP of Engineering hos Yieldify, et selskab der blev opkøbt af Publicis. Guillaume har ledet integrationshold og bygget hundredvis af integrationer med SaaS-værktøjer, der bruges af mere end 1000 SaaS-produkter. Han har også bygget og vedligeholdt API’er med over 2 milliarder hits om måneden.

StackOne er en platform til integration, der er bygget med fokus på privatliv og kunstig intelligens, og hjælper B2B SaaS-selskaber og AI-agenter med at bygge realtids-, bi-retningssammenhængende integrationer på tværs af hundredvis af enterprise-systemer via en enkelt, samlet API. Den er designet til hastighed og sikkerhed og giver udviklere mulighed for at leverer integrationer på få dage i stedet for uger uden at gemme kundeoplysninger.

Hvad inspirerede dig til at forlade Google og co-founde StackOne, og hvilket hul i AI- eller SaaS-integrationsrummet så du, der gjorde muligheden føle sig presserende?

Romain: “Smerten ved integration er noget, jeg har følt på hver etape af min karriere, enten jeg var i en tidlig startup eller arbejdede med store skala-systemer inde i Google. Da jeg ledede Product hos Google, byggede jeg et AI-insight-værktøj til detail, og selv der – i et af de mest teknisk avancerede selskaber i verden – løb vi ind i enorme hindringer bare for at få ren integration mellem systemer. Det var da, det virkelig slog mig: dette er et vidt udbredt, systemisk problem. Og med opkomsten af LLM’er så vi en ny mulighed åbne sig. Pludselig var der en mulighed for at helt omtænke integrationsskiktet: et, der ikke bare var boltet på, men bygget fra bunden op til AI. Guillaume og jeg så det klart: timingen var rigtig, og markedet var sultent efter en løsning.”

Hvordan har din erfaring med at lede produkt og services hos Yieldify og dit arbejde hos Area 120 påvirket din tilgang til StackOne’s produktstrategi?

Romain: “Hos Yieldify ledede jeg både Product- og Services-siden af forretningen, hvilket lærte mig vigtigheden af at binde vejledningen til faktiske omsætningsresultater; ting som hurtigere partner-onboarding, højere gennemsnitlig ordreværdi eller lavere churn. Hos Google skalaerede jeg et data-insight-produkt, der leverede 1 milliard dollars i ekstra omsætning, og den erfaring forstærkede, hvor kritisk brugeroplevelse og adoptionsmetrikker er for succes. Area 120 var et helt andet dyr – det handlede om 10x-idéer og hastighed. Det lærte mig at flytte hurtigt, eksperimentere konstant og ikke være bange for at satse stort. Alt det har dybt påvirket, hvordan vi bygger hos StackOne: bi-ugentlige sprints, dristige produkt-bets og en laser-fokus på at gøre integrationer ikke kun lettere at skala, men også dejlige at bruge.”

StackOne bygger ikke en ny model – I bygger det forbundne væv mellem modeller og SaaS-systemer. Hvorfor er dette infrastrukturskikt så kritisk for AI-agenter?

Guillaume: “Realiteten er, at AI-agenter ikke kun har brug for hjerner, men også hænder. En model kan være i stand til at resonere briljant, men medmindre den kan tage præcise, sikre og hurtige handlinger i den virkelige verden, er den højt begrænset. Uden en struktureret infrastrukturskikt til at styre godkendelse, rate-grænser og adgangsrettigheder, vil de enten hallucinere og tage forkerte handlinger eller ødelægge ting. De fleste selskaber bruger over 100 SaaS-værktøjer, så uden en platform som StackOne, der abstraherer røret, er du fastlåst til at wire op hver enkelt separat. Vores job er at give agenterne sikker, skalerbar adgang til de værktøjer, de har brug for, så holdene kan fokusere på logik, ikke logistik.”

Kan du føre os igennem, hvordan StackOne’s Unified API og AI Agent Actions-platform fungerer under overfladen? Hvad er teknisk udfordrende ved det?

Guillaume: “Vi definerer en enkelt udtømmende beskrevet OpenAPI-specifikation per domæne, der kortlægger hundredvis af underliggende endepunkter. Den specifikation forbliver opdateret centralt, så kunderne ikke behøver at styre versionsændringer. Vores værktøjsskemaer kommer foruddefinerede med de rette godkendelsesomfang, hvilket betyder, at agenten ikke gætter eller overgår. Det sværeste er at normalisere SaaS-data-modeller – værktøjer som Workday lader kunderne definere brugerdefinerede objekter og relationer, hvilket introducerer massiv kompleksitet. Vores motor håndterer alt det i realtid, hvilket giver udviklerne en pålidelig, deterministisk eksekveringsskikt drevet af LLM-assisteret kortlægning.”

Hvad gør StackOne’s værktøj-til-kald-motor hurtigere og mere præcis end selv de førende LLM’ers evner?

Guillaume: “Nøglen er struktur. Vores motor giver typede og udtømmende beskrevne funktions-signaturer, så modellerne ved præcis, hvilke argumenter at bruge. Under overfladen kan StackOne batche og parallellisere værktøjskaldene, mens de respekterer rate-grænser for at udføre anmodningerne så hurtigt som muligt med automatiserede genforsøg. Og da vi styrer legitimationsoplysninger centralt, er der ingen behov for gen-godkendelse inde i løkken. Disse optimeringer gør en enorm forskel, når du prøver at køre agenter i realtid.”

Hvordan er StackOne optimeret specifikt til AI-brugssteder, såsom Retrieval-Augmented Generation (RAG), værktøjsbrug eller realtids-agent-eksekvering?

Guillaume: “Vi tilbyder delta-kun-endepunkter til RAG-pipelines, der holder kontekstvinduer korte og effektive. Til realtids-agenter understøtter vi streaming-unified-webhooks, der udnytter native begivenheder eller opretter syntetiske begivenheder, når underliggende værktøjer ikke giver de begivenheder, du har brug for. Og vores platform gennemtvinger finmasket adgangskontrol på tenant- og projekt-niveau, hvilket er afgørende for at orkestrere multiple agenter på tværs af forskellige brugere på en sikker måde.”

Hvad er de mest almindelige misforståelser, hold har om at bygge integrationer internt versus brug af en platform som StackOne?

Romain: “En stor myte er, at integrationer kun handler om at lave et API-kald. Den initiale bygning kan se simpel ud, men den løbende vedligeholdelse sluger ofte 20% af udviklingstiden. Hold undervurderer også værdien af niche-tilslutninger: de, du prioriterer lavest, kan være, hvor churn-risikoen faktisk bor. Og sikkerhed er ofte en eftertanke. DIY-hold dækker sjældent ting som SOC-2-overholdelse eller tenant-isolation, som er uafviselige for enterprise-kunder. Og så er der tenant-tilpasning. Hver ny kunde bringer sin egen sæt af edge-cases, konfigurations-ejendommeligheder og kortlægningslogik, som tilføjer løbende kompleksitet, der er let at overse i starten.”

Alle taler om AI-agenter, men virkelige verden-udrulning er stadig tidligt. Hvad mener du holder tilbage masse-entreprise-accept?

Romain: “Sikkerhed og overholdelse er stadig de største blokeringsfaktorer. CIO’er bekymrer sig om, at agenter handler uden for rammerne eller skaber revisionsløg. StackOne løser dette ved at gennemtvinge mindst-privilegerede OAuth-omfang, aktiverer tenant-niveau-afbryder og giver en fuld revisionslogg. Når risikohold ser det niveau af kontrol, bevæger de sig fra at være portvogtere til aktive støtter.”

Hvad er de største tekniske eller sikkerheds-udfordringer i at lade AI-agenter handle på vegne af brugere på tværs af SaaS-platforme — og hvordan mitigere I dem?

Guillaume: “Du skal styre ting som token-sprælling og opfriskningscykler, som vi løser med en central krypteret vault. At forhindre data-lækage på række-niveau er en anden udfordring, så vi gennemtvinger deterministiske konto-identifikatorer i værktøjskaldet for at sikre, at agenterne kun får adgang til de rette data, og det er ikke op til LLM’en. Og for at undgå agent-drift eller misbrug kører vi kontinuerligt politik-checks og red-team-test. Vores platform giver også mulighed for at parameterisere, hvilken handling der skal være tilgængelig for hvilket linket system. Sikkerhed skal være indbygget fra bunden op.”

Hvordan ser du fremtiden for åbne kilde-værktøjer som LangChain og CrewAI, der blander sig med proprietære platforme som StackOne?

Guillaume: “Vi ser åbne kilde-værktøjer som orkestreringslaget og StackOne som den underliggende infrastruktur. Det er derfor, vi har bygget SDK’er til Python og Typescript, der plugger direkte ind i LangChain- og CrewAI-arbejdsgange. Du vil se en hybrid-model opstå, hvor åbne kilde-værktøjer bruges til prototypering og managede platforme bruges til produktionssikkerhed, ligesom hold bruger Terraform med AWS. Det er ikke enten-eller, det er begge.”

Tak for det gode interview. Læsere, der ønsker at lære mere, skal besøge StackOne.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.