Connect with us

Sedai Säkrar 20M Dollar för Att Skala Upp den Självkörande Molntjänsten och Omdefiniera DevOps med AI-agenter

Finansiering

Sedai Säkrar 20M Dollar för Att Skala Upp den Självkörande Molntjänsten och Omdefiniera DevOps med AI-agenter

mm

Sedai, företaget bakom den första självkörande molntjänsten, har meddelat en serie B-runda på 20 miljoner dollar för att skala upp sin vision om autonom infrastrukturhantering. Finansieringen, ledd av AVP (Atlantic Vantage Point) med stöd från Norwest, Sierra Ventures och Uncorrelated Ventures, kommer att driva Sedais expansion till nya områden som LLM-optimering, GPU-resurshantering och intelligent orkestrering för plattformar som Databricks och Snowflake.

Plattformen markerar en vändpunkt i DevOps, där traditionella varnings- och instrumentpanelsparadigm ersätts av AI-agenter som lär sig från produktionsmiljöer och agerar autonomt för att optimera kostnad, prestanda och tillgänglighet.

”Liksom Waymo bevisade att självkörande bilar är möjliga, bevisar Sedai att självkörande infrastruktur inte bara är möjlig, utan också nödvändig”, sa Suresh Mathew, VD och grundare av Sedai.

Vad Självkörande Infrastruktur Verkligen Betyder

Medan de flesta övervakningsverktyg bara genererar varningar, är Sedais tillvägagångssätt betydligt mer proaktivt. Plattformen observerar trafik, applikationsbeteende och infrastrukturkonfigurationer i realtid, och fattar sedan autonoma beslut som förbättrar prestanda och minskar kostnader – utan att kräva mänskligt ingripande.

Denna övergång från observerbarhet till autonomi är vad som gör Sedai till en riktigt ”självkörande” plattform. Dess system varnar inte bara för problem, utan löser dem.

Under huven använder Sedai en multi-agent AI-arkitektur som kontinuerligt anpassar sig till förändrade arbetsbelastningar och systemtillstånd. I hjärtat av detta system finns deep reinforcement learning (DRL) – en kraftfull form av maskinlärande där agenter lär sig genom trial och error. I Sedais fall är agenter tränade för att dynamiskt skala infrastrukturresurser som CPU och minne baserat på faktiska prestandaresultat. Över tiden lär sig dessa agenter vilka åtgärder som leder till de bästa resultaten i live-miljöer.

Denna intelligens förstärks ytterligare av tekniker som avvikelseupptäckt och kausalinferens, som möjliggör för Sedai att förutsäga fel och identifiera roten till problemen innan kundupplevelsen påverkas. Och med säsongmodellering justerar systemet automatiskt till återkommande mönster som dagliga trafiktoppar eller slutet av månaden bearbetningsbelastningar, vilket optimerar infrastrukturen innan efterfrågan ökar.

En Ny Era Av DevOps-Effektivitet

Sedai grundades av Suresh Mathew och Benji Thomas efter att ha upplevt de skalningsutmaningar som mikrotjänster medförde på PayPal. Medan DevOps accelererade distributioner, skapade det också nya bördor – outsinliga mödor, varningsutmattning och sköra system som hålls samman av manuella lösningar.

Sedai förändrar den dynamiken genom att vidta åtgärder. Istället för att förlita sig på ingenjörer för att tolka mått och svara manuellt, hanterar plattformen uppgifter som:

  • Upptäcka och lösa infrastrukturdegradering i realtid
  • Skala arbetsbelastningar vertikalt och horisontellt baserat på faktisk trafik
  • Uppdatera konfigurationer för att optimera för kostnad, latens och tillgänglighet
  • Starta om eller återställa trasiga tjänster innan användare märker det

Redan har plattformen utfört över 25 miljoner autonoma åtgärder i produktion, och hanterar 3 miljarder dollar i molnutgifter. Detta har sparat kunderna över 5 miljoner dollar per år, samtidigt som det har gett utvecklingsteam mer än 22 000 timmar av produktiv tid.

Förtrodda Av Företagsledare Inom Kritiska Branscher

Sedai används i produktion av Fortune 500-ledare inom cybersäkerhet, finansiella tjänster, läkemedel, utbildning och AI. Kunderna inkluderar välkända namn som Palo Alto Networks, Experian och McGraw Hill – företag som är beroende av stabil, presterande och kostnadseffektiv infrastruktur i stor skala.

KnowBe4 minskade Sedai produktionskostnaderna med 50 % och utvecklingskostnaderna med så mycket som 87 %. Vice VD för teknik Matthew Duren gav plattformen inte bara krediter för budgeteffektivitet, utan också för att ha förändrat hans egen roll – genom att frigöra hans team för att fokusera på strategiska initiativ istället för lågvärdesuppgifter.

Dessa resultat är inte prognoser – de återspeglar riktigt AI i live-miljöer, som säkert hanterar produktionsystem och till och med högkomplexa maskinlärningsarbetsbelastningar.

Att Gå Utanför Automatisering: Varför AI-agenter Är Nästa Störning

Det är viktigt att skilja automatisering från autonomi. Automatisering utför fördefinierade uppgifter baserat på statiska trösklar eller skript. Sedais AI-agenter, å andra sidan, observerar och lär sig från dina system, och upptäcker de bästa åtgärderna dynamiskt – även när förhållandena förändras.

Denna distinktion är viktig. I en värld med ständigt föränderliga trafikmönster, tjänsteberoenden och distributionsarkitekturer, blir statiska regler snabbt föråldrade. Sedais AI-första tillvägagångssätt säkerställer kontinuerlig optimering, även under komplexitet.

Till exempel lär sig plattformen hur specifika tjänster beter sig under olika belastningar och finjusterar resursallokeringen därefter. Om svarstiden ökar på grund av en specifik minnesflaskhals, kan Sedai agera omedelbart – utan att behöva vänta på att en människa ska tolka varningen.

En Plattform För Hela Ingenjörsorganisationen

Sedai levererar värde över hela ingenjörsstapeln:

  • SRE och DevOps-ingenjörer minskar mödor och uppfyller tillförlitlighetsmål utan att bli utbrända.
  • Utvecklare fokuserar på att skicka kod, medan Sedai säkerställer optimala konfigurationer i produktion.
  • Ingenjörsledare får operativ effektivitet och massiva molnsparningar.
  • Arkitekter och CTO förvandlar infrastruktur till en strategisk differentierare, inte en belastning.

Med bara 15 minuters installation kan team ansluta Sedai till sina moln- och APM-verktyg. Därifrån börjar plattformen lära sig, validera säkra optimeringar och slutligen vidta åtgärder i live-produktion – med en fullständig revisionslogg för regelefterlevnad.

Vad Som Kommer Härnäst: Att Optimera AI-infrastrukturstacken

Med sin serie B-finansiering kommer Sedai att expandera sin funktionalitet till några av de mest pressande utmaningarna inom modern AI-infrastruktur, inklusive:

  • Självjustering för LLM-baserade applikationer, som säkerställer optimal konfiguration under inferens
  • Autonom GPU-orkestrering, som hanterar dyra beräkningsresurser i realtid
  • AI-driven optimering av dataplattformar som Databricks och Snowflake

Dessa insatser är i linje med en framtid där arbetsbelastningarna själva – AI-modeller, inferenspipelines, realtidsanalys – kräver lika intelligenta infrastrukturlager för att stödja dem.

”När molnanvändningen ökar, kämpar företag för att förbättra prestanda samtidigt som de minskar kostnaderna. AI-agenter är unikt positionerade för att lösa detta i stor skala”, sa Manish Agarwal, generalförvaltare på AVP.

Framtiden För Molninfrastruktur Är Autonom

Uppkomsten av autonoma molnplattformar signalerar en bredare industriell förändring – från mänskliga system till intelligenta agenter som opererar oberoende i realtid. När företag skalar upp sina molnfotavtryck och antar alltmer komplexa, distribuerade arkitekturer, når manuell infrastrukturhantering sina gränser.

DevOps, som en gång sågs som den ultimata lösningen för snabbare distribution och operativ smidighet, är nu under tryck från ökande komplexitet, varningsutmattning och kostnadineffektivitet. Traditionella övervaknings- och automatiseringsverktyg erbjuder synlighet och skript – men de förlitar sig fortfarande på mänskliga ingenjörer för att analysera, tolka och agera. Denna reaktiva tillvägagångssätt kämpar för att hålla jämna steg med moderna tjänstekrav.

Autonoma plattformar representerar nästa evolutionära steg. Genom att integrera djup förstärkt lärande, kausalinferens och adaptiv skalning i kärninfrastrukturflöden, erbjuder de möjligheten att självoptimera och självläka i produktion – kontinuerligt och utan ingripande. Resultatet är inte bara operativ effektivitet, utan en strukturell omvandling: färre avbrott, snabbare utgåvor, bättre kostnadskontroll och förbättrad utvecklarupplevelse.

När ekosystemet mognar, kommer denna förändring att påverka allt från hur team är bemannade och strukturerade, till hur applikationer är arkitektuerade, testade och distribuerade. Tidiga antagare har redan visat att autonoma operationer kan ge påtagliga vinster i produktivitet, prestanda och finansiell avkastning.

Medan Sedai är en av ledarna som förverkligar denna vision, är den större takeaway tydlig: molninfrastruktur är inte längre något som ingenjörer måste konstant hantera – det blir något som hanterar sig själv.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.