Finansowanie
Sedai Zabezpiecza 20 Mln Dolarów, aby Rozwinąć Chmurę Samosterującą i Przekształcić DevOps za Pomocą Agentów AI

Sedai, firma stojąca za pierwszą platformą chmury samosterującej, ogłosiła rundę finansowania serii B o wartości 20 milionów dolarów, aby rozwinąć swoją wizję autonomijnego zarządzania infrastrukturą. Finansowanie, prowadzone przez AVP (Atlantic Vantage Point) z wsparciem Norwest, Sierra Ventures oraz Uncorrelated Ventures, zasili rozwój Sedai w nowe dziedziny, takie jak optymalizacja LLM, zarządzanie zasobami GPU oraz inteligentna orkiestracja dla platform takich jak Databricks i Snowflake.
Platforma oznacza punkt zwrotny w DevOps, zastępując tradycyjne podejście alertów i dashboardów agentami AI, które uczą się z produkcji i działają autonomicznie, aby zoptymalizować koszty, wydajność i dostępność.
„Tak jak Waymo udowodniło, że samochody samosterujące są możliwe, Sedai dowodzi, że infrastruktura samosterująca nie tylko jest możliwa, ale także niezbędna”, powiedział Suresh Mathew, CEO i założyciel Sedai.
Co Tak Naprawdę Oznacza Infrastruktura Samosterująca
Podczas gdy większość narzędzi monitorujących generuje tylko alerty, podejście Sedai jest o wiele bardziej proaktywne. Platforma obserwuje ruch, zachowanie aplikacji i konfigurację infrastruktury w czasie rzeczywistym, a następnie podejmuje autonomiczne decyzje, które poprawiają wydajność i redukują koszty — bez wymagania interwencji ludzkiej.
Ta zmiana z obserwowalności na autonomię jest tym, co sprawia, że Sedai jest prawdziwie „samosterującą” platformą. Jej system nie tylko wskazuje problemy, ale je rozwiązuje.
Pod powierzchnią Sedai wykorzystuje architekturę wieloagentową AI, która ciągle adaptuje się do zmieniających się obciążeń i stanów systemu. W sercu tego systemu znajduje się głębokie uczenie wzmocnione (DRL) — potężna forma uczenia maszynowego, w której agenci uczą się przez próby i błędy. W przypadku Sedai agenci są szkoleni do dynamicznego skalowania zasobów infrastruktury, takich jak CPU i pamięć, na podstawie rzeczywistych wyników.
Ten inteligentny system jest dalej wzmocniony przez techniki takie jak wykrywanie anomalii i inferencja przyczynowa, co pozwala Sedai przewidywać awarie i wskazywać przyczyny pierwotne, zanim zostanie wpłynęty na doświadczenie klienta. A dzięki modelowaniu sezonowości, system automatycznie dostosowuje się do powtarzających się wzorców, takich jak codzienne szczyty ruchu lub obciążenia na koniec miesiąca, optymalizując infrastrukturę przed wystąpieniem szczytów.
Nowa Era Wydajności DevOps
Sedai została założona przez Suresh Mathew i Benji Thomas po doświadczeniu wyzwań skalowania mikrousług w PayPal. Podczas gdy DevOps przyspieszył wdrożenia, stworzył również nowe obciążenia — niekończącą się pracę, zmęczenie alertami i kruchymi systemami utrzymywanymi przez ręczne obejścia.
Sedai zmienia tę dynamikę, podejmując działanie. Zamiast polegać na inżynierach do interpretacji metryk i ręcznego reagowania, platforma obsługuje zadania takie jak:
- Wykrywanie i rozwiązywanie degradacji infrastruktury w czasie rzeczywistym
- Skalowanie obciążeń pionowo i poziomo na podstawie rzeczywistego ruchu
- Aktualizowanie konfiguracji w celu optymalizacji kosztów, opóźnień i dostępności
- Uruchamianie lub naprawianie uszkodzonych usług przed zauważeniem przez użytkowników
Już teraz platforma wykonała ponad 25 milionów autonomicznych działań w produkcji, zarządzając wydatkami chmurowymi o wartości 3 miliardów dolarów. To zaoszczędziło klientom ponad 5 milionów dolarów rocznie, a także zwróciło zespołom inżynierskim ponad 22 000 godzin produktywnej pracy.
Zaufana przez Liderów Przedsiębiorstw z Krytycznych Branż
Sedai jest używana w produkcji przez liderów z listy Fortune 500 z branż takich jak bezpieczeństwo cybernetyczne, usługi finansowe, farmaceutyka, edukacja i sztuczna inteligencja. Wśród klientów znajdują się znane nazwy takie jak Palo Alto Networks, Experian i McGraw Hill — firmy, które zależą od stabilnej, wydajnej i efektywnej pod względem kosztów infrastruktury w skali.
W KnowBe4 Sedai obniżyła koszty produkcji o 50% i koszty rozwoju o nawet 87%. Wiceprezes ds. inżynierii Matthew Duren pochwalił platformę nie tylko za efektywność budżetową, ale także za przekształcenie swojej własnej roli — uwolnienie zespołu od koncentrowania się na niskowartościowych zadaniach.
Te wyniki nie są prognozami — odzwierciedlają one prawdziwą sztuczną inteligencję w środowiskach produkcyjnych, bezpiecznie zarządzających systemami produkcyjnymi, a nawet złożonymi obciążeniami sztucznej inteligencji.
Przekraczając Automatyzację: Dlaczego Agenci AI Są Następnym Skokiem
Ważne jest, aby odróżnić automatyzację od autonomii. Automatyzacja wykonuje zadania zdefiniowane z wyprzedzeniem na podstawie statycznych progów lub skryptów. Agenci AI Sedai, z drugiej strony, obserwują i uczą się z systemów, dynamicznie odkrywając najlepsze działania — nawet gdy warunki się zmieniają.
Ta różnica ma znaczenie. W świecie, w którym wzorce ruchu, zależności usług i architektury wdrożeń ciągle ewoluują, statyczne reguły szybko stają się nieaktualne. Podejście Sedai oparte na AI gwarantuje ciągłą optymalizację, nawet w warunkach złożoności.
Na przykład, jej platforma uczy się, jak konkretnie zachowują się usługi pod różnymi obciążeniami i dostosowuje przydział zasobów odpowiednio. Jeśli opóźnienia zwiększają się z powodu konkretnego wąskiego gardła pamięci, Sedai może działać natychmiast — bez czekania, aż człowiek zinterpretuje alert.
Platforma dla Całego Zespołu Inżynierskiego
Sedai dostarcza wartości w całym zakresie ról inżynierskich:
- SRE i inżynierowie DevOps redukują pracę i spełniają cele niezawodności bez wypalenia.
- Deweloperzy koncentrują się na wysyłaniu kodu, podczas gdy Sedai zapewnia optymalne konfiguracje w produkcji.
- Liderzy inżynierscy zyskują operacyjną wydajność i ogromne oszczędności chmurowe.
- Architekci i CTO przekształcają infrastrukturę w strategiczną różnicę, a nie w zobowiązanie.
Zaledwie 15 minut konfiguracji pozwala zespołom połączyć Sedai z ich chmurą i narzędziami APM. Od tego momentu platforma zaczyna uczyć się, walidować bezpieczne optymalizacje i ostatecznie podejmować działania w produkcji — z pełnym śladem audytowym dla zgodności.
Co Dalej: Optymalizacja Stosu Infrastruktury AI
Z rundą finansowania serii B Sedai rozszerzy swoje możliwości o niektóre z najbardziej palących wyzwań w nowoczesnej infrastrukturze AI, w tym:
- Samodostosowanie dla aplikacji opartych na LLM, zapewniając optymalną konfigurację podczas inferencji
- Autonomiczna orkiestracja GPU, zarządzanie drogimi zasobami obliczeniowymi w czasie rzeczywistym
- Optymalizacja platform danych napędzana przez AI takich jak Databricks i Snowflake
Te wysiłki są zgodne z przyszłością, w której same obciążenia — modele AI, potoki inferencyjne, analityka w czasie rzeczywistym — wymagają równie inteligentnych warstw infrastruktury, aby je wspierać.
„Wraz ze wzrostem adopcji chmury, firmy mają trudności z poprawą wydajności i jednoczesną redukcją kosztów. Agenci AI są unikalnie pozycjonowani, aby rozwiązać to w skali”, powiedział Manish Agarwal, Partner Zarządzający w AVP.
Przyszłość Infrastruktury Chmurowej to Autonomia
Wzrost autonomicznych platform chmurowych sygnalizuje szerszy przesuw w branży — od systemów z ludzkim udziałem do inteligentnych agentów, które działają niezależnie w czasie rzeczywistym. Podczas gdy przedsiębiorstwa rozszerzają swoje ślady chmurowe i przyjmują coraz bardziej złożone, rozproszone architektury, ręczne zarządzanie infrastrukturą osiąga swoje granice.
DevOps, wcześniej postrzegany jako ostateczne rozwiązanie dla szybszego wdrożenia i operacyjnej elastyczności, jest teraz pod presją ze strony rosnącej złożoności, zmęczenia alertami i niewydajności kosztowej. Tradycyjne narzędzia obserwowalności i automatyzacji oferują widoczność i skryptowanie — ale nadal polegają na inżynierach, aby analizować, interpretować i działać. To reaktywne podejście ma trudności z utrzymaniem tempa nowoczesnych wymagań usług.
Autonomiczne platformy reprezentują następny ewolucyjny krok. Poprzez integrowanie głębokiego uczenia wzmocnionego, inferencji przyczynowej i adaptacyjnego skalowania w podstawowe przepływy pracy infrastruktury, oferują one możliwość samooptymalizacji i samouzdrawiania w produkcji — ciągle i bez interwencji. Rezultatem nie jest tylko operacyjna wydajność, ale strukturalna transformacja: mniej awarii, szybsze wydania, lepsza kontrola kosztów i poprawione doświadczenie deweloperskie.
W miarę dojrzewania ekosystemu, ten przesuw wpłynie na wszystko, od tego, jak zespoły są obsadzane i strukturyzowane, po to, jak aplikacje są architektowane, testowane i wdrażane. Pionierzy już teraz dowodzą, że operacje autonomiczne mogą przynieść namacalne korzyści w produktywności, wydajności i finansowym zwrocie z inwestycji.
Podczas gdy Sedai jest jednym z liderów, którzy przywożą tę wizję do życia, ogólny wniosek jest jasny: infrastruktura chmurowa nie jest już czymś, co inżynierowie muszą nieustannie zarządzać — staje się czymś, co zarządza się samo.












