Wywiady
Ali Sarrafi, CEO i założyciel Kovant – seria wywiadów

Ali Sarrafi, CEO i założyciel Kovant, to doświadczony menedżer branży technologicznej i sztucznej inteligencji z siedzibą w Sztokholmie, z udokumentowanym dorobkiem w zakresie tworzenia i skalowania firm z wysokim wzrostem gospodarczym w dziedzinie sztucznej inteligencji. Od momentu założenia Kovant pod koniec 2024 roku, wykorzystuje głębokie doświadczenie w zakresie strategii sztucznej inteligencji dla przedsiębiorstw, wdrożenia na rynek i operacyjnego skalowania. Wcześniej pełnił funkcję wiceprezesa ds. strategii w Silo AI po jej przejęciu przez AMD, gdzie był odpowiedzialny za kształtowanie strategii sztucznej inteligencji dla przedsiębiorstw i wspieranie dużych wdrożeń. Na wcześniejszym etapie swojej kariery współzałożył Combient Mix, prowadząc firmę przez okres gwałtownego wzrostu i udanego przejęcia przez Silo AI, a od tego czasu pełnił role doradcze i członka rad nadzorczych w firmach edukacyjnych i startupach z dziedziny sztucznej inteligencji, co odzwierciedla stałe skupienie na tłumaczeniu zaawansowanej sztucznej inteligencji na rzeczywisty wpływ biznesowy.
Kovant to firma zajmująca się sztuczną inteligencją dla przedsiębiorstw, skupiająca się na umożliwieniu organizacjom przejścia od eksperymentalnego wykorzystania sztucznej inteligencji do w pełni operacyjnych, autonomicznych procesów biznesowych. Firma rozwija platformę opartą na agentach, zaprojektowaną do koordynowania zespołów agentów sztucznej inteligencji w złożonych obszarach operacyjnych, takich jak zamówienia, łańcuchy dostaw, zgodność z przepisami oraz operacje klientów. Poprzez podkreślanie bezpiecznego, przedsiębiorczego wdrożenia i szybkiego czasu osiągania efektów, Kovant stawia się jako mostek pomiędzy strategicznymi ambicjami sztucznej inteligencji a codziennym wykonaniem, pomagając dużym organizacjom włączać sztuczną inteligencję bezpośrednio do podstawowych procesów roboczych, zamiast traktować ją jako oddzielne narzędzie lub projekt pilotażowy.
Poprowadziłeś duże inicjatywy związane z sztuczną inteligencją w Spotify, skalowałeś i zbyłeś Combient Mix, a później kształtowałeś strategię sztucznej inteligencji dla przedsiębiorstw w Silo AI, zanim założyłeś Kovant. Jakie konkretnych luk lub frustracji spotkałeś na swojej drodze, które przekonały cię, że nadszedł czas, aby zbudować autonomiczną platformę dla przedsiębiorstw, i jak ta historia ukształtowała podstawową filozofię projektową Kovant?
Przez całe moje poprzednie role pojawiały się pewne ciągłe luki. Po pierwsze, większość „pionowych” narzędzi sztucznej inteligencji jest skutecznie uwięziona w jednej stosie oprogramowania: robią jedną rzecz nieco lepiej w ramach tej granicy, ale mają trudności, gdy workflow musi obejmować wiele systemów. W tym samym czasie dane przedsiębiorstw są rozproszone po wielu narzędziach, a wiele rozwiązań automatyzacji po prostu nie może do nich dotrzeć. Dodaj kilka lat punktowych integracji, a otrzymujesz klasyczną architekturę spaghetti: złożoność rośnie, zmiany stają się wolniejsze, a zespoły kończą się na automatyzowaniu poszczególnych kroków, zamiast przebudowywać workflow od początku do końca. Efektem jest to, że zwrot z inwestycji często pojawia się wolniej – i mniejszy – niż oczekują organizacje.
Kovant został zaprojektowany jako odpowiedź na tę rzeczywistość. Nasza podstawowa filozofia polega na tym, że agenci powinni zachowywać się bardziej jak pracownicy: pracują oni w różnych narzędziach, są „zatrudniani”, aby wykonywać zadania, a nie automatyzować jedną skryptowaną sekwencję. Dlatego integracje i koordynacja są wbudowane, a my zakładamy, że dane przedsiębiorstw są często brudne i nieustrukturyzowane – wymagają one bardziej ludzkiego podejścia do obsługi wyjątków i niejasności.
Wykorzystujemy podstawowe agenty, aby osiągnąć szybkość i skalę, jednocześnie utrzymując suwerenność danych na pierwszym planie: przedsiębiorstwa mogą uzyskać dostęp i wykorzystać swoje własne dane w sposób poziomy, bez opuszczania ich siedzib.
Kovant pozycjonuje się jako autonomiczna platforma przedsiębiorstw, zdolna do prowadzenia całych operacji i departamentów za pomocą agentów sztucznej inteligencji. Jak definiujesz „autonomiczny” w kontekście przedsiębiorstwa, i jak to się różni od automatyzacji i narzędzi agentów, z którymi firmy eksperymentują dzisiaj?
W kontekście przedsiębiorstwa, gdy mówimy „autonomiczny”, nie mamy na myśli „nienadzorowany”. Mamy na myśli, że agenci sztucznej inteligencji mogą podejmować rzeczywiste działania od początku do końca operacji z wyraźnymi celami i ograniczeniami, i że będą eskalować do ludzi, gdy nadzór jest potrzebny.
To, co odróżnia Kovant, to nasi podstawowi agenci. Zamiast automatyzować jeden, stały proces lub wykonywać prebudowaną sekwencję, agenci Kovant mogą pracować jako zespół (lub roj) nad operacją, wykorzystując tylko instrukcje i przegląd operacji, który nazywamy planem. Nie są zaprojektowani do jednego wąskiego zadania; współpracują, aby rozwiązać złożone workflow, adaptują się do zmieniających się warunków i przekazują ludziom, gdy nadzór jest wymagany.
Na przykład zespół agentów zarządzania zapasami może wykonywać wszystkie poniższe zadania bez odbudowywania ich od podstaw, w tym: komunikowanie się z dostawcami za pośrednictwem poczty elektronicznej, monitorowanie poziomów zapasów i sygnałów braku, śledzenie przesyłek i zamówień, aktualizowanie statusów w systemach, tworzenie biletów niezgodności dla planistów zapasów do zatwierdzenia, ponowne rozdysponowanie zapasów między magazynami i konsolidację raportów zapasów.
Tak więc zmiana polega na tym, że zamiast „czatu plus narzędzi” lub kruchych automatyzacji, które psują się w skali, przedsiębiorstwa przechodzą od budowania agentów do ich uruchamiania w skali.
Pomimo ogromnego zainteresowania agentywną sztuczną inteligencją, wiele organizacji pozostaje utknionych w trybie pilotażowym. Z tego, co widzisz w rzeczywistych wdrożeniach, jakie są główne powody, dla których firmy mają trudności z przejściem od eksperymentowania do skalowanego wytwarzania?
To, co widzimy, to fakt, że większość organizacji nie utknęła w trybie pilotażowym, ponieważ pomysł jest zły; utknęły, ponieważ środowisko jest wrogie wobec skalowania.
Pierwszym blokerem jest fragmentaryzowany krajobraz technologiczny przedsiębiorstw. Workflow obejmuje wiele systemów, dane mieszczą się w wielu miejscach, a szycie wszystkiego razem w sposób niezawodny jest trudne. Agentywna sztuczna inteligencja jest często wdrożona jako dodatek do istniejących narzędzi, zamiast jako sposób na przemyślenie, jak workflow powinno działać od początku do końca.
Istnieje również prawdziwy problem architektury i danych. Wiele dostawców oprogramowania jako usługi nadal próbuje zamknąć dane, co tworzy niezgodności i ogranicza to, co agenci mogą faktycznie zrobić w systemach. I wiele zespołów nie docenia faktu, że większość danych przedsiębiorstw jest nieustrukturyzowana (e-maile, dokumenty, bilety, pliki PDF, logi czatu). Jeśli Twoje podejście zakłada czyste, ustrukturyzowane dane, czas osiągania efektów staje się długi, bolesny i trudny do powtórzenia poza pilotem.
Krótko mówiąc: fragmentacja, zamykanie i nieustrukturyzowane dane tworzą opór – i pilotaż nigdy nie przechodzi w fazę produkcji, dopóki te rzeczywistości nie zostaną zaprojektowane.
Niezawodność jest często cytowana jako największy blokada wdrożenia agentów sztucznej inteligencji w świecie rzeczywistym. Dlaczego wiele systemów agentów zawodzi, gdy opuszczają kontrolowane środowiska, i jak podejście Kovant redukuje problemy, takie jak halucynacje i nieprzewidywalne zachowanie?
Niektóre systemy agentów wyglądają świetnie w demonstracjach, a potem zawodzą w świecie rzeczywistym, ponieważ środowisko jest brudne i nieprzewidywalne. Dane są niekompletne lub niespójne, przypadki brzegowe pojawiają się ciągle (zwroty, spory, specjalne zatwierdzenia). Workflow obejmuje wiele narzędzi, platform i integracji, które zmieniają się w czasie, a uprawnienia różnią się. Gdy agent sztucznej inteligencji jest poproszony o obsłużenie dużego zadania i otrzymuje zbyt wiele kontekstu na raz, ryzyko halucynacji i niezwykłego zachowania wzrasta.
Kovant redukuje to poprzez projekt. Nasza unikalna architektura zawęża przestrzeń problemu, przestrzeń decyzyjną i kontekst, z którym modele pracują, aby zmniejszyć halucynacje. Rozbijamy również operacje na wąskie, ukierunkowane zadania dla poszczególnych agentów i kroków. To sprawia, że zachowanie staje się bardziej przewidywalne, a także dodaje śledzenie i kontrolę do systemu i może lepiej zarządzać halucynacjami. Możemy zobaczyć, co każdy agent zrobił, gdzie wystąpiła awaria, i interweniować lub eskalować, gdy jest to potrzebne.
Halucynacje nie znikają magicznie, ale poprzez ograniczenie tego, za co każdy agent jest odpowiedzialny, i ograniczenie kontekstu, na który może działać, możemy zmniejszyć ich częstotliwość i ograniczyć ich wpływ. To „wąskie zadanie/kontekst” podejście zostało również poparte w niedawnej pracy zespołu badawczego Nvidia, który znalazł podobne korzyści z ograniczaniem decyzji agentów.
Odpowiedzialność jest głównym powodem do zmartwienia, gdy agenci sztucznej inteligencji zaczynają podejmować rzeczywiste działania w systemach biznesowych. Jak szczegółowe rejestry działań zmieniają rozmowę o zaufaniu, zgodności i operacyjnym ryzyku?
Z szczegółowymi rejestrami działań możemy zobaczyć, co się stało, dlaczego się stało i co się stanie dalej.
Szczegółowe rejestry zmieniają agenta z tajemniczego bota pracującego w maszynie w system, który można zinspectować.
W Kovant, z każdym wdrożeniem agenta sztucznej inteligencji, będzie mapa ryzyka, na którą organizacja może działać, mamy wbudowany system bramkowy dla ludzi dla ryzykownych działań, co oznacza, że agenci mogą wykonywać tylko te zadania, jeśli osoba je przegląda i zatwierdza decyzję. Wszystkie te są rejestrowane w ten sam sposób, w jaki rejestrowane są systemy rejestrów, i są śledzone.
Uważamy, że ważne jest połączenie rejestrów działań z nadzorem ludzkim i obserwowalnością, aby zminimalizować ryzyko. Oznacza to, że nadal uzyskujesz korzyści z szybkości i skali agentów prowadzących rzeczywiste operacje.
Istnieje rosnąca dyskusja na temat tego, czy agenci sztucznej inteligencji mogą być nawet ubezpieczeni ze względu na ich nieprzejrzyste podejmowanie decyzji. Jak sprawia, że workflow agentów są audytowalne i odtwarzalne, aby pomóc rozwiązać problem „czarnej skrzynki” i otworzyć drzwi do ubezpieczenia?
Problem „czarnej skrzynki” jest tym, co utrudnia ubezpieczenie. Jeśli nie możesz wyraźnie pokazać, co agent zrobił, dlaczego to zrobił i jakie kontrole były w miejscu, jest trudno dla każdego, zwłaszcza ubezpieczycieli, ocenić ryzyko.
Nasze podejście jest podstawowym rozszerzeniem ustawienia odpowiedzialności z poprzedniej odpowiedzi. Rozbijamy zakres decyzji i wpływ działań na mniejsze kawałki, tak aby model nie podejmował jednej ogromnej, nieprzejrzystej decyzji, która może zmienić całą operację. Każdy krok jest węższy, bardziej przewidywalny i łatwiejszy do oceny.
Następnie dodajemy szczegółowe rejestry, obserwowalność i nadzór ludzki. Dla najważniejszych i najbardziej wpływowych decyzji używamy ludzkiego strażnika, tak aby agent mógł działać tylko po przeglądzie i zatwierdzeniu. To tworzy o wiele więcej widoczności w tym, jak workflow działa w praktyce.
Czynienie workflow audytowalnym i odtwarzalnym jest ostatecznym elementem. Jeśli coś pójdzie nie tak, możesz odtworzyć, co się stało, zbadać to szybko, zwalidować poprawki i zademonstrować, jak często zatwierdzenie przez człowieka jest wymagane i gdzie znajdują się zabezpieczenia. W terminach ubezpieczenia to zmienia tajemnicze zachowanie sztucznej inteligencji w coś bliższego standardowemu operacyjnemu ryzyku.
Z inicjatywami takimi jak Agentic AI Foundation, które mają na celu stworzenie wspólnych standardów dla systemów agentywnych, co uważasz za najbardziej obiecujące aspekty tych wysiłków, i gdzie one nadal nie spełniają wymagań rzeczywistych operacji przedsiębiorstw?
Standaryzacja jest generalnie dobrą rzeczą. Agentic AI Foundation może wykonać nieglamurzoną, ale niezbędną pracę, aby uzyskać systemy agentów, które mówią tym samym językiem, co powinno ułatwić integracje i zmniejszyć zamykanie dostawców w czasie.
Tam, gdzie jestem ostrożny, to kto kształtuje standardy. Jeśli większość pracy jest prowadzona przez twórców modeli i startupy technologiczne, istnieje ryzyko, że „standardy” zoptymalizują to, co jest najłatwiejsze do zbudowania lub zademonstrowania, a nie to, czego potrzebują duże organizacje, aby bezpiecznie działać agentami na co dzień.
Dla rzeczywistych operacji przedsiębiorstw luki tendencję do bycia mniej o połączeniach i bardziej o kontroli: co agent może uzyskać dostęp i zmienić, workflow zatwierdzeń dla działań o dużym wpływie, audytowalne rejestry i obserwowalność, aby zespoły mogły monitorować zachowanie, badać incydenty i udowadniać zgodność. Przedsiębiorstwa również potrzebują praktycznych standardów do działania w brudnej rzeczywistości: testowania przypadków brzegowych, obsługi zmieniających się systemów i możliwości bezpiecznego wstrzymania, zawieszenia lub wycofania działań w legacy toolach i środowiskach danych regulowanych.
Więc to jest obiecujący kierunek, ale wpływ będzie ograniczony, chyba że wymagania przedsiębiorstw i kontrole operacyjnego ryzyka nie są traktowane jako późniejsza myśl.
Kovant wygenerował już znaczne przychody z dużych przedsiębiorstw nordyckich, działając w dużej mierze w ukryciu. Jakie typy funkcji biznesowych lub workflow są najbardziej gotowe do autonomicznych agentów sztucznej inteligencji dzisiaj?
Z tego, co widzimy w rzeczywistych wdrożeniach, workflow, które są najbardziej „gotowe” dzisiaj, to te, które składają się z reaktywnej białej kołnierzykowej pracy: monitorowania, gonienia, sprawdzania, aktualizowania systemów, obsługi wyjątków i utrzymania operacji w ruchu w różnych narzędziach.
W produkcji i szerszych łańcuchach dostaw przedsiębiorstw to objawia się w:
- Zamówieniami/zaopatrzeniem: dostępność surowców, zrównoważone zaopatrzenie, operacje zgodności, wybór dostawców (w tym dualne/multi-zaopatrzenie), zarządzanie umowami, zarządzanie ryzykiem dostawców i zarządzanie ofertami.
- Produkcją: planowanie pojemności, planowanie produkcji, zarządzanie konserwacją, zarządzanie jakością, zarządzanie wąskimi gardłami i zapobieganie stratom.
- Magazynowaniem: odbiorem i inspekcją, zarządzaniem zapasami, rotacją zapasów (FIFO/FEFO) i cyklicznym liczeniem/audytowaniem.
- Transportem / logistyką: wyborem trybu i przewoźnika, odprawą celną/dokumentacją, śledzeniem i widocznością, monitorowaniem emisji i zgodności handlowej.
- Handlem i obsługą: dostępnością produktów, zapobieganiem brakom, zarządzaniem sprzedażą i zwrotami, analizą zachowania konsumentów, a także obszarami posprzedażowymi, takimi jak naprawy, śledzenie produktów na końcu życia, warsztatowe operacje i umowy serwisowe.
Gdy przedsiębiorstwa wdrożą agenci sztucznej inteligencji w krytyczne operacje, jak polecasz balansować autonomię z nadzorem ludzkim, aby zapewnić kontrolę bez spowalniania wszystkiego?
Równowaga jest zarządzana autonomią. Musisz pozwolić agentom poruszać się szybko w pracy o niskim ryzyku w ramach wyraźnych granic i eskalować do ludzi, gdy działanie przekracza określony próg ryzyka.
Wiele niepowodzeń pochodzi z dawania modelowi zbyt dużej zakresu i zbyt dużej ilości kontekstu na raz. Zalecam rozbijanie operacji na mniejsze, wąsko zakresowe decyzje, gdzie każdy krok ma wyraźne uprawnienia i ograniczony zasięg wpływu. To redukuje nieprzewidywalne zachowanie i sprawia, że wydajność jest łatwiejsza do monitorowania i poprawy.
Następnie łączysz trzy rzeczy: obserwowalność, rejestry działań i nadzór ludzki. Wszystko, co agent robi, powinno być śledzone, abyś mógł zinspectować, co się stało, i badać szybko. Dla działań o dużym wpływie lub ryzykownych umieszczasz krok zatwierdzenia ludzkiego w workflow, tak aby agent mógł proponować i przygotowywać, ale wykonywał tylko po tym, jak osoba zaakceptuje.
To utrzymuje wszystko w ruchu szybko. Jeśli cokolwiek to tylko nieznacznie spowalnia na etapie nadzoru ludzkiego, ale to jest ważna część procesu. Ludzie nie są utknieni w nadzorowaniu każdego kliknięcia, ale nadal kontrolują momenty, które mają znaczenie. Efektem jest szybkość, gdzie jest to bezpieczne, i nadzór, gdzie jest to konieczne.
Spójrzając w przyszłość, jak oczekujesz, że rola autonomicznych agentów sztucznej inteligencji ewoluuje wewnątrz dużych organizacji w ciągu najbliższych kilku lat, i co będzie oddzielać firmy, które powiodą się z agentywną sztuczną inteligencją od tych, które będą się trudzić?
W ciągu najbliższych kilku lat autonomiczni agenci sztucznej inteligencji przejdą od interesujących eksperymentów do stania się prawdziwą warstwą operacyjną wewnątrz dużych organizacji. Będą one wykorzystywane do operacji, obsługi klienta, finansów i zasobów ludzkich. W miarę poprawy niezawodności, zarządzania i nadzoru, zobaczymy, jak przedsiębiorstwa przechodzą od izolowanych pilotów do prowadzenia zespołów agentów w całym workflow.
Największa zmiana polega na tym, że szybkość, elastyczność, skala, wydajność i koszty staną się bardziej bezpośrednim impulsem konkurencyjnym. Uważam, że „ruch Ubera” nadchodzi dla przedsiębiorstw. Te, które naprawdę opanują agentywną sztuczną inteligencję, będą mogły działać w zasadniczo szybszym tempie niż gorsi, zdobyć rynki szybciej i reagować na zmiany bez typowego operacyjnego oporu.
To, co oddziela zwycięzców, nie jest tylko wdrożeniem agentów, ale wdrożeniem ich dobrze. Zarządzana autonomia, silna obserwowalność i rejestry działań, a także architektury, które zawężają zakres decyzyjny, będą kluczem do tego. Firmy, które traktują agentywną sztuczną inteligencję jako podstawową zdolność operacyjną, z odpowiednimi kontrolami, integracją i własnością, będą wykorzystywać ją do robienia więcej, a nie mniej. To sprawi, że radykalna szybkość i wydajność staną się prawdziwą przewagą konkurencyjną w skali przedsiębiorstw.
Dziękuję za wspaniały wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Kovant.












