Kontakt z nami

Wywiady

Ali Sarrafi, dyrektor generalny i założyciel Kovant – seria wywiadów

mm

Ali Sarrafi, Prezes i założyciel Kovant, to doświadczony menedżer w branży technologii i sztucznej inteligencji (AI) z siedzibą w Sztokholmie, z doświadczeniem w budowaniu i skalowaniu dynamicznie rozwijających się firm z branży AI. Od założenia Kovant pod koniec 2024 roku, czerpie z bogatego doświadczenia w zakresie strategii AI dla przedsiębiorstw, wdrażania rozwiązań rynkowych i skalowania operacyjnego. Wcześniej, po przejęciu przez AMD, pełnił funkcję wiceprezesa ds. strategii w Silo AI, gdzie odpowiadał za kształtowanie strategii AI dla przedsiębiorstw i stymulowanie wdrażania na szeroką skalę. Na początku swojej kariery był współzałożycielem Combient Mix, prowadząc firmę przez okres szybkiego rozwoju i udanego przejęcia przez Silo AI. Od tego czasu pełnił funkcje doradcze i zasiadał w zarządach startupów z branży edukacyjnej i AI, odzwierciedlając konsekwentne dążenie do przełożenia zaawansowanej AI na realny wpływ na biznes.

Kovant to firma z branży sztucznej inteligencji (AI) dla przedsiębiorstw, której celem jest umożliwienie organizacjom przejścia od eksperymentalnego wykorzystania AI do w pełni funkcjonalnych, autonomicznych procesów biznesowych. Firma opracowuje platformę opartą na agentach, która ma na celu koordynację zespołów agentów AI w złożonych obszarach operacyjnych, takich jak zaopatrzenie, łańcuchy dostaw, zgodność z przepisami i obsługa klienta. Kładąc nacisk na bezpieczne wdrożenie klasy korporacyjnej i szybki zwrot z inwestycji, Kovant pozycjonuje się jako pomost między strategicznymi ambicjami w zakresie AI a codzienną realizacją, pomagając dużym organizacjom wbudowywać AI bezpośrednio w podstawowe procesy, zamiast traktować ją jako samodzielne narzędzie lub projekt pilotażowy.

Kierowałeś dużymi inicjatywami AI w Spotify, skalowałeś i zakończyłeś działalność Combient Mix, a następnie kształtowałeś strategię AI w Silo AI, zanim założyłeś Kovant. Jakie konkretne luki lub problemy napotkałeś na tych stanowiskach, które przekonały Cię, że nadszedł właściwy czas na zbudowanie autonomicznej platformy korporacyjnej, i jak ta historia ukształtowała podstawową filozofię projektowania Kovant?

Na moich poprzednich stanowiskach stale pojawiało się kilka powtarzających się luk. Po pierwsze, większość „pionowych” narzędzi AI jest w zasadzie ograniczona do jednego stosu oprogramowania: robią jedną rzecz nieco lepiej w ramach tego ograniczenia, ale mają problemy w momencie, gdy przepływ pracy musi objąć wiele systemów. Jednocześnie dane przedsiębiorstwa są rozproszone w wielu narzędziach, a wiele rozwiązań automatyzacyjnych po prostu nie jest w stanie do nich dotrzeć. Nakładając na to lata integracji punktowych, otrzymujemy klasyczną architekturę spaghetti: rośnie złożoność, zmiany stają się wolniejsze, a zespoły automatyzują poszczególne kroki zamiast kompleksowo przeprojektowywać przepływ pracy. W rezultacie zwrot z inwestycji (ROI) często pojawia się wolniej – i jest niższy – niż organizacje oczekują.

Kovant został zaprojektowany jako odpowiedź na tę rzeczywistość. Naszą główną filozofią jest to, że agenci powinni zachowywać się bardziej jak pracownicy: pracują z wieloma narzędziami, są „zatrudnieni” do wykonywania zadań, a nie do automatyzacji pojedynczej, oskryptowanej sekwencji. Dlatego właśnie integracje i orkiestracja są wbudowane w system, a my zakładamy, że dane przedsiębiorstwa są często chaotyczne i nieustrukturyzowane – wymagają bardziej ludzkiego podejścia do obsługi wyjątków i niejednoznaczności.

Wykorzystujemy agentów bazowych, aby osiągnąć szybkość i skalę przy jednoczesnym zachowaniu suwerenności danych: przedsiębiorstwa mogą uzyskiwać dostęp do swoich danych i korzystać z nich w sposób horyzontalny, bez konieczności opuszczania swojej siedziby.

Kovant pozycjonuje się jako autonomiczna platforma korporacyjna, zdolna do zarządzania całymi operacjami i działami za pomocą agentów AI. Jak zdefiniować „autonomię” w kontekście przedsiębiorstwa i czym różni się ona od narzędzi automatyzacji i agentów, z którymi firmy już dziś eksperymentują?

W kontekście przedsiębiorstwa, mówiąc „autonomiczny”, nie mamy na myśli „nienadzorowany”. Mamy na myśli, że agenci AI mogą podejmować rzeczywiste działania w całym procesie operacyjnym, z jasno określonymi celami i zabezpieczeniami, a w razie potrzeby przekażą je ludziom.

To, co wyróżnia Kovanta, to nasi agenci bazowi. Zamiast automatyzować pojedynczy, stały proces lub postępować zgodnie z predefiniowaną sekwencją, agenci Kovanta mogą pracować zespołowo (lub rojem) nad operacją, korzystając jedynie z instrukcji i przeglądu operacji, który nazywamy planem. Nie są oni stworzeni do jednego wąskiego zadania; współpracują, aby rozwiązywać złożone przepływy pracy, dostosowują się do zmieniających się warunków i przekazują zadania innym, gdy sytuacja wymaga nadzoru.

Przykładowo, zespół agentów ds. zarządzania zapasami może wykonywać wszystkie poniższe zadania bez konieczności ich ponownego tworzenia, w tym: komunikować się z dostawcami za pośrednictwem poczty e-mail, monitorować poziomy zapasów i sygnały o brakach w magazynie, śledzić przesyłki i zamówienia zakupu, aktualizować statusy w różnych systemach, tworzyć zgłoszenia rozbieżności do zatwierdzenia przez planistów zapasów, redystrybuować zapasy między magazynami i konsolidować raporty dotyczące zapasów.

Zmiana polega więc na tym, że przedsiębiorstwa zamiast „czatu z narzędziami” lub niestabilnych automatyzacji, które nie sprawdzają się w dużej skali, przechodzą od tworzenia agentów do ich uruchamiania w dużej skali.

Pomimo ogromnego zainteresowania sztuczną inteligencją opartą na agentach, wiele organizacji wciąż tkwi w trybie pilotażowym. Biorąc pod uwagę rzeczywiste wdrożenia, jakie są główne powody, dla których firmy mają trudności z przejściem od fazy eksperymentalnej do skalowanej produkcji?

Obserwujemy, że większość organizacji nie zatrzymuje się w trybie pilotażowym, ponieważ pomysł jest błędny, ale dlatego, że środowisko jest wrogo nastawione do skalowania.

Pierwszą przeszkodą jest rozdrobniony krajobraz technologiczny przedsiębiorstw. Przepływy pracy obejmują wiele systemów, dane znajdują się w wielu miejscach, a niezawodne połączenie wszystkiego w całość jest trudne. A agentowa sztuczna inteligencja jest często wdrażana jako dodatek do istniejących narzędzi, a nie jako sposób na ponowne przemyślenie, jak przepływ pracy powinien działać kompleksowo.

Istnieje również realny problem z architekturą i danymi. Wielu dostawców SaaS nadal próbuje zablokować dane, co prowadzi do braku kompatybilności i ogranicza możliwości agentów w różnych systemach. Wiele zespołów bagatelizuje fakt, że większość danych przedsiębiorstwa jest nieustrukturyzowana (e-maile, dokumenty, zgłoszenia, pliki PDF, logi czatów). Jeśli Twoje podejście zakłada czyste, ustrukturyzowane dane, czas do uzyskania wartości staje się długi, uciążliwy i trudny do powtórzenia po zakończeniu pilotażu.

Krótko mówiąc: fragmentacja, blokada i niestrukturyzowane dane tworzą opóźnienia, a projekty pilotażowe nigdy nie zostaną wdrożone w produkcji, dopóki te realia nie zostaną odpowiednio dostosowane.

Niezawodność jest często wymieniana jako największa przeszkoda we wdrażaniu agentów AI w świecie rzeczywistym. Dlaczego tak wiele systemów agentowych zawodzi po opuszczeniu kontrolowanych środowisk i w jaki sposób podejście Kovanta ogranicza problemy takie jak halucynacje i nieprzewidywalne zachowania?

Niektóre systemy agentowe prezentują się świetnie w testach demonstracyjnych, ale w rzeczywistości zawodzą, ponieważ środowisko jest chaotyczne i nieprzewidywalne. Dane są niekompletne lub niespójne, a przypadki skrajne pojawiają się nieustannie (zwroty, spory, specjalne zatwierdzenia). Przepływy pracy obejmują wiele narzędzi, platform i integracji, które zmieniają się w czasie, a uprawnienia są zmienne. Gdy agent AI otrzymuje zadanie wykonania dużego zadania i otrzymuje zbyt wiele kontekstów naraz, wzrasta ryzyko halucynacji i nietypowych zachowań.

Kovant minimalizuje to zjawisko dzięki swojej konstrukcji. Nasza unikalna architektura zawęża przestrzeń problemu, przestrzeń decyzyjną i kontekst, w których pracują modele, aby ograniczyć halucynacje. Dzielimy również operacje na wąskie, ukierunkowane zadania dla poszczególnych agentów i kroków. To sprawia, że ​​zachowanie jest bardziej przewidywalne, a system zyskuje na identyfikowalności i kontroli, co pozwala lepiej zarządzać halucynacjami. Widzimy, co zrobił każdy agent, gdzie rozpoczął się błąd i możemy interweniować lub eskalować problem w razie potrzeby.

Halucynacje nie znikają magicznie, ale ograniczając zakres odpowiedzialności każdego agenta i kontekst, w jakim może on działać, możemy zmniejszyć ich częstotliwość i ograniczyć ich wpływ. To podejście „zawężonego zadania/kontekstu” zostało również potwierdzone w niedawnych badaniach zespołu badawczego firmy Nvidia, który odkrył podobne korzyści z ograniczenia procesu decyzyjnego agentów.

Odpowiedzialność staje się coraz ważniejszym problemem, ponieważ agenci AI zaczynają podejmować realne działania w systemach biznesowych. W jaki sposób szczegółowe rejestry działań zmieniają dyskusję na temat zaufania, zgodności i ryzyka operacyjnego?

Dzięki szczegółowym dziennikom działań możemy zobaczyć, co się wydarzyło, dlaczego się wydarzyło i co będzie dalej.

Szczegółowe dzienniki zmieniają agenta z tajemniczego bota pracującego w maszynie w system, który można kontrolować.

W firmie Kovant, wraz z każdym wdrożeniem agentów AI, organizacja będzie dysponować mapą ryzyka, na podstawie której będzie mogła działać. Wprowadziliśmy wbudowaną funkcję kontroli dostępu dla ludzi w przypadku ryzykownych działań, co oznacza, że ​​agenci mogą wykonywać te zadania tylko wtedy, gdy człowiek przeanalizuje i zatwierdzi decyzję. Wszystkie te działania są rejestrowane w taki sam sposób, jak rejestry w systemie, i można je śledzić.

Wierzymy, że połączenie rejestrów działań z ludzkim nadzorem i możliwością obserwacji jest ważne, aby zminimalizować ryzyko. Oznacza to, że nadal możesz korzystać z szybkości i skali, jakie oferują agenci prowadzący rzeczywiste operacje.

Coraz głośniej mówi się o tym, czy agenci AI w ogóle mogą być ubezpieczeni ze względu na ich nieprzejrzysty proces decyzyjny. W jaki sposób zapewnienie audytowalności i powtarzalności przepływów pracy agentów może pomóc rozwiązać problem „czarnej skrzynki” i otworzyć drogę do ubezpieczania się?

Problem „czarnej skrzynki” utrudnia ubezpieczalność. Jeśli nie można jasno wykazać, co agent zrobił, dlaczego to zrobił i jakie środki kontroli zostały wdrożone, trudno jest komukolwiek, a zwłaszcza ubezpieczycielom, wycenić ryzyko.

Nasze podejście jest w zasadzie rozszerzeniem modelu odpowiedzialności z poprzedniej odpowiedzi. Dzielimy zakres decyzji i wpływ działań na mniejsze fragmenty, dzięki czemu model nie podejmuje jednej, ogromnej, nieprzejrzystej decyzji, która może wpłynąć na całą operację. Każdy krok jest węższy, bardziej przewidywalny i łatwiejszy do oceny.

Następnie dodajemy szczegółowe logi, możliwość obserwacji i nadzór ludzki. W przypadku najważniejszych i najbardziej wpływowych decyzji korzystamy z ludzkiego „strażnika”, dzięki czemu agent może kontynuować pracę dopiero po przeglądzie i zatwierdzeniu. To zapewnia znacznie lepszy wgląd w to, jak przepływ pracy zachowuje się w praktyce.

Ostatnim elementem jest zapewnienie audytowalności i możliwości odtwarzania przepływów pracy. Jeśli coś pójdzie nie tak, można odtworzyć zdarzenie, szybko je zbadać, zatwierdzić poprawki i pokazać, jak często wymagana jest zgoda człowieka i gdzie znajdują się zabezpieczenia. W terminologii ubezpieczeniowej to się zmienia. tajemnicze zachowanie sztucznej inteligencji w coś bliższego standardowemu ryzyku operacyjnemu.

Mając na uwadze inicjatywy takie jak Agentic AI Foundation, których celem jest tworzenie wspólnych standardów dla systemów agentowych, jakie aspekty tych wysiłków widzisz jako najbardziej obiecujące, a w jakich obszarach wciąż nie sprawdzają się one w rzeczywistych operacjach przedsiębiorstw?

Standaryzacja jest generalnie dobrą rzeczą. AAIF może wykonać mało efektowną, ale istotną pracę polegającą na doprowadzeniu systemów agentów do komunikacji tym samym językiem, co powinno ułatwić integrację i z czasem zmniejszyć uzależnienie od jednego dostawcy.

Podchodzę ostrożnie do kwestii, czyja perspektywa kształtuje standardy. Jeśli większość prac jest prowadzona przez twórców modeli i firmy technologiczne, istnieje ryzyko, że „standardy” będą optymalizowane pod kątem tego, co najłatwiej zbudować lub wdrożyć, a nie tego, czego duże organizacje faktycznie potrzebują do bezpiecznego codziennego zarządzania agentami.

W rzeczywistych operacjach przedsiębiorstw luki dotyczą raczej kontroli niż łączników: dostępu i możliwości zmian agenta, przepływów pracy zatwierdzających działania o dużym znaczeniu, audytowalnych dzienników oraz możliwości obserwacji, dzięki którym zespoły mogą monitorować zachowania, badać incydenty i udowadniać zgodność. Przedsiębiorstwa potrzebują również praktycznych standardów działania w nieuporządkowanej rzeczywistości: testowania w kontekście skrajnych przypadków, obsługi zmieniających się systemów oraz możliwości bezpiecznego wstrzymywania, ograniczania lub wycofywania działań w starszych narzędziach i regulowanych środowiskach danych.

Jest to zatem obiecujący kierunek, ale jego wpływ będzie ograniczony, jeśli wymogi przedsiębiorstwa i kontrola ryzyka operacyjnego nie będą traktowane jako kwestia drugorzędna.

Firma Kovant generowała już znaczne przychody z dużych przedsiębiorstw nordyckich, działając w dużej mierze w ukryciu. Jakie funkcje biznesowe lub przepływy pracy są dziś najbardziej gotowe na autonomiczne agenty AI?

Z tego, co zaobserwowaliśmy podczas rzeczywistych wdrożeń, najbardziej „gotowe” obecnie przepływy pracy to te, które składają się z reaktywnej pracy białych kołnierzyków: monitorowania, śledzenia, sprawdzania, aktualizowania systemów, obsługi wyjątków i utrzymywania ciągłości operacji w oparciu o wiele narzędzi.

W sektorze produkcyjnym i szerszych łańcuchach dostaw przedsiębiorstw jest to widoczne w następujących obszarach:

  • Zaopatrzenie/zaopatrzenie: dostępność surowców, zrównoważone pozyskiwanie, zgodność z przepisami, wybór dostawców (w tym podwójne/wielokrotne pozyskiwanie), zarządzanie umowami, zarządzanie ryzykiem dostawców oraz zarządzanie przetargami/ofertami.
  • Produkcja: planowanie wydajności, harmonogramowanie produkcji, zarządzanie konserwacją, zarządzanie jakością, zarządzanie wąskimi gardłami i zapobieganie stratom.
  • Magazynowanie: przyjmowanie i kontrola, zarządzanie zapasami, rotacja zapasów (FIFO/FEFO) oraz cykliczne liczenie i audyt.
  • Transport / logistyka: wybór środka transportu i przewoźnika, odprawa celna/dokumentacja, śledzenie i przejrzystość, monitorowanie emisji oraz zgodność z przepisami handlowymi.
  • Sprzedaż i serwis: dostępność produktu, zapobieganie brakom magazynowym, zarządzanie sprzedażą/zwrotami, analiza zachowań konsumentów, a także obszary obsługi posprzedażowej, takie jak naprawy, śledzenie końca cyklu życia produktu, operacje warsztatowe i umowy serwisowe.

W jaki sposób, Pana zdaniem, można znaleźć równowagę między autonomią a nadzorem ludzkim, aby zapewnić kontrolę bez spowalniania całego procesu w przedsiębiorstwach wdrażających agentów AI w kluczowych operacjach?

Równowaga to kontrolowana autonomia. Musisz pozwolić agentom szybko wykonywać zadania o niskim ryzyku, z zachowaniem jasnych zasad bezpieczeństwa, i eskalować do ludzi, gdy działanie przekroczy określony próg ryzyka.

Wiele niepowodzeń wynika z nadania modelowi zbyt szerokiego zakresu i zbyt obszernego kontekstu naraz. Zalecam podzielenie operacji na mniejsze, wąskozakresowe decyzje, w których każdy krok ma jasno określone uprawnienia i ograniczony promień oddziaływania. To zmniejsza nieprzewidywalność zachowań i ułatwia monitorowanie oraz poprawę wydajności.

Następnie łączysz trzy elementy: obserwowalność, rejestry działań i nadzór ludzki. Wszystko, co robi agent, powinno być możliwe do śledzenia, aby można było sprawdzić, co się stało i szybko zbadać sprawę. W przypadku działań o dużym wpływie lub ryzykownych, dodajesz do przepływu pracy krok zatwierdzenia przez człowieka, dzięki czemu agent może proponować i przygotowywać działania, ale wykonuje je dopiero po zatwierdzeniu przez człowieka.

To utrzymuje tempo. Co najwyżej nieznacznie zwalnia na etapie nadzoru ze strony człowieka, ale to ważna część procesu. Ludzie nie muszą nadzorować każdego kliknięcia, ale nadal mają kontrolę nad momentami, które są ważne. Rezultatem jest szybkość tam, gdzie jest to bezpieczne, i nadzór tam, gdzie jest to konieczne.

Patrząc w przyszłość, w jaki sposób, Twoim zdaniem, będzie ewoluować rola autonomicznych agentów sztucznej inteligencji (AI) w dużych organizacjach w ciągu najbliższych kilku lat i co odróżni firmy, które odniosą sukces dzięki agentowej AI, od tych, które będą miały problemy?

W ciągu najbliższych kilku lat autonomiczni agenci AI przejdą drogę od ciekawych eksperymentów do prawdziwej warstwy operacyjnej w dużych organizacjach. Będą wykorzystywani w działach operacyjnych, obsłudze klienta, finansach i HR. Wraz z poprawą niezawodności, zarządzania i nadzoru, przedsiębiorstwa będą przechodzić od odizolowanych pilotaży do zarządzania zespołami agentów w ramach kompleksowych przepływów pracy.

Największą zmianą jest to, że szybkość, zwinność, skala, wydajność i koszty staną się znacznie bardziej bezpośrednią dźwignią konkurencyjną. Myślę, że dla przedsiębiorstw nadchodzi „ruch Ubera”. Te, które naprawdę opanują sztuczną inteligencję agentową, będą w stanie działać w zasadniczo szybszym tempie niż maruderzy, szybciej zdobywać rynki i reagować na zmiany bez typowych opóźnień operacyjnych.

Tym, co wyróżnia zwycięzców, nie jest samo wdrożenie agentów, ale ich dobre wdrożenie. Kluczem do tego będą: sprawna autonomia, solidna obserwacja i rejestry działań oraz architektury zawężające zakres decyzyjny. Firmy, które traktują sztuczną inteligencję agentową jako podstawową zdolność operacyjną, z odpowiednimi mechanizmami kontroli, integracją i poczuciem odpowiedzialności, będą ją wykorzystywać do osiągania większych, a nie mniejszych korzyści. Dzięki temu zespoły będą mogły skupić się na rozwoju i innowacjach, zamiast tracić czas na administrację. Krótko mówiąc, radykalna szybkość i wydajność staną się prawdziwą przewagą konkurencyjną w skali przedsiębiorstwa.

Dziękuję za wspaniały wywiad. Czytelnicy chcący dowiedzieć się więcej powinni odwiedzić nas Kovant.

Antoine jest wizjonerskim liderem i partnerem założycielskim Unite.AI, napędzanym niezachwianą pasją do kształtowania i promowania przyszłości AI i robotyki. Jako seryjny przedsiębiorca wierzy, że AI będzie tak samo przełomowa dla społeczeństwa jak elektryczność i często zachwyca się potencjałem przełomowych technologii i AGI.

Jako futurysta, poświęca się badaniu, w jaki sposób te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platforma skupiająca się na inwestowaniu w najnowocześniejsze technologie, które zmieniają przyszłość i przekształcają całe sektory.