Wywiady
Shane Eleniak, Chief Product Officer at Calix – Wywiad z serii

Shane Eleniak pełni funkcję Chief Product Officer w Calix, gdzie kieruje strategiczną wizją i wykonaniem platformy i rozwiązań SaaS firmy, które są liderami w branży. Koncentrując się na umożliwieniu dostawcom usług komunikacyjnych uproszczenia swojego biznesu i dostarczania wyjątkowych doświadczeń subskrybentów, Shane nadzoruje cały cykl życia produktu – od koncepcji do wdrożenia, które jest liderem na rynku.
Pod jego kierownictwem Calix umocnił swoją pozycję jako pionier w branży szerokopasmowej, konsekwentnie dostarczając innowacyjne narzędzia, które umożliwiają dostawcom konkurowanie i wygrywanie.
Calix to amerykańska firma technologiczna, która dostarcza platformy chmurowe, oprogramowanie i usługi zarządzane, zaprojektowane dla dostawców usług szerokopasmowych i komunikacyjnych. Jego podstawowa oferta koncentruje się wokół platformy szerokopasmowej z obsługą AI, która integruje chmurę, dane i systemy sieciowe, aby pomóc dostawcom uproszczyć operacje, poprawić zaangażowanie klientów i dostarczyć bardziej spersonalizowane doświadczenia cyfrowe. Umożliwiając tym dostawcom przejście od podstawowych usług łączności do pełnych “dostawców doświadczeń”, Calix pomaga im zwiększyć przychody, zwiększyć lojalność subskrybentów i wspierać transformację cyfrową społeczności za pomocą bardziej zaawansowanych i skalowalnych usług szerokopasmowych.
Twoja kariera obejmuje ponad trzy dekady w dziedzinie inżynierii, sieci, platform chmurowych i dużych zespołów produkcyjnych. Jak te doświadczenia ukształtowały twoją perspektywę na to, co naprawdę jest potrzebne, aby AI wykonywała prawdziwą pracę w firmach, a nie pozostawała poza eksperymentem?
Zacząłem w tradycyjnej telekomunikacji i sieciach, gdzie cała gra polegała na ścieżce danych i niezawodności w skali. Jeśli nie możesz dostarczyć czystej, niezawodnej usługi, nic, co budujesz na jej podstawie, nie ma znaczenia. Wtedy telefon był na ścianie kuchni, wewnętrzne okablowanie nigdy się nie zmieniało, a dopóki była sygnał, wszystko było w porządku.
Szerokopasmowa i Internet wybuchły. Nagle nie chodziło już tylko o to, czy “jest włączone”. Chodziło o Ethernet, a potem Wi-Fi, dzieci na konsolach i tabletach, ciebie na wideorozmowie, współpracującego nad arkuszem kalkulacyjnym w chmurze, i ciągłą mobilność – urządzenia w domu, na podwórku, na meczu, w kawiarni. Doświadczenie subskrybenta stało się znacznie bardziej złożone niż binarna stan “włączone/wyłączone”, a świat dla dostawców usług stał się bardzo dynamiczny. W tym świecie, wsteczne spojrzenie na dane – klasyczne magazyny danych i historyczne raporty po miesiącu – po prostu nie wystarcza. Musisz zbierać dane, rozumieć doświadczenie i generować spostrzeżenia w czasie rzeczywistym, ponieważ subskrybenci oczekują, że problemy będą rozwiązywane proaktywnie, a nie w godzinach lub dniach.
Ta ewolucja ukształtowała, jak myślę o AI. Większość ludzi chce umieścić AI “na górze”, tak samo jak umieścili inteligencję biznesową lub SaaS na górze istniejących jezior danych. Moje doświadczenie mówi, że musisz myśleć znacznie głębiej niż to i projektować dla spostrzeżeń w czasie rzeczywistym, z możliwością podjęcia terminowego działania.
Dla subskrybentów oczekiwania nie zmieniły się zbyt wiele w ciągu ostatnich 25 lat. Nadal tylko chcą bezpiecznej, zarządzanej łączności, która wydaje się tak prosta, jak sygnał – chcą, aby wszystko “po prostu działało” bez myślenia o wszystkich warstwach i złożoności, i chcą tego wszędzie w swoim życiu. Moja kariera w telekomunikacji i chmurze sprawiła, że stałem się bardzo wygodny z tym paradoksem: budujesz niezwykle złożone systemy, aby móc odizolować wszystko to i dostarczyć proste, wspaniałe doświadczenie na granicy. To właśnie tak myślę o AI, wykonującej prawdziwą pracę wewnątrz jakiejkolwiek firmy, niezależnie od szerokopasmowej.
W Calix często podkreślasz, że operacyjne AI jest budowane, a nie kupowane. Jakie są najczęstsze błędy, które organizacje popełniają, gdy próbują dodać AI bez przemyślenia, jak praca przepływa przez firmę?
Dla mnie to mniej kwestia “zbudowane czy kupione”, a bardziej czy spojrzeliśmy na cały stos technologiczny. Wiele firm uznało, że AI jest po prostu używaniem niektórych API, aby uzyskać dostęp do LLM, podłączenie go do swojego stosu za pomocą wrappera i zakup tokenów – wtedy mieliśmy strategię AI. To nie tak działa.
Zbyt wielu z nas zostaje zauroczonych technologia zamiast wynikiem. Widzieliśmy już ten film. Gdy pojawiły się komputery PC, każdy chciał się spierać, czy ma 286, czy 386, ile ma pamięci i jaki system operacyjny używa. Dziś nikt nie potrafi powiedzieć, jakie są parametry jego laptopa lub telefonu, i nikt się tym nie przejmuje, dopóki nie przestanie działać tak, jak potrzebują. Liczy się: czy to sprawia, że jestem bardziej efektywny w swojej pracy? To samo dotyczy AI. Jeśli nie możesz powiązać tego z realnymi przepływami pracy, realną wartością i realnym ROI, specyfikacje techniczne są tylko hałasem.
Innym dużym błędem jest próba przymocowania AI do tego, co już masz, bez pytania, co to robi z Twoją architekturą, modelem bezpieczeństwa i kosztami. AI jest podstawową technologią, a nie przyrostową funkcją. Gdy traktujesz ją jako przyrostową, kończysz z słabymi danymi, problemami bezpieczeństwa, halucynacjami, kosztami, które wymykają się spod kontroli, lub z wieloma działaniami, które nie rozwiązują problemu dla nikogo.
Na koniec nie można ignorować kontekstu i znaczenia specjalistycznej wiedzy. Działanie jest wszystko o kontekście, a ten kontekst różni się w branży telekomunikacyjnej, fintech i ochronie zdrowia. W Calix zaczęliśmy od głębokiej wiedzy w jednej branży i zbudowaliśmy pionową platformę wokół niej. Już rozumieliśmy dane, spostrzeżenia, przepływy pracy i kontekst, więc stos mógł odzwierciedlać tę rzeczywistość. Większość firm wie swoją pionową branżę od środka. Okazja polega na zakodowaniu tej wiedzy w pionowy stos technologiczny, zamiast polegać na cienkiej warstwie poziomej i ogólnym modelu AI, a potem próbować wszystko zszyć razem. Firmy są o wynikach, a nie o modelach. Prawdziwe pytanie brzmi: jak ta technologia pomaga w dostarczaniu tych wyników w sposób, w jaki twoja praca przepływa.
Opisałeś pięciowarstwową architekturę operacyjnego AI, która obejmuje dane, wiedzę, orchestrację, zaufanie i działanie. Dlaczego tak ważne jest wyraźne rozdzielenie tych warstw, a którą z nich przedsiębiorstwa najczęściej zaniżają lub całkowicie pomijają?
Przez długi czas stos był dość prosty: dane, spostrzeżenia, pulpity, przepływy pracy, ludzie. Budowaliśmy magazyny danych, umieszczaliśmy na nich BI, tworzyliśmy silniki przepływów pracy i oddawaliśmy ciężką pracę ludziom. W świecie agencji to nie działa. Potrzebujesz danych, wiedzy, orchestracji, zaufania i działania, ponieważ każda warstwa wykonuje odrębną funkcję.
Widoczna część, o której wszyscy chcą mówić, to warstwa działania – agenci. To szczyt góry lodowej. To, co decyduje o tym, czy możesz kiedykolwiek pozwolić agentom dotknąć rzeczywistych systemów, to wszystkie “nudne” rzeczy pod powierzchnią: potoki danych i czyste dane, warstwa wiedzy, która daje kontekst, orchestracja, która koordynuje dynamiczne przepływy pracy, i model zaufania, który decyduje, co powinno być dozwolone na pierwszym miejscu. Gdy Titanic zatonął, nie była to mała część, którą można zobaczyć, która go zatopiła; była to ogromna masa lodu pod powierzchnią. Operacyjne AI jest takie same. Rury pod powierzchnią są tym, co robi albo łamie cię.
Historycznie nie traktowaliśmy orchestracji i zaufania jako odrębnych warstw, ponieważ ludzie wykonywali większość tej pracy. Orchestracja oznaczała menedżerów i kolejki biletów; zaufanie oznaczało nazwy użytkowników i hasła. Teraz musisz ufać jednostkom – agentom – aby wykonywali czynności, i musisz koordynować wielu agentów w czasie rzeczywistym wokół dynamicznych danych. To jest zupełnie inny problem projektowy, dlatego te warstwy muszą być wyraźne.
Warstwa, której większość ludzi nie docenia, to zaufanie. Wiele organizacji uważa, że radzą sobie z zaufaniem, ponieważ mają kontrolę dostępu – kto może zalogować się do którego systemu. Ale prawdziwe zaufanie w świecie agencji nie jest “czy ten użytkownik ma dostęp?” To “czy to konkretna akcja jest odpowiednia dla tej jednostki lub tego agenta w tym momencie?” To jest pytanie dotyczące zarządzania, a nie kontroli dostępu. Jeśli nie uczynisz tej warstwy wyraźną, utkniesz w krajobrazie demo, ponieważ nigdy nie będziesz komfortowo pozwalał agentom wykonywać prawdziwej pracy w produkcji.
Więc zaufanie jest oczywiście podstawową częścią twojej strategii AI. Jak projektujesz systemy, aby decyzje zautomatyzowane pozostały obserwowalne, audytowalne i odwracalne, jednocześnie poruszając się wystarczająco szybko, aby dostarczyć wartość biznesową?
Musisz zacząć od nastawienia “zero zaufania”. Pierwsze pytanie nie brzmi “czy ten agent może technicznie to zrobić?” Pierwsze pytanie brzmi “czy ten agent, w imieniu tej osoby, powinien próbować to zrobić w ogóle?” Jeśli odpowiedź brzmi “nie”, to nie kontynuuj.
Jeśli odpowiedź brzmi “tak”, przechodzisz do barier ochronnych: audytowalności, śledzenia i potrzeby człowieka w pętli. Nasz model opiera się na warstwie zaufania, która działa trochę jak policjant ruchu na początku każdej interakcji: kim jesteś, co robisz i dlaczego to robisz? To eliminuje wiele problemów z bezpieczeństwem, ponieważ nie pozwalasz agentom biegać i robić rzeczy, a potem liczyć, że zauważysz to później.
Alternatywą jest puszczenie agentów, a potem podniesienie alarmu, jeśli pójdą i zrobią coś złego. Zakładasz, że możesz to zobaczyć, rozwiązać, zidentyfikować i zatrzymać w czasie rzeczywistym, w tempie i skali, w jakiej te systemy działają. To jest bardzo trudny problem, i to dlatego tak wiele osób ma kłopoty – próbują szukać złych aktorów w czasie rzeczywistym zamiast zapobiegać złym akcjom z góry.
Na dodatek dodaliśmy warstwy bram. Nawet jeśli agent działa w imieniu odpowiedniej osoby, nadal patrzymy na sesję i treść – czy próbują zatruć model, nadużyć API lub coś, co jest poza polityką? Wszystko to jest otoczone pełną obserwowalnością, abyś mógł audytować, co się stało, i cofnąć, jeśli potrzebujesz. To jest sposób, w jaki możesz poruszać się szybko i jednocześnie spać spokojnie.
Wiele firm udaje się wygenerować spostrzeżenia AI, ale mają trudności z przekształceniem ich w działanie. Jakie decyzje projektowe pozwoliły Calix na wprowadzenie AI bezpośrednio w codzienne przepływy pracy w marketingu, operacjach i obsłudze klienta?
Zanim AI stało się gwiazdą, w Calix byliśmy już obsesjonowani jednym pytaniem: co sprawia, że spostrzeżenie jest naprawdę działaniem dla prawdziwej osoby w prawdziwej pracy? Od 2018 roku pracowaliśmy z dostawcami usług, aby zrozumieć, jak różne osoby pracują – co robi marketingowiec we wtorek rano, co robi zespół operacyjny, gdy alarm wybucha, co robi zespół wsparcia, gdy subskrybent dzwoni zirytowany. To zmusiło nas do tego, aby być bardzo precyzyjnymi w kwestii, które spostrzeżenia są ważne dla kogo, w jakim kontekście i co “dobrze” wygląda.
Więc, gdy agencja AI pojawiła się, nie zaczynaliśmy od zera. Mieliśmy już systemy w czasie rzeczywistym, generujące działania spostrzeżeń związanych z konkretnymi osobami i przepływami pracy. Pytanie projektowe stało się: mając różne narzędzia i inny stos technologiczny, jak przebudujesz te same przepływy pracy w świecie agencji AI, zamiast próbować wymyślić wszystko od nowa?
Gdy łączysz tę głęboką wiedzę o osobach z agencją AI, możesz budować dynamiczne przepływy pracy nad dynamicznymi danymi. Agenci mogą ustalić w czasie rzeczywistym, które kroki i które osoby muszą być zaangażowane na podstawie tego, co się dzieje, zamiast zmuszać cię do twardego kodowania setek sztywnych przepływów w mikrousługach. Dla większości firm trudny problem polega teraz na tym, aby podejmować decyzje w czasie rzeczywistym na podstawie kontekstu, a potem projektować odpowiedni przepływ pracy wokół tego. Dla nas ta część była już na miejscu; od lat robiliśmy spostrzeżenia w czasie rzeczywistym, oparte na osobach i działaniach. Agencja AI jest po prostu nowym zestawem narzędzi na tym fundamencie.
Twoja wizja platformy obejmuje interoperacyjność agent-to-agent (A2A) i federacyjne systemy AI. Jak ten podejście zmienia sposób, w jaki narzędzia przedsiębiorstw współpracują w porównaniu z tradycyjnymi punktowymi integracjami?
Jeśli spojrzymy na ostatnie 20 lat, domyślny wzorzec polegał na “kupieniu wielu narzędzi SaaS i połączeniu ich wokół jeziora danych”. Każdy nowy system oznaczał kolejną integrację punktową, kolejny potok danych i kolejne miejsce, w którym trzeba było uzgodnić prawdę. W świecie agencji to nie skaluje. Chcesz, aby dane pozostały tam, gdzie należą, i aby agenci rozmawiali ze sobą przez dobrze zdefiniowane interfejsy.
Dlatego mówimy o dotyku systemu na dwóch warstwach: MCP na warstwie wiedzy, a A2A na warstwach orchestracji i zaufania. MCP to sposób, w jaki agenci odkrywają i używają narzędzi i danych bez nowej integracji niemal każdego razu. A2A to sposób, w jaki agenci koordynują pracę ze sobą pod wyraźnymi barierami ochronnymi.
Gdy tylko to masz, współpraca przestaje wyglądać jak sterta kruchych połączeń i zaczyna wyglądać jak sieć specjalistów, którzy mogą dynamicznie współpracować wokół prawdziwej pracy. Oto, gdzie analogia macierzy Eisenhowera przychodzi do gry. Nie wszystko jest równie pilne i równie ważne. Niektóra praca jest naprawdę krytyczna, niektóra jest ważna, ale może być zaplanowana, niektóra po prostu musi zostać wykonana, a niektóra to tylko hałas. Z koordynacją agent-to-agent na górze warstwy orchestracji i zaufania możesz traktować te kategorie inaczej w skali: agenci mogą atakować pilne i ważne problemy, kolejkować lub planować ważne, ale niepilne, i utrzymywać niskowartościową pracę, aby nie zalewać wszystkiego.
To jest zupełnie inny świat niż “dodajmy jeszcze jeden konektor i miejmy nadzieję, że kolejka się opróżni”. Skutecznie widzisz zaufane, starannie skoordynowane dynamiczne przepływy pracy wokół dynamicznych zdarzeń i danych, zamiast plątaniny jednorazowych integracji, gdzie wszystko krzyczy na tym samym priorytecie.
Agenci AI, gdy są pozwalani działać autonomicznie, szybko stają się wyzwaniem dla zarządzania. Jak balansujesz szybkość, odpowiedzialność i nadzór ludzi, gdy systemy AI podejmują lub wykonują decyzje na dużą skalę?
Błąd, który widzę, polega na tym, że ludzie myślą, że mogą dodać agencję AI do tego, co mają, i jakoś spróbować “zbalansować” szybkość, odpowiedzialność i nadzór ludzi po fakcie. Nie możesz. Musisz zacząć od uznania, że to jest pionowy problem stosu technologicznego, i celowo budować warstwę zaufania i warstwę orchestracji. Bez tych dwóch warstw staje się to wolną amerykanką – wszystko jest pierwsze, kto przyjdzie, pierwsze, kto krzyknie najgłośniej.
Znowu, to macierz Eisenhowera: nie wszystko jest równie ważne. Zaufanie i orchestracja są tym, jak operacjonalizujesz to w świecie agencji. Nie chcesz, aby każdy agent traktował każde zadanie jak syrenę – chcesz, aby system wiedział, co jest naprawdę krytyczne, co może być zaplanowane, i co powinno być cicho obsłużone na tle.
I jest “wąski zamiast grubego” część. Większość firm myli większy wpływ z AI z pozostaniem szerokim. Jesteś o wiele lepiej, gdy wybierasz wąski pionowy fragment – jeden konkretny przypadek użycia, jeden zestaw przepływów pracy – i budujesz zaufanie i orchestrację, której potrzebujesz tam najpierw. Zrób to cienkie w pionie, zrób to dobrze, trzymaj ludzi w pętli na krawędziach, a potem rozszerzaj. To jest sposób, w jaki poruszasz się szybko, pozostajesz odpowiedzialny i unikasz tworzenia bałaganu, który nie da się rozplątać później.
Z twojego doświadczenia w kierowaniu dużymi globalnymi zespołami produktowymi i inżynieryjnymi, jakie zmiany organizacyjne lub kulturowe są wymagane, aby AI stało się trwałą zdolnością przedsiębiorstwa, a nie zbiorem niepołączonych pilotów?
Większość przedsiębiorstw nie ma “problemu AI”; mają problem wiedzy i przepływu pracy. Pierwsza zmiana polega na tym, aby przestać bawić się w rozwiązania punktowe i przejść od magazynów danych do federacyjnego magazynu wiedzy, którym wszyscy mogą się dzielić i działać. Dopóki wiedza żyje w silo, a AI jest czymś na górze każdego silosu, dostaniesz pilotaż, a nie transformację.
Od tego momentu musisz być gotowy podejmować trudniejsze problemy w określonej kolejności. Krok pierwszy to oddzielić hype od rzeczywistości i przyjąć to, co działa, a nie to, co jest najgłośniejsze w twoim feedzie. Krok drugi to przebudować warstwę wiedzy, aby móc przekształcić dane w udostępniony, federacyjny kontekst, a nie kolejny raport pogrzebany w systemie. Krok trzeci to przemyśleć przepływy pracy wokół tej wiedzy i prawdziwej warstwy zaufania – większość pracy dzisiaj jest zorganizowana wokół ludzi, umiejętności i lokalnych silosów wiedzy. Jeśli nie zmienisz tego, agenci po prostu staną się kolejnym narzędziem orbitującym wokół tych samych starych wąskich gardeł.
Dopiero potem dochodzisz do zmiany kulturowej, która często jest najtrudniejsza. Potrzebujesz kultury, w której ludzie nie są głównie zmartwieni utratą pracy, narzędzi lub tożsamości, ale są naprawdę podekscytowani pracą z nowymi zdolnościami. To jest problem zarządzania zmianą, a nie problem technologiczny. Wygląda to trochę jak prawdziwe, rozproszone przywództwo: ludzie na czubku są w stanie zrozumieć przepływy pracy, czują się bezpiecznie, nazywając tarcie, i są podekscytowani tym, aby pozwolić agentom pracować nad tym.
Patrząc poza szerokopasmową i telekomunikację, które branże uważasz za najlepiej przygotowane do przyjęcia operacyjnego, agencji AI, i jakie warunki sprawiają, że są one gotowe?
Nie myślę o tym w kategoriach wyboru zwycięzców według nazwy branży; myślę w kategoriach wzorców. Prawie każda pionowa branża ma ten sam podstawowy problem: zbudowaliśmy silosy danych i silosy funkcji, zamiast jednego widoku na trzy cykle życia – klienta, pracownika i produktu. Te, które są gotowe, to te, które są skłonne to zobaczyć, przyznać, że nie mają prawdziwej warstwy wiedzy, i to naprawić.
Od tego momentu warunki wyglądają podobnie, niezależnie od tego, czy jesteś w ochronie zdrowia, fintech, handlu detalicznym czy infrastrukturze krytycznej. Potrzebujesz złożonych przepływów pracy, gdzie ludzie są napięci, prawdziwych punktów tarcia, których możesz nazwać, i wystarczającej ilości wysokiej jakości danych, aby dać agentom kontekst. Jeśli możesz mapować bieżące przepływy pracy, zobaczyć, gdzie praca spowalnia lub się nagromadza, zrozumieć, które przekazania tworzą opóźnienia, a potem wesprzeć to federacyjnym magazynem wiedzy, agencja AI staje się niesamowitym zestawem narzędzi.
W tym świecie “gotowość branży” sprowadza się do przywództwa. Czy przywódcy firmy są skłonni wyjść poza narzędzia marketingowe i cienkie, poziome pulpity, i zainwestować w pionowy stos technologiczny – przekształcić dane w wiedzę, sfederować tę wiedzę, umieścić warstwy orchestracji i zaufania, i mieć szczerą rozmowę o tym, gdzie jest prawdziwa stopa zwrotu? Każda firma w każdej branży, która wykonuje tę pracę, jest dobrze przygotowana do operacyjnego, agencji AI; te, które nie, będą utknęły, dodając kolejne narzędzie do już hałaśliwej sterty.
Jak wygląda dobra architektura AI za pięć lat, i jakie zasady powinny przywódcy zaakceptować dzisiaj, aby uniknąć odbudowywania swoich systemów później?
Za pięć lat ciekawa część AI nie będzie już poszczególnymi agentami lub modelami; będzie to agencja przepływów pracy, które one umożliwiają, i wartość biznesową, którą te przepływy pracy dostarczają. Agenci sami przyjdą i pójdą. Warstwy pod nimi – dane, wiedza, orchestracja, zaufanie i działanie – będą nadal ewoluować, ale potrzeba ich nie zniknie.
Dlatego jestem bardziej skoncentrowany na architekturze niż na konkretnych narzędziach. Przechodzimy od magazynów danych do federacyjnych magazynów wiedzy, od kruchych punktowych integracji do otwartych, warstwowych stosów. W tym świecie będziesz miał agenci działające w różnych chmurach, dotykające różnych źródeł wiedzy i koordynujące się przez dobrze zdefiniowane interfejsy – MCP na warstwie wiedzy, protokoły agent-to-agent na warstwach orchestracji i zaufania. Gdy technologia się poprawia, chcesz być w stanie wymienić lepsze części w tych warstwach bez odbudowywania całego stosu za każdym razem.
Więc zasady dla przywódców są proste. Nie buduj monolitycznie. Zaprojektuj warstwy, aby dane, wiedza, orchestracja, zaufanie i działanie mogły ewoluować niezależnie. Zaprojektuj przepływy, a nie funkcje, abyś był klarowny, które przepływy pracy są ważne i co “dobrze” wygląda w cyklu życia klienta, pracownika i produktu. I zaprojektuj governance na poziomie agenta: załóż zaufanie zero domyślnie, zdefiniuj wyraźne “karty agenta” i użyj orchestracji, aby zdecydować, co jest pilne, co jest ważne, a co po prostu musi zostać wykonane. Jeśli to zrobisz, możesz pozwolić technice ewoluować – jak zawsze – bez ciągłego martwienia się o odbudowywanie.












