Wywiady
Arun Kumar Ramchandran, CEO of QBurst – Interview Series

Arun Kumar Ramchandran, CEO of QBurst, jest doświadczonym menedżerem w branży technologicznej i usługowej z ponad 25-letnim doświadczeniem w zakresie konsultingu na poziomie globalnym, sprzedaży dużych transakcji, posiadania udziałów w zyskach i przekształceń przedsiębiorstw. Objął stanowisko CEO w kwietniu 2025 r. i jest odpowiedzialny za kierowanie QBurst w całym biznesie, jednocześnie kształtując jego strategię jako firmy świadczącej usługi technologiczne i inżynieryjne oparte na AI. Przed dołączeniem do QBurst, pełnił stanowiska kierownicze w Hexaware Technologies (w tym Prezesa i kierownika doradztwa GenAI), Capgemini/Sogeti (kierownictwo klienta i sprzedaży), oraz Infosys i Virtusa, gdzie budował i skalował jednostki biznesowe, kierował dużymi programami strategicznymi i napędzał wzrost w wielu geograficznych i branżowych obszarach.
QBurst jest globalnym partnerem inżynierii cyfrowej, który pozycjonuje się wokół „Wysokiej AI-Q”, łącząc dostawę wspomaganą przez AI z podejściami opartymi na danych, aby pomóc przedsiębiorstwom zmodernizować, zbudować i skalować. Firma kładzie nacisk na inżynierię doświadczeń cyfrowych, modernizację i inżynierię produktów – wspierając klientów w ramach inicjatyw takich jak kompozytowe platformy cyfrowe, rozwiązania konwersacyjne i doświadczeń klienta oraz gotowe do AI podstawy danych – mające na celu osiągnięcie mierzalnych efektów, takich jak poprawa produktywności, szybsza dostawa i silniejsze doświadczenia klienta wśród szerokiej bazy międzynarodowych klientów.
Zastąpiłeś stanowisko CEO w QBurst po długiej karierze kierowniczej w Hexaware, Capgemini, Infosys i innych globalnych organizacjach. Co skłoniło Cię do QBurst w tym momencie jego wzrostu, i jak Twoje doświadczenie kształtuje kierunek, w którym chcesz poprowadzić firmę?
Decyzja o dołączeniu do QBurst była połączeniem okazji i potencjału. To, co skłoniło mnie do QBurst, było połączeniem jego wewnętrznych sił i unikalnej okazji rynkowej. Kultura przedsiębiorcza QBurst i jego sukces z technologiami przyszłości w dostawie do wymagających klientów zarówno mnie zaimponowały, jak i zaintrygowały.
Wraz z konwergencją zmian przełomowych i zmieniających się środowisk w technologiach, branżach i regulacjach, skupiona i zróżnicowana firma jak QBurst ma okazję wyłamać się z tłumu i stworzyć nową firmę świadczącą usługi technologiczne i inżynieryjne oraz model dostawy dla przyszłości napędzanej przez AI.
Z ponad 25-letnim doświadczeniem w transformacji napędzanej przez technologie w wielu branżach, jak Twoje doświadczenie wpłynęło na sposób myślenia o skalowaniu platformy usług opartej na AI?
Zauważyłem, że główna innowacja i adopcja technologii występują po tym, jak cykl hossy ochłonął, a prawdziwe problemy biznesowe zaczynają być rozwiązywane na poziomie przedsiębiorstw. Są trzy konkretnych punkty, które chciałbym podkreślić tutaj, jeśli chodzi o skalowanie platformy usług opartej na AI.
1. Przekroczenie etapu „PoC”.
Największym wyzwaniem, które widzę dzisiaj, jest przekroczenie etapu PoC. Skalowanie wymaga zmiany myślenia: nie tylko budujemy AI, ale dostarczamy rozwiązania o jakości produkcyjnej. W QBurst pomagamy klientom rosnąć poza etapem PoC, koncentrując się na elastyczności – przyjmując nowe modele z większymi oknami kontekstowymi, zamiast być zablokowanym wczorajszą technologią.
2. Brak AI bez silnej podstawy
Lekcja, którą przeniosłem przez każdy cykl technologiczny – od wczesnych dni mobilnych w 2009 r. do rewolucji chmurowej – jest taka, że nie można zautomatyzować chaosu. AI jest tak potężna, jak dane, które ją karmią. QBurst napędza wzrost, zapewniając, że „nudna, ale niezbędna” praca jest wykonana, a mianowicie cyfrowa modernizacja i zaawansowana inżynieria danych.
3. Wizja „High AI-Q”
Aby poprowadzić tę zmianę, przesunęliśmy się w stronę „High AI-Q” firmy. To odzwierciedla integrację Generative AI i Agentic AI we wszystkich naszych podstawowych usługach, napędzając transformację przedsiębiorstw opartą na AI. W QBurst AI nie jest funkcją dodatkową, ale rdzeniem naszej strategii i dostawy. Łączy niestandardowe modele uczenia maszynowego z inteligentną automatyką, aby zapewnić, że wraz ze wzrostem biznesu, jego inteligencja skaluje się z nim.
Byliśmy pionierami od początku Androida i stosujemy tę samą proaktywną DNA, aby poprowadzić erę AI. W QBurst nie jesteśmy tylko firmą technologiczną; jesteśmy partnerem, którego wzrost jest napędzany przez satysfakcję klienta.
Nakreśliłeś „High AI-Q” jako określający framework dla QBurst. Jak powinni interpretować ten koncept liderzy przedsiębiorstw, i dlaczego jest to ważny różnicujący się element w obecnej AI krajobrazie?
Podróż QBurst z „High AI-Q” jest świadomą decyzją: bieganie szybko na warstwie operacyjnej z AI-Driven SDLC, oraz podejmowanie odważnych decyzji na warstwie strategicznej z Managed Agents. Co najważniejsze, kotwiczy całe przedsiębiorstwo w powolnej, podstawowej zmianie kultury, wartości i zdolności ludzkich.
Chociaż istnieją ryzyka i obawy dotyczące AI, jeśli wdrożone w sposób bezpieczny, AI może tworzyć abundancję i innowacje. Przedsiębiorstwa zobaczą wartość nie tylko w postaci produktywności, ale także wzrostu i transformacji.
Z punktu widzenia dostawy codziennie obserwujemy to poprzez nasz framework AI-Driven SDLC. To jest „jak” transformacji, gdzie wbudowaliśmy AI w każdy etap rozwoju, od generowania historii użytkowników do samonaprawiających się skryptów testowych. Wyniki mówią same za siebie:
- Czas na rynek: znaczne zmniejszenie cykli rozwoju i testowania.
- Jakość: godny uwagi spadek o 25-35% wad po wydaniu.
- Efektywność: stała poprawa o 20-30% w ogólnej dostawie.
Warstwa strategiczna jest tam, gdzie przechodzimy poza optymalizację części do optymalizacji całego ekosystemu. To wymagało przemyślenia naszych filarów rozwiązań, prowadząc do stworzenia Managed Agents, fuzji Enterprise Agentic AI i Managed Services. Dla naszych klientów oznacza to, że agenci AI obsługują zadania front-end i back-end, przepływy pracy i operacje, napędzając zarówno efektywność, jak i ciągłą innowację. Nie tylko dostarczamy usługi; jesteśmy architektami bezproblemowej sieci wartości.
Wiele przedsiębiorstw gromadzi to, co nazywasz „AI Debt” — znaczne wydatki na pilotażowe projekty GenAI, które nie skalują się ani nie generują wartości. Jakie są korzenie tego problemu, i jak mogą organizacje wyjść z tego wzorca?
Przedsiębiorstwa gromadzą „AI Debt”, gdy inwestycje w GenAI kończą się na pilotach i nie udaje się ich skalować w prawdziwą wartość biznesową. Korzeniem tego problemu jest to, co nazywamy pułapką retrofitowania – próbą przymocowania możliwości GenAI do systemów legacy, które nie zostały zaprojektowane do obsługi AI-natywnych przepływów pracy. W takich środowiskach dane, architektura i zarządzanie po prostu nie są gotowe, więc pilotażowe projekty zatrzymują się lub psują się pod skalą.
To jest pogarszane przez brak gotowości podstawowej. Wiele organizacji spieszy się z eksperymentami, pomijając niezbędne inwestycje w strategię danych, inżynierię danych i zarządzanie, które pozostają odizolowanymi dowodami pojęć, a nie przedsiębiorczymi zdolnościami.
Wyjście z tego wzorca wymaga zmiany na projektowanie z myślą o AI. Zamiast pytać, gdzie można dodać AI, organizacje muszą projektować systemy z AI-wynikami na myśli od samego początku, dopasowując architekturę, przepływy danych i zarządzanie, aby obsługiwać inteligentną automatykę w skali.
Praktycznie to zaczyna się od inżynierii danych. Budowanie solidnych, dobrze zarządzanych potoków danych i modeli na początku tworzy warunki dla GenAI, aby skalować się w sposób trwały. Kiedy podstawa jest prawidłowa, AI przechodzi od eksperymentu do wpływu. W ten sposób AI Debt ustępuje miejsca długoterminowemu tworzeniu wartości.
Tradycyjny model kontraktowy Time & Materials jest coraz częściej postrzegany jako niezgodny z rzeczywistością AI-napędzanej efektywności. Dlaczego ten model staje się przestarzały, i jak podejścia takie jak „Managed Agents” lub „Service-as-Software” mogą zapewnić bardziej zrównoważoną drogę do przodu dla IT przedsiębiorstw?
Tradycyjny model Time & Materials został stworzony dla ery deficytu zasobów, gdzie wartość była bezpośrednio związana z ludzkim wysiłkiem. W erze AI założenie to już nie obowiązuje. Inteligencja i wykonanie stają się obfite, a wraz ze wzrostem abundancji, wartość przechodzi od wysiłku do efektów. AI fundamentalnie łamie logikę rozliczania godzinowego.
Dlatego branża przechodzi w stronę modeli opartych na efektach. Metryki takie jak bilety rozwiązane bez interwencji człowieka lub przepływy pracy zakończone od końca do końca przez AI zapewniają klarowną, mierzalną wartość. Te modele traktują możliwości jako oprogramowanie, a nie pracę, co można opisać jako „service-as-software”.
Podejścia takie jak Managed Agents i Service-as-a-Software oferują bardziej zrównoważoną drogę do przodu. Przenoszą focus z płacenia za wysiłek na płacenie za inteligentne wyniki, umożliwiając przewidywalne koszty, ciągłą poprawę i wspólny przyrost z automatyki. Managed Agents pozwalają inżynierom ludzkim i agentom AI współpracować w celu osiągnięcia celów biznesowych, podczas gdy Service-as-a-Software czyni wartość mierzalną poprzez efekty, a nie godziny spędzone.
W świecie napędzanym przez AI najbardziej dopasowane komercyjne modele są tymi, które nagradzają efekty, a nie wysiłek – tworząc sytuację wygranych dla przedsiębiorstw i dostawców usług.
Twoja metodyka „High AI-Q” koncentruje się na Talent, Application i Impact jako trzech krytycznych warstwach dla gotowości AI. Jak mogą dyrektorzy IT ocenić swoją dojrzałość wśród tych warstw przed skalowaniem inicjatyw GenAI?
Przed skalowaniem GenAI, dyrektorzy IT potrzebują klarownego widoku dojrzałości wśród trzech warstw „High AI-Q” talentu, aplikacji i efektu, a nie tylko stosu technologicznego.
Na warstwie talentu dojrzałość jest sprawą gotowości ludzi. Dyrektorzy IT powinni ocenić umiejętności AI, otwartość na zmianę i czy pracownicy mają bezpieczny, zarządzany dostęp do LLM, który umożliwia bezpieczne eksperymentowanie.
Na warstwie aplikacji focus jest na fundamentach danych i zarządzania, takich jak jakość danych, architektura, bezpieczeństwo i dojrzałość polityk i barier ochronnych w dostępie do LLM i praktykach rozwoju AI.
Na warstwie efektu dyrektorzy IT powinni ocenić przypadki użycia według wysiłku w stosunku do wartości biznesowej. Identyfikacja możliwości o niskim wysiłku i wysokiej wartości umożliwia wczesne zwycięstwa i wspiera iteracyjne podejście do skalowania GenAI.
Dla organizacji, które nadal działają na architekturach legacy, jakie podstawowe kroki modernizacyjne są wymagane, aby przygotować się do agentywnych przepływów pracy i modeli dostawy AI-natywnych?
Oto trzy kroki, które mogą przygotować organizacje, gdy przechodzą w stronę agentywnych przepływów pracy.
-
Priorytetem jest modernizacja podstawy danych: Dla organizacji działających na architekturach legacy, pierwszym krokiem jest modernizacja podstawy danych, aby umożliwić metadane, linie i metryki jakości danych dla danych rozproszonych. To zapewnia, że agenci mają kontekstowo bogate, wyjaśnialne dane, których potrzebują. Wprowadzenie narzędzi opartych na GenAI uczyniło tę modernizację szybszą i prostszą. Podczas gdy korzystanie z GenAI z architekturą legacy jest możliwe, wymóg tokenów do uzyskania znaczących wyników byłby ekstremalnie wysoki.
-
Ustanowienie warstw wiedzy przedsiębiorstwa: Organizacje, które nie zmodernizowały swoich systemów, mają dużo nagromadzonej wiedzy, która nie jest udokumentowana. Budowanie warstw wiedzy, aby uchwycić tę ulotną nagromadzoną wiedzę w systemie, byłaby drugim zadaniem o wysokiej priorytecie. To jest brakująca warstwa w wielu organizacjach w drodze do adopcji AI.
-
Definiowanie granic agentów i sposobów pracy: Trzecim krokiem jest upewnienie się, że agenci przestrzegają wszystkich najlepszych praktyk i zgodności z bezpieczeństwem. Ramy zarządzania, polityki bezpieczeństwa i ramy obserwacyjne umożliwiają agentom myśleć i działać skutecznie w granicach i ustanowionych sposobach pracy organizacji.
Przy przygotowaniu się do „gotowości AI”, co wymaga poza toolingiem – w zakresie danych, procesów, zarządzania i zdolności zespołowych?
Gotowość AI wykracza daleko poza wybór odpowiednich narzędzi. W praktyce adopcja AI udaje się lub nie w organizacji w zależności od zdolności do uchwycenia wiedzy plemiennej, takiej jak niepisane procesy, logika decyzyjna i kluczowe relacje, które istnieją tylko w głowach pracowników. Ta wiedza musi być udokumentowana w języku naturalnym, z którym systemy AI mogą współpracować, a nie tylko przetwarzać dane w izolacji.
Gotowość danych jest równie krytyczna, ale jakość sama w sobie nie wystarcza. To, co naprawdę decyduje o sukcesie, jest metadanymi, które obejmują kontekst, linię i znaczenie za danymi. Bez tego nawet najbardziej zaawansowane modele produkują płytkie lub niewiarygodne wyniki.
Adopcja AI w przedsiębiorstwach jest również wolniejsza niż AI konsumencka: dane organizacyjne są często brudne, fragmentowane i rozproszone w wielu systemach, a nie czyste i scentralizowane; modele dzisiejsze nie są jeszcze wystarczająco dokładne dla wyspecyficznych sytuacji i funkcji przedsiębiorstw bez adaptacji do unikalnego kontekstu każdej organizacji; aby odblokować prawdziwą wartość, modele muszą być szkolone i dostosowywane do danych własnościowych przedsiębiorstwa, szczególnie w „ostatniej mile” konkretnych przypadków użycia i przepływów pracy.
Wreszcie, zespoły muszą rozwijać intuicję AI. Gotowość oznacza podnoszenie umiejętności pracowników w zakresie literackości AI, aby wiedzieli, jak skutecznie pobudzać, weryfikować wyniki i audytować dane wyjściowe, zamiast bezkrytycznie ufać „czarnej skrzynce”. AI działa najlepiej, gdy ludzie pozostają mocno w pętli.
Sektor usług technologicznych jest zatłoczony graczami legacy. Co uważasz za najmocniejsze różnicujące się elementy QBurst, gdy konkurujecie o mandaty transformacji przedsiębiorstw?
QBurst różnicuje się na zatłoczonym rynku usług technologicznych, łącząc głęboką ekspertyzę inżynieryjną z elastycznością mniejszej, innowacyjnej firmy.
Nasza przewaga konkurencyjna jest określona przez pięć kluczowych filarów:
-
Głębokość inżynieryjna z myślą design thinking – nie tylko piszemy kod. Rozwiązujemy problemy biznesowe poprzez holistyczne, użytkowe rozwiązania.
-
Elastyczność i własność – jesteśmy wystarczająco duzi, aby skalować, ale wystarczająco leniwi, aby dbać – nasza elastyczność i adaptacja do szybkich zmian jest czymś, za co nasi klienci dali nam świadectwo. Nasze zespoły podejmują prawdziwą odpowiedzialność za sukces klienta. Zobaczysz, że własność dostawy sięga aż do poziomu kierownictwa.
-
Kompetencje kulturowe: czy to są aplikacje LINE mini w Japonii, czy zintegrowane systemy cenowe dla amerykańskich sieci spożywczych, dostosowujemy nie tylko technologię, ale i doświadczenie do każdego rynku.
-
Wizja AI-First – wbudowujemy AI w naszą dostawę, nasze operacje i rozwiązania klientów – nie jako buzzword, ale jako mnożnik zdolności.
-
Kultura innowacji i eksperymentowania – nasi liderzy są technicznie wykształceni i kochają rozwiązywać problemy klientów za pomocą najnowszej i wschodzącej technologii. Nie boimy się porażki i stworzyliśmy znaczący wpływ na naszych klientów, podejmując podejście start-upowe w wielu przypadkach.
Nie boimy się również burzyć samego siebie. Eksperymentujemy z modelami opartymi na efektach, kompozytowymi ramami dostawy i laboratoriami ko-innowacji dla klientów przedsiębiorstw.
Spójrzając w przyszłość przez trzy do pięciu lat, jak oczekujesz, że modele operacyjne IT przedsiębiorstw ewoluują wraz ze wzrostem agentywnych przepływów pracy i AI-natywnych organizacji, i na co powinni się przygotować liderzy?
Następna fala innowacji będzie należeć do tych, którzy potrafią połączyć potężne możliwości AI z przemyślanymi systemami kontroli, nadzoru i zaufania. Dlatego rosnąca konwersacja o ramach agentywnych przedsiębiorstw wydaje się tak ważna – i tak pilna.
Niektóre z kluczowych spostrzeżeń dla mnie to:
- Budowa centrum danych AI przyspiesza, a nie zwalnia; sentyment w świecie centrum danych jest bardzo optymistyczny, z pojemnością, popytem i inwestycjami, które wszystkie rosną.
- Adopcja AI w przedsiębiorstwach będzie wolniejsza niż AI konsumencka (dane organizacyjne są często brudne, fragmentowane i rozproszone w wielu systemach, a nie czyste i scentralizowane; dzisiejsze modele nie są jeszcze wystarczająco dokładne dla wyspecyficznych sytuacji i funkcji przedsiębiorstw bez adaptacji do unikalnego kontekstu każdej organizacji; aby odblokować prawdziwą wartość, modele muszą być szkolone i dostosowywane do danych własnościowych przedsiębiorstwa, szczególnie w „ostatniej mile” konkretnych przypadków użycia i przepływów pracy)
- Przed prawdziwie autonomicznymi agentami w przedsiębiorstwie istnieje większe wyzwanie: budowanie odpowiedników struktur nadzorczych, zatwierdzeń i barier ochronnych, które istnieją dla pracowników, co pozwala siłom roboczym wykonywać niezawodnie i skalować.
Liderzy powinni przygotować się, biorąc pod uwagę:
- Agenci powinni być traktowani jak nowi pracownicy, z wyraźnie zdefiniowanymi zakresami, jawnym nadzorem i mechanizmami, które mogą zawierać błędy, podczas gdy „uczą się” zasad i niepisanych reguł organizacji.
- Istnieje potrzeba „agenta bus” lub warstwy koordynacyjnej, gdzie agenci rejestrują się, otrzymują uprawnienia do zapisu i mają swoje działania monitorowane przez agenty nadzorujące.
- Odtworzenie równowagi, która sprawia, że organizacje ludzkie są solidne, będzie kluczowe dla osiągnięcia bezpiecznej, dokładnej i niezawodnej realizacji w świecie agentywnych przedsiębiorstw.
- Zarządzanie talentem ludzkim i przeszkalanie jest kolejnym ważnym aspektem, gdy interfejsy i współpraca człowiek-AI zmieniają się z agentywnymi systemami i ramami.
- Najbardziej ekscytującą granicą jest pojawienie się zaawansowanych ram agentywnych przedsiębiorstw – poza tym, co istnieje dzisiaj – które mogą przekształcić tę wizję w praktyczną, skalowalną rzeczywistość, w połączeniu z silnym zrozumieniem branży i rozwiązań.
Dziękuję za wspaniałe wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić QBurst.












