Wywiady
Nick Shiftan, CTO at Bazaarvoice – Wywiad z serii

Nick Shiftan, CTO at Bazaarvoice, to doświadczony lider technologiczny i przedsiębiorca, którego kariera obejmuje dwie dekady budowania i skalowania oprogramowania przedsiębiorstw i platform handlowych. Jest najlepiej znany jako współzałożyciel i CTO Curalate, pionierskiej firmy handlu społecznościowego, której pomógł rozwinąć przez niemal dekadę do ponad 20 milionów dolarów w rocznych opłatach abonamentowych przed jej przejęciem przez Bazaarvoice w 2020 roku. Na początku swojej kariery założył i kierował rozwojem produktu w Parkio, dostarczając oprogramowanie dla systemów transportowych i parkingowych, a rozpoczął swoją profesjonalną drogę w Microsoft, gdzie pracował nad Outlook Mobile dla Windows Mobile. Po przejęciu, co początkowo miało być krótkim okresem przejściowym, ewoluowało w długoterminową rolę, gdy kontynuował budowanie w skali, kulminując w jego powołaniu na stanowisko CTO, gdzie jego uwaga koncentruje się na rozwijaniu odkrywania produktów napędzanych przez sztuczną inteligencję, opartych na zaufaniu i autentycznych danych konsumentów.
Bazaarvoice to wiodąca platforma SaaS, która umożliwia markom i detalistom zbieranie, zarządzanie i aktywowanie autentycznego treści generowanego przez użytkowników, takiego jak oceny, recenzje, zdjęcia i filmy w całej cyfrowej podróży zakupowej. Działając na skalę globalną, firma pomaga ponad miliardowi konsumentów każdego miesiąca podejmować świadome decyzje zakupowe, syndykując zaufane treści w sieci marek i punktów detalicznych, umieszczając przejrzystość, wiarygodność i handel oparty na danych w centrum doświadczeń online.
Jak stosujesz techniki generatywnej sztucznej inteligencji i oparte na LLM, aby wzmocnić autentyczność recenzji, moderację i sygnały zaufania bez naruszania wydajności pod dużym obciążeniem?
Używamy sztucznej inteligencji, aby wykryć sygnały i wzorce, a nie zastąpić ludzkie osądy. LLM pomaga szybko zidentyfikować anomalne działania lub potencjalnie nieautentyczne treści, ale celem jest zawsze zachowanie zaufania. Poprzez integrację tych modeli z potokami walidacji offline i odłączenie ich od ścieżek żądań w czasie rzeczywistym, utrzymujemy wydajność nawet wtedy, gdy objętość zgłoszeń gwałtownie rośnie. Wynikiem są kontrole moderacji i autentyczności, które są zarówno inteligentne, jak i skalowalne.
Wiele detalistów inwestuje wiele w niezawodność procesu płatności, ale często pomija złożoność utrzymania godnego zaufania ekosystemu recenzji. Jakie ukryte ryzyka w infrastrukturze recenzji i ocen uważasz, że zasługują na taki sam strategiczny przegląd, jak płatności?
Oceny i recenzje zawsze były infrastrukturą decyzyjną, ale jest to szczególnie prawdziwe w świecie handlu wspieranego przez sztuczną inteligencję. Agenci AI będą silnie opierać się na sygnałach zaufania – szczególnie w postaci ocen i recenzji – przy podejmowaniu rekomendacji zakupowych. Opóźnienia, brakujące dane lub rażąca nieautentyczność będą miały bezpośredni wpływ na zaufanie konsumentów. Te systemy są złożone; traktowanie ich z takim samym rygorem, jak systemy płatności, jest niezbędne, aby uniknąć utraty konwersji i długoterminowej erozji zaufania.
Biorąc pod uwagę Twoje doświadczenie w kierowaniu inżynierią w wielu dużych platformach handlowych, jak dostosowujesz strategie obserwacyjności i odpowiedzi na incydenty, gdy systemy AI – takie jak analiza nastrojów lub modele wykrywania oszustw – znajdują się bezpośrednio w ścieżce danych w czasie rzeczywistym?
Traktujemy modele AI jak każdą inną krytyczną usługę: monitorujemy ich wydajność i dokładność w czasie rzeczywistym. Obejmuje to opóźnienia, stawki błędów i dryf behawioralny. Wdrażamy zabezpieczenia, aby modele mogły degradować się łagodnie lub ominąć niekrytyczne ścieżki pod obciążeniem. Pulpity, automatyczne alerty i runbooki zapewniają, że problemy z AI są wyświetlane i rozwiązywane przed ich wpływem na konsumentów.
Gdy działasz na skalę globalną Bazaarvoice, jak zapewniasz, aby treści generowane przez konsumentów przepływały przez Twoje systemy napędzane przez AI w sposób, który utrzymuje audytowalność, przejrzystość i odpowiedzialność w czasie rzeczywistym?
Sprowadza się to do obserwacyjności na całej długości i segmentacji potoku. Każdy element treści jest śledzony przez cały jego cykl życia, od pobrania do wyświetlenia. Modele AI zapewniają rekomendacje lub flagi moderacyjne, ale wszystkie decyzje są rejestrowane, audytowane i śledzone. Połączone z buforami pojemności i dynamicznym skalowaniem, zapewnia to odpowiedzialność nawet pod obciążeniem szczytowym, utrzymując przejrzystość.
Patrząc w przyszłość, które nowo pojawiające się ryzyka AI lub wzorce behawioralne uważasz, że zdefiniują następną generację projektowania systemów detalicznych, i jak powinni się do nich przygotować liderzy IT?
Dla mnie kluczowe pytanie dla liderów IT detalicznych nie brzmi czy handel AI nastąpi — ale jak ich podróż zakupowa zmieni się, gdy tak się stanie. Jeśli handel AI stanie się tak powszechny jutro, jak handel online jest dzisiaj:
- Gdzie klienci odkryją moje produkty, na mojej stronie czy za pośrednictwem ChatGPT?
- Jak dowiedzą się o moich produktach, za pośrednictwem Claude czy mojego własnego asystenta zakupowego?
- Jak dokonają zakupu, na mojej stronie płatności czy bezpośrednio za pośrednictwem interfejsu AI?
Modele pionierskie prawdopodobnie będą wiedzieć wszystko o Twoich produktach. Ale prawdziwe pytanie brzmi: Czy dostarczą takie same doświadczenia klienta, jakie możesz dziś zapewnić? Jeśli odpowiedź brzmi nie, nie wystarczy czekać, aż zamówienia AI pojawią się. Będziesz musiał zainwestować w asystentów AI i punkty wejścia, które sprawią, że staną się częścią unikalnego doświadczenia zakupowego Twojej marki.
Dziękuję za wspaniały wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Bazaarvoice.












