Connect with us

Shanea Leven, Założyciel i CEO w Empromptu AI – Seria wywiadów

Wywiady

Shanea Leven, Założyciel i CEO w Empromptu AI – Seria wywiadów

mm

Shanea Leven, Założyciel i CEO w Empromptu AI, to doświadczony lider produktowy z ogromnym doświadczeniem w tworzeniu platform dla deweloperów i produktów opartych na sztucznej inteligencji w dużych firmach technologicznych. Przed założeniem Empromptu w 2025 roku, założyła CodeSee, platformę dla deweloperów opartą na sztucznej inteligencji, która pomaga zespołom wizualizować i rozumieć złożone bazy kodu, która została przejęta przez GitKraken w 2024 roku. Wcześniej w swojej karierze, pełniła stanowiska kierownicze w firmach takich jak Docker, Cloudflare, eBay i Google, gdzie pracowała nad projektami od API płatności Google Assistant do programów edukacji dla deweloperów używanych przez setki tysięcy uczniów.

Empromptu AI to platforma przedsiębiorstw, zaprojektowana w celu ułatwienia firmom budowania i wdrażania zintegrowanych aplikacji sztucznej inteligencji. Platforma łączy rozwój aplikacji, integrację danych, zarządzanie, ocenę, pamięć i orchestrację modeli w jednym środowisku, umożliwiając firmom przejście od szybkiego eksperymentowania z sztuczną inteligencją do systemów gotowych do produkcji z kontrolami i niezawodnością wymaganą dla użycia w przedsiębiorstwach.

Spędziłaś ponad 15 lat budując platformy dla deweloperów w firmach takich jak Google, eBay, Cloudflare i Docker, zanim założyłaś CodeSee, które później zostało przejęte przez GitKraken, a teraz kierujesz Empromptu AI. Jak doświadczenia te ukształtowały Twoją perspektywę na temat tego, dlaczego wiele narzędzi sztucznej inteligencji zawodzi, gdy opuszczają etap demonstracji, i jaki konkretny problem chciałaś rozwiązać, zakładając Empromptu?

Jedną z rzeczy, które się uczą, budując platformy dla deweloperów, jest to, że najtrudniejsze problemy nigdy nie są tymi z demonstracji. Demonstracja zawsze działa. Prawdziwa próba to to, co się dzieje, gdy tysiące deweloperów używa systemu, gdy dane są brudne, gdy integracje się łamią, a gdy prawdziwe firmy zależą od tego.

W Google, Cloudflare, Docker i eBay spędziłam lata pracując nad platformami, które musiały działać w skali globalnej. Te środowiska uczą szybko, że niezawodność, zarządzanie i obserwowalność nie są funkcjami, które dodaje się później. Są to architektura.

Gdy zaczęłam budować aplikacje sztucznej inteligencji, modele były okropne, a gdy zaczęły się poprawiać, zauważyłam, że branża powtarza ten sam błąd, jaki widzieliśmy w poprzednich falach oprogramowania. W narzędziach deweloperskich istnieje pojęcie, które wydaje się być zapomniane. Jak szybko można dostać się do “hello world”? Dziś wersja generatywna “hello world” to pełnoprawny prototyp SaaS. Ale teraz nie tylko kodujemy aplikacje SaaS; kodujemy całe aplikacje sztucznej inteligencji. Sztuczna inteligencja, która buduje sztuczną inteligencję, wymaga innych systemów, aby umieścić tę sztuczną inteligencję w produkcji.

Można szybko wygenerować działającą aplikację sztucznej inteligencji lub funkcję, co jest ekscytujące i naprawdę użyteczne. Ale dominujące systemy nadal brakuje infrastruktury niezbędnej dla środowisk produkcyjnych. Rzeczy takie jak strukturalne potoki danych, ramy oceny, kontrola i długoterminowe zarządzanie kontekstem były pomijane, ale my je wprowadziliśmy, zachowując wszystkie wspaniałe części kodowania wibrującego.

Gdy moja współzałożycielka i ja założyliśmy Empromptu, problem, który chcieliśmy rozwiązać, był prosty: jak zrobić aplikacje sztucznej inteligencji gotowe do produkcji od samego początku?

Zamiast traktować zarządzanie, gotowość danych, ocenę i optymalizację jako oddzielne narzędzia lub procesy po fakcie, zbudowaliśmy je bezpośrednio w platformie. Pomysł polega na tym, że zespoły powinny być w stanie budować aplikacje sztucznej inteligencji szybko, ale z taką samą niezawodnością, jakością i kontrolą, jakiej oczekują od systemów oprogramowania przedsiębiorstw.

Byłaś otwarcie mówiąca o przerwie między imponującymi demonstracjami sztucznej inteligencji a systemami gotowymi do produkcji. Z Twojej perspektywy, jakie są najczęstsze błędy architektoniczne, które zespoły popełniają, próbując przekształcić prototyp sztucznej inteligencji w niezawodny produkt używany przez prawdziwych klientów?

Najczęstszym błędem, który popełniają zespoły, jest założenie, że model jest produktem.

W wczesnych prototypach model wykonuje większość widocznej pracy. Podajesz mu dane, on produkuje odpowiedź, a jeśli odpowiedź wygląda dobrze, system wydaje się działać. To tworzy iluzję, że poprawa modelu jest głównym wyzwaniem.

Ale w systemach produkcyjnych model jest tylko jednym z elementów w znacznie większej architekturze.

Pierwszym błędem jest traktowanie danych jako rzeczy, które można zrobić później. W prototypach zespoły często testują z małymi, czystymi zbiorami danych. Gdy system łączy się z prawdziwymi danymi operacyjnymi, wszystko się zmienia. Dane przychodzą niekompletne, niespójne, powtarzane lub w nieoczekiwanych formatach. Bez strukturalnego potoku danych, który normalizuje i waliduje dane wejściowe, system staje się niewiarygodny, niezależnie od tego, jak dobry jest model.

Drugim błędem jest brak ram oceny. Wiele zespołów uruchamia funkcje sztucznej inteligencji bez określenia, co “dobrze” naprawdę oznacza. Mogą one ręcznie sprawdzać dane wyjściowe podczas rozwoju, ale nie budują zautomatyzowanych potoków oceny, które ciągle mierzą dokładność, dryf i przypadki krańcowe, gdy system jest na żywo. Bez tych barier, awarie są często odkrywane przez klientów, a nie przez inżynierów.

Trzecim problemem jest brak mechanizmów zarządzania i kontroli. Systemy sztucznej inteligencji są probabilistyczne, co oznacza, że mogą zachowywać się inaczej w nieco innych warunkach. W regulowanych lub wysokostakowych środowiskach ta nieprzewidywalność musi być ograniczona za pomocą deterministycznych zasad, workflowów zatwierdzania i logów inspekcji, które rejestrują, jak podjęto decyzje.

To wszystko sprowadza się do tego, że systemy produkcyjne sztucznej inteligencji nie są tylko modelami. Są to systemy operacyjne.

Firmy, które teraz odnoszą sukcesy ze sztuczną inteligencją, są tymi, które traktują potoki danych, ocenę, zarządzanie i monitorowanie jako podstawową infrastrukturę, a nie opcjonalne dodatki.

Wiele platform kodowania sztucznej inteligencji obiecuje, że każdy może zbudować aplikację za pomocą prostych poleceń. Dlaczego te narzędzia często działają dobrze w demonstracjach, ale mają trudności, gdy firmy próbują je wdrożyć w środowiskach produkcyjnych?

Wiele z tych platform działa dobrze w demonstracjach, ponieważ są zoptymalizowane pod kątem momentu tworzenia, a nie cyklu życia rzeczywistego systemu.

Ale istnieje fundamentalna różnica między używaniem sztucznej inteligencji do generowania strony docelowej a używaniem sztucznej inteligencji do budowania aplikacji sztucznej inteligencji.

Strona docelowa jest w większości oprogramowaniem statycznym. Gdy renderuje się poprawnie, praca jest w zasadzie skończona. System nie musi podejmować probabilistycznych decyzji, przetwarzać ciągle zmieniających się danych ani dostosowywać się do nieprzewidywalnego zachowania użytkownika.

Aplikacje sztucznej inteligencji są zupełnie inne. Są to dynamiczne systemy, które polegają na potokach danych, zachowaniu modelu, ramach oceny i ciągłym monitorowaniu. Aplikacja musi zarządzać kontekstem, wykrywać, gdy dane wyjściowe dryfują, obsługiwać przypadki krańcowe i działać bezpiecznie, gdy model napotyka sytuacje, których nie widział wcześniej.

Większość narzędzi do kodowania opartego na poleceniach nie zajmuje się tymi warstwami, ponieważ są zaprojektowane, aby coś działało szybko. Generują kod, który daje widoczny wynik, co jest idealne dla środowiska demonstracyjnego. Ale systemy produkcyjne wymagają znacznie większego zestawu możliwości: strukturalne potoki danych, kontrola, potoki oceny, obserwowalność i mechanizmy bezpiecznej aktualizacji zachowania w czasie.

Więc gdy firmy próbują wdrożyć te systemy w środowiskach produkcyjnych, różnica staje się oczywista. Prototyp działał, ponieważ środowisko było kontrolowane. Produkcja jest brudna.

Empromptu koncentruje się na przekształcaniu istniejącego oprogramowania w systemy rodzime sztucznej inteligencji, zamiast zmuszania firm do odbudowy wszystkiego od podstaw. Co takie przekształcenie naprawdę obejmuje na poziomie infrastruktury i produktu?

Na poziomie produktu każda aplikacja jest w pełni samodzielna i konteneryzowana. Tworzymy wszystko, czego potrzebujesz, od front-endu, back-endu, baz danych, modeli, ocen, reguł i wszystko jest super elastyczne, w zależności od potrzeb przedsiębiorstwa.

Mamy kilka różnych opcji dla aplikacji sztucznej inteligencji:

“Bezgłowy”, jeśli klient już ma front-end, możemy połączyć go z naszym systemem i odesłać dane.

W pełni konteneryzowany, więc mogą być wdrożone na naszej infrastrukturze lub w infrastrukturze klienta, więc są domyślnie na-prem.

Albo możemy je po prostu wygenerować i wdrożyć bezpośrednio w chmurze, dla najwygodniejszej opcji.

Kod, który mają, możemy bezpośrednio zaimportować do naszego systemu i uczynić go agentem, jeśli nie jest już agentem. Widzimy to u wielu klientów, którzy próbowali zbudować swoje aplikacje na popularnych platformach, takich jak Lovable, Replit, Bolt lub Base44. Często one nie działają. Ale klienci już zainwestowali wiele czasu i energii w tę aplikację, więc ingerujemy w nią, przepisujemy ją, sprawiamy, aby wszystko działało z sztuczną inteligencją.

I możemy to zrobić, ponieważ mamy kilka niestandardowych, własnych technologii, takich jak:

  • Silnik kontekstu adaptacyjnego do zarządzania kontekstem
  • Pamięć nieskończona do pobierania długotrwałych aplikacji kodu
  • Niestandardowe modele danych i potoki danych złota, aby upewnić się, że możemy obsłużyć każde czyszczenie danych i syntetyczne etykietowanie, które jest wymagane

Twoja platforma podkreśla kontekst, ocenę, zarządzanie i strukturalne dane jako podstawowe elementy systemów sztucznej inteligencji. Dlaczego te elementy są tak często pomijane, gdy zespoły spieszą się, aby dodać funkcje sztucznej inteligencji do swoich produktów?

Ponieważ są trudne do zrobienia! Mój współzałożyciel, Dr Sean Robinson, prowadzi nasze laboratorium badawcze i jest komputeryjnym astrofizykiem, który wynalazł wiele technologii zainspirowanych moimi szalonymi pomysłami, ale także potrzebami naszych klientów i tym, gdzie zmierza rynek. Nasze połączone doświadczenie w budowaniu wielu aplikacji agentywnych, umieszczaniu satelitów w przestrzeni i budowaniu w największych firmach technologicznych na świecie daje nam wgląd, który pomaga nam rozwiązywać skomplikowane problemy lepiej niż inni.

Pracujesz z wieloma założycielami, którzy nigdy nie pisali kodu. Jakie są największe złudzenia, które nie-techniczni założyciele mają, gdy po raz pierwszy próbują budować aplikacje sztucznej inteligencji?

Myślę, że są dwa duże złudzenia:

Pierwszym jest to, że sztuczna inteligencja to magia. Sztuczna inteligencja nie jest magią. To po prostu dobre inżynierowanie. I w końcu osiągasz limit tego, co możesz zrobić na tych platformach bez prawdziwego inżyniera.

Drugim jest to, że mają doskonałe umiejętności techniczne zarządzania produktem. Mam doświadczenie w technicznym zarządzaniu produktem i umiejętność tłumaczenia wizji, czasem bardzo dużej wizji, na małe, wysyłalne kawałki z odpowiednim technicznym określeniem, aby wyjaśnić dokładnie, czego chcesz. To jest naprawdę trudna umiejętność, która wymaga czasu.

Na przykład, powiedzmy, że budujesz aplikację, która uploaduje plik PDF i zapisuje ten plik PDF, abyś mógł później wrócić i go wyświetlić. To jest pojęcie zwane trwałością. Ten plik PDF jest zakodowany w kodzie i zapisany w bazie danych.

Ale jeśli nie wiedziałeś, że to nazywa się trwałością, jak mógłbyś to zrobić? Upewnij się, że te dane są trwałe. Wybór słów technicznych jest jak mówienie w innym języku. Istnieje różnica między pisaniami w języku naturalnym a pisaniami w języku technicznym.

Wiele startupów zakłada, że rozwiązaniem budowania produktów sztucznej inteligencji jest po prostu zatrudnienie więcej inżynierów. Dlaczego uważasz, że ten podejście często zawodzi, a co założyciele powinni brać pod uwagę, budując produkty zasilane sztuczną inteligencją?

Zatrudnienie więcej inżynierów jest czasem odpowiedzią. Jeśli budujesz głęboko techniczny produkt lub pracujesz na granicy badań modelu, absolutnie potrzebujesz silnych zespołów inżynierskich. Nie ma substytutu dla dobrych inżynierów, gdy chodzi o rozwiązywanie trudnych problemów.

Ale błąd, który popełnia wiele startupów, to założenie, że więcej inżynierów automatycznie rozwiązuje wyzwanie budowania produktu sztucznej inteligencji.

W rzeczywistości najtrudniejsze problemy w produktach sztucznej inteligencji często nie są czysto inżynierskimi problemami. Są to problemy systemowe, tak jak każdy inny problem inżynierski. Inżynierowie są specjalnie uczeni, aby myśleć w systemach. Ale rozwój generatywny jest inny niż rozwój deterministyczny. Wiele z nas zrobiło ten przełom, gdy przechodziliśmy od programowania obiektowego do programowania funkcyjnego. Czy to programowanie? Tak, absolutnie, ale czy to inny sposób myślenia? Tak, oczywiście.

Aplikacje sztucznej inteligencji znajdują się na przecięciu danych, projektu produktu, workflowów operacyjnych i zachowania modelu. Możesz zatrudnić niesamowity zespół inżynierów, ale jeśli potoki danych są niewiarygodne, kryteria oceny są niejasne, lub system brakuje zarządzania i monitorowania, produkt i tak będzie miał trudności, gdy dotrze do prawdziwych użytkowników.

Innym problemem jest to, że wiele zespołów skacze prosto do budowy, zanim zdefiniują, jak system sztucznej inteligencji będzie się zachowywał w produkcji. Pytania takie jak jak system będzie oceniany, jak przypadki krańcowe będą obsługiwane, jak decyzje będą rejestrowane, a jak modele będą aktualizowane w czasie, często pojawiają się znacznie później. Wtedy architektura jest już trudna do zmiany.

To, o czym założyciele powinni naprawdę myśleć, to model operacyjny ich systemu sztucznej inteligencji.

Kto jest odpowiedzialny za potok danych?

Jak wydajność modelu jest mierzona ciągle, a nie tylko podczas rozwoju?

Co się dzieje, gdy system napotyka sytuację, której nie widział wcześniej?

Jak aktualizujesz zachowanie bezpiecznie, nie łamiąc workflowów w dół?

Czasem rozwiązywanie tych problemów oznacza zatrudnienie więcej inżynierów. Ale może to również oznaczać wybór odpowiedniej infrastruktury, określenie silnych ograniczeń produktu i budowanie systemów, które pozwalają małym zespołom działać niezawodnie w skali.

Firmy, które teraz odnoszą sukcesy ze sztuczną inteligencją, niekoniecznie są tymi, które mają największe zespoły inżynierskie. Są to te, które traktują sztuczną inteligencję jako długotrwały system, który potrzebuje dyscypliny danych, oceny, zarządzania i ciągłej poprawy wbudowanej od samego początku.

Uważasz, że niektóre z obecnych modeli biznesowych w narzędziach deweloperskich sztucznej inteligencji nie są zgodne z budowaniem trwałych produktów. Jakie zachęty w obecnej ekosferze narzędzi sztucznej inteligencji, według Ciebie, prowadzą firmy w złym kierunku?

Jedną z największych niezgodności zachęt obecnie jest to, że wiele narzędzi deweloperskich sztucznej inteligencji jest zoptymalizowanych pod kątem wskaźników wzrostu, a nie trwałości produktu.

Wiele firm w tej branży jest nagradzanych za to, jak szybko użytkownicy mogą stworzyć coś imponującego. Jeśli narzędzie może wygenerować działającą aplikację, funkcję lub demonstrację w kilka minut, to napędza zapisy, udostępnianie w mediach społecznościowych i ekscytację inwestorów. Z punktu widzenia przyjęcia produktu to ma sens.

Ale te zachęty często kończą się w momencie tworzenia.

Trudniejsza praca w oprogramowaniu sztucznej inteligencji następuje po tym punkcie. To jest tam, gdzie buduje się zaufanie. Gdy możesz polegać na jakości. Gdy użytkownik chce wrócić ponownie i ponownie bez frustracji sztucznej inteligencji z powodu złych danych wyjściowych. Musi on dawać dobre odpowiedzi, nawet w obliczu ludzkiej ignorancji lub złośliwości.

Innym problemem jest to, że wiele narzędzi jest zoptymalizowanych pod kątem generowania kodu, a nie projektowania systemu. Generowanie kodu szybko jest pomocne, ale budowanie produktu sztucznej inteligencji wymaga więcej niż tylko generowanie kodu. Wymaga określenia, jak system zarządza kontekstem, jak ocenia decyzje, jak obsługuje awarie i jak zachowanie ewoluuje bezpiecznie w czasie.

Firmy, które wyrównują swoje zachęty wokół pomagania klientom w uruchamianiu systemów sztucznej inteligencji w sposób niezawodny, a nie tylko budowaniu ich szybko, są tymi, które będą tworzyć trwałą wartość w tej ekosferze.

Niektórzy z Twoich klientów to przedsiębiorcy budujący bardzo konkretnych produktów, takich jak specjalistyczne narzędzia zdrowotne lub biznesy zorientowane na zrównoważony rozwój, często bez tradycyjnych zespołów inżynierskich. Jakie wzorce widzisz wśród założycieli, którzy udaje się przekształcić te pomysły w działające produkty sztucznej inteligencji?

Jednym z najbardziej interesujących wzorców, które widzimy, jest to, że założyciele, którzy odnoszą sukces, niekoniecznie są najbardziej techniczni. Są to ci, którzy rozumieją problem, który rozwiązują, niezwykle dobrze.

Wielu przedsiębiorców używających Empromptu to eksperci branżowi. Mogą pochodzić z opieki zdrowotnej, finansów, zrównoważonego rozwoju lub innej specjalistycznej branży. To, co przynoszą, to głęboka wiedza na temat workflowów, regulacji i decyzji, które istnieją w tym środowisku. Ten kontekst jest niezwykle cenny przy projektowaniu produktu sztucznej inteligencji, ponieważ definiuje, co system naprawdę musi robić.

Innym wzorcem jest to, że ci, którzy odnoszą sukces, podchodzą do sztucznej inteligencji bardziej jak do systemu produktu. Zaczynają od zadawania bardzo konkretnych pytań. Jakie decyzje powinna sztuczna inteligencja pomóc użytkownikom podjąć? Jakie źródła danych musi ona uzyskać? Co jest poprawną odpowiedzią w tej dziedzinie? Jakie barierki muszą istnieć, aby system zachowywał się odpowiedzialnie?

Widzimy również, że skuteczni założyciele przyjmują współpracę człowiek-sztuczna inteligencja zamiast próbować zautomatyzować wszystko od razu. Projektują workflow, w którym sztuczna inteligencja zajmuje się powtarzalną analizą lub syntezą danych, podczas gdy ludzie pozostają odpowiedzialni za osąd i ostateczne decyzje. Ten balans sprawia, że systemy są o wiele bardziej niezawodne, zwłaszcza w dziedzinach takich jak opieka zdrowotna lub finanse.

W wielu ways największa zmiana to nastawienie. Założyciele, którzy odnoszą sukces, nie myślą o sztucznej inteligencji jako o funkcji, którą dodają. Myślą o niej jako o nowej warstwie operacyjnej, jak działa ich produkt.

Gdy systemy sztucznej inteligencji stają się coraz bardziej zintegrowane z podstawowymi operacjami biznesowymi, jakie możliwości będą definiować następną generację platform aplikacji sztucznej inteligencji?

Wiemy, że to jest szalone i mogę mówić coś świętokradnego, ale ludzie będą mogli wibrująco-kodować swoje własne niestandardowe modele. Coś, co nasze laboratorium badawcze nazywa modelami nano-ekspertów, pomoże kontrolować koszty.

Dziękujemy za wspaniały wywiad. Czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Empromptu AI.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.