Wywiady
Liran Hason, współzałożyciel i CEO Aporia – seria wywiadów

Liran Hason jest współzałożycielem i CEO Aporia, platformy pełnej obsługiwania ML, wykorzystywanej przez firmy z listy Fortune 500 i zespoły data science na całym świecie, aby zapewnić odpowiedzialne AI. Aporia integruje się bezproblemowo z dowolną infrastrukturą ML. Niezależnie od tego, czy jest to serwer FastAPI na górze Kubernetes, czy otwarty system wdrażania, taki jak MLFlow, czy platforma machine learning, taka jak AWS Sagemaker.
Przed założeniem Aporia, Liran był architektem ML w Adallom (nabytym przez Microsoft), a później inwestorem w Vertex Ventures.
Zacząłeś programować, gdy miałeś 10 lat, co cię początkowo przyciągnęło do komputerów, i nad czym pracowałeś?
Był rok 1999, a mój przyjaciel zadzwonił do mnie i powiedział, że zbudował stronę internetową. Po wpisaniu adresu długości 200 znaków w mojej przeglądarce, zobaczyłem stronę z jego imieniem. Byłem zdumiony tym, że stworzył coś na swoim komputerze, a ja mogłem to zobaczyć na moim własnym komputerze. To sprawiło, że zostałem bardzo ciekawy, jak to działa i jak mogę to zrobić. Poprosiłem mamę, aby kupiła mi książkę o HTML, co było moim pierwszym krokiem w programowaniu.
Cieszę się, wykonując techniczne wyzwania, a z czasem moja ciekawość tylko rosła. Nauczyłem się ASP, PHP i Visual Basic, i wszystko, co mogłem.
Gdy nie miałem aktywnej pracy, pracowałem nad własnymi projektami – zwykle różnymi stronami i aplikacjami, mającymi na celu pomóc innym ludziom osiągnąć ich cele:
Blue-White Programming – jest to hebrajski język programowania, podobny do HTML, który zbudowałem, gdy zrozumiałem, że dzieci w Izraelu, które nie mają wysokiego poziomu angielskiego, są ograniczone lub odpychane od świata programowania.
Blinky – Moi dziadkowie są głusi i używają języka migowego do komunikacji z przyjaciółmi. Gdy pojawiły się oprogramowania wideokonferencyjne, takie jak Skype i ooVoo, umożliwiły im po raz pierwszy rozmawiać z przyjaciółmi, nawet jeśli nie są w tym samym pokoju (jak my wszyscy robimy z naszymi telefonami). Jednakże, ponieważ nie mogą słyszeć, nie byli w stanie wiedzieć, kiedy mają przychodzące połączenie. Aby im pomóc, napisałem oprogramowanie, które identyfikuje przychodzące połączenia wideo i powiadamia ich, mrugając tablicą LED w małym urządzeniu sprzętowym, które zbudowałem i podłączyłem do ich komputera.
To tylko kilka projektów, które zbudowałem jako nastolatek. Moja ciekawość nigdy nie ustawała i starałem się uczyć jak najwięcej.
Czy mógłbyś opowiedzieć o swojej drodze jako architekt maszynowego uczenia się w Adallom, które zostało przejęte przez Microsoft?
Zacząłem swoją drogę w Adallom po służbie wojskowej. Po 5 latach w armii jako kapitan, zobaczyłem wielką okazję do dołączenia do powstającej firmy i rynku – jako jeden z pierwszych pracowników. Firma była prowadzona przez wielkich założycieli, których znałem ze służby wojskowej, i wspierana przez czołowych inwestorów – takich jak Sequoia. Wybuch technologii chmurowych na rynek był wciąż w swojej relatywnej dzieciństwie, a my budowaliśmy jedne z pierwszych rozwiązań bezpieczeństwa chmurowego w tamtym czasie. Przedsiębiorstwa zaczynały przechodzić z lokalizacji do chmury, a my widzieliśmy pojawienie się nowych standardów branżowych – takich jak Office 365, Dropbox, Marketo, Salesforce i innych.
Podczas moich pierwszych kilku tygodni, już wiedziałem, że chcę założyć własną firmę kiedyś. Czuję, że z technicznego punktu widzenia, jestem gotowy do każdego wyzwania, a jeśli nie ja, to znam odpowiednie osoby, które mogą mi pomóc przezwyciężyć wszystko.
Adallom potrzebował kogoś, kto ma głęboką wiedzę na temat techniki, ale mógłby być także osobą kontaktową z klientami. Przeskoczmy do przodu, jak miesiąc, i jestem w samolocie do USA, po raz pierwszy w moim życiu, aby spotkać się z ludźmi z LinkedIn (przed Microsoft). Parę tygodni później i stali się naszymi pierwszymi płacącymi klientami w USA. To było tylko jedno z wielu dużych korporacji – Netflix, Disney, Safeway – którym pomagałem rozwiązywać krytyczne problemy chmurowe. Było to bardzo edukacyjne i budujące zaufanie.
Dla mnie, dołączenie do Adallom było naprawdę o dołączeniu do miejsca, w którym wierzę w rynek, wierzę w zespół i wierzę w wizję. Jestem niezwykle wdzięczny za okazję, którą otrzymałem tam.
Cel tego, co robię, był i jest bardzo ważny. Dla mnie było to takie same w armii, zawsze było ważne. Mogłem łatwo zobaczyć, jak podejście Adallom do łączenia się z rozwiązaniami SaaS, a następnie monitorowania aktywności użytkowników, zasobów, wyszukiwania anomalii itp., było tym, jak będą robione rzeczy. Zrozumiałem, że to będzie podejście przyszłości. Więc zdecydowanie widziałem Adallom jako firmę, która będzie udana.
Byłem odpowiedzialny za całą architekturę naszej infrastruktury ML. I widziałem i doświadczyłem na własnej skórze braku odpowiednich narzędzi dla ekosystemu. Tak, było dla mnie jasne, że musi być dedykowane rozwiązanie w jednym centralnym miejscu, gdzie można zobaczyć wszystkie modele; gdzie można zobaczyć, jakie decyzje są podejmowane dla Twojego biznesu; gdzie można śledzić i stać się proaktywnym ze swoimi celami ML. Na przykład, mieliśmy sytuacje, w których dowiedzieliśmy się o problemach w naszych modelach maszynowego uczenia się za późno, i to nie jest dobre dla użytkowników i na pewno nie dla biznesu. To jest miejsce, w którym pomysł na Aporia zaczął się krystalizować.
Czy mógłbyś opowiedzieć o historii powstania Aporia?
Moje własne doświadczenie z maszynowym uczeniem się zaczyna się w 2008 roku, jako część projektu współpracy w Instytucie Weizmann, wraz z Uniwersytetem w Bath i chińskim centrum badawczym. Tam, zbudowałem system identyfikacji biometrycznej, analizując obrazy tęczówki. Zdołałem osiągnąć 94% dokładności. Projekt był sukcesem i został przyjęty z uznaniem z punktu widzenia badań. Ale dla mnie, budowałem oprogramowanie od kiedy miałem 10 lat, i coś czułem, że nie jest całkiem realne. Nie można było naprawdę używać systemu identyfikacji biometrycznej, który zbudowałem, w prawdziwym życiu, ponieważ działał dobrze tylko dla konkretnego zestawu danych, który użyłem. Nie jest to wystarczająco deterministyczne.
To jest tylko tło. Gdy budujesz system maszynowego uczenia się, na przykład do identyfikacji biometrycznej, chcesz, aby przewidywania były deterministyczne – chcesz wiedzieć, że system dokładnie identyfikuje określoną osobę, prawda? Tak jak Twoje iPhone nie odblokowuje, jeśli nie rozpoznaje odpowiedniej osoby pod odpowiednim kątem, to jest pożądany wynik. Ale to nie było przypadkiem z maszynowym uczeniem się, gdy po raz pierwszy wszedłem w ten obszar.
Około siedem lat później i doświadczyłem na własnej skórze, w Adallom, rzeczywistości uruchamiania modeli produkcyjnych bez niezawodnych barier ochronnych, ponieważ podejmują decyzje dla naszego biznesu, które wpływają na naszych klientów. Później, miałem szczęście pracować jako inwestor w Vertex Ventures, przez trzy lata. Zobaczyłem, jak coraz więcej organizacji używało ML, i jak firmy przechodziły od mówienia o ML do实际nego używania maszynowego uczenia się. Jednakże, te firmy przyjęły ML tylko po to, aby zostać wyzwaniem przez te same problemy, z którymi mieliśmy do czynienia w Adallom.
Wszyscy spieszyli się, aby używać ML, i próbowali budować systemy monitorowania wewnętrznie. Oczywiście, nie było to ich podstawowym biznesem, a te wyzwania są dość złożone. To jest miejsce, w którym zrozumiałem, że to jest moja okazja do zrobienia ogromnego wpływu.
AI jest przyjmowane w niemal każdej branży, w tym opiece zdrowotnej, usługach finansowych, motoryzacji i innych, i będzie dotykać życia wszystkich i będzie miało wpływ na nas wszystkich. To jest miejsce, w którym Aporia pokazuje swoją prawdziwą wartość – umożliwiając wszystkim tym przypadkom zmiany życia działać zgodnie z zamierzeniem i pomagać poprawiać nasze społeczeństwo. Ponieważ, tak jak w przypadku oprogramowania, będziesz miał błędy, a maszynowe uczenie się nie jest wyjątkiem. Jeśli nie zostaną sprawdzone, te problemy z ML mogą naprawdę zaszkodzić ciągłości biznesu i wpłynąć na społeczeństwo z niezamierzonymi skutkami biasu. Weźmy próby Amazon, aby wdrożyć narzędzie rekrutacyjne AI – niezamierzony bias spowodował, że model maszynowego uczenia się silnie rekomendował kandydatów mężczyzn ponad kobiety. To jest oczywiście niepożądany wynik. Więc potrzeba dedykowanego rozwiązania do wykrywania niezamierzonego biasu, zanim trafi to do wiadomości i wpłynie na użytkowników końcowych.
Dla organizacji, aby właściwie polegać na maszynowym uczeniu się i cieszyć się jego korzyściami, muszą wiedzieć, kiedy nie działa prawidłowo, a teraz, z nowymi regulacjami, użytkownicy ML często będą potrzebować sposobów, aby wyjaśnić przewidywania swoich modeli. W końcu, jest to krytyczne, aby badać i rozwijać nowe modele i innowacyjne projekty, ale gdy te modele spotykają się z prawdziwym światem i podejmują rzeczywiste decyzje dla ludzi, firm i społeczeństwa, jest jasna potrzeba kompleksowego rozwiązania obserwowalności, aby zapewnić, że można ufać AI.
Czy mógłbyś wyjaśnić wagę transparentnego i wyjaśnialnego AI?
Chociaż może się wydawać podobne, istnieje ważna różnica między tradycyjnym oprogramowaniem a maszynowym uczeniem się. W oprogramowaniu masz inżyniera oprogramowania, który pisze kod, definiuje logikę aplikacji, wiemy dokładnie, co się stanie w każdym przepływie kodu. Jest to deterministyczne. To jest sposób, w jaki zwykle buduje się oprogramowanie, inżynierowie tworzą przypadki testowe, testują przypadki graniczne, uzyskują 70% – 80% pokrycia – czujesz się wystarczająco dobrze, aby mogło być wydane do produkcji. Jeśli jakieś alerty pojawią się, możesz łatwo debugować i zrozumieć, co poszło nie tak, i naprawić to.
To nie jest przypadkiem z maszynowym uczeniem się. Zamiast tego, człowiek definiuje logikę jako część procesu szkolenia modelu. Gdy mówimy o logice, w przeciwieństwie do tradycyjnego oprogramowania, nie jest to zestaw reguł, ale raczej macierz milionów i miliardów liczb, które reprezentują umysł, mózg modelu maszynowego uczenia się. I to jest czarna skrzynka, nie wiemy naprawdę, co oznacza każda z tych liczb w tej macierzy. Ale wiemy statystycznie, więc to jest prawdopodobne, a nie deterministyczne. Może być dokładne w 83% lub 93% czasu. To rodzi wiele pytań, prawda? Po pierwsze, jak możemy ufać systemowi, którego nie możemy wyjaśnić, w jaki sposób dochodzi do swoich przewidywań? Po drugie, jak możemy wyjaśnić przewidywania dla高度 regulowanych branż – takich jak sektor finansowy. Na przykład, w USA, firmy finansowe są zobowiązane prawem do wyjaśnienia swoim klientom, dlaczego zostali odrzuceni wniosek o pożyczkę.
Niezdolność do wyjaśnienia przewidywań maszynowego uczenia się w czytelnym dla człowieka tekście może być dużym blokerem dla masowego przyjęcia ML w branżach. Chcemy wiedzieć, jako społeczeństwo, że model nie podejmuje decyzji z biasem. Chcemy być pewni, że rozumiemy, co prowadzi model do określonej decyzji. To jest miejsce, w którym wyjaśnialność i transparentność są niezwykle kluczowe.
Jak działa rozwiązanie Aporia do transparentnego i wyjaśnialnego AI?
Narzędzie Aporia do wyjaśnialnego AI działa jako część zintegrowanego systemu obserwowalności maszynowego uczenia się. Bez głębokiej widoczności modeli produkcyjnych i niezawodnego monitorowania i alertowania jest trudno ufać wyjaśnialnym informacjom AI – nie ma potrzeby wyjaśniać przewidywań, jeśli wyjście jest niewiarygodne. I to jest miejsce, w którym Aporia wchodzi, dostarczając jedną szybę szkła widoczności nad wszystkimi uruchomionymi modelami, dostosowywalne monitorowanie, możliwości alertowania, narzędzia debugowania, dochodzenie do przyczyn i wyjaśnialne AI. Dedykowane, pełne rozwiązanie obserwowalności dla każdego problemu, który pojawia się w produkcji.
Platforma Aporia jest agnostyczna i wyposaża firmy zorientowane na AI, zespoły data science i ML w centralny panel i pełną widoczność w zdrowie modelu, przewidywania i decyzje – umożliwiając im ufać swojemu AI. Używając wyjaśnialnego AI Aporia, organizacje mogą utrzymać każdego odpowiedniego stakeholdera w pętli, wyjaśniając decyzje maszynowego uczenia się za pomocą kliknięcia przycisku – uzyskać czytelne dla człowieka informacje o konkretnych przewidywaniach modelu lub symulować sytuacje “Co, gdyby?”. Ponadto, Aporia stale śledzi dane, które są wprowadzane do modelu, a także przewidywania, i proaktywnie wysyła alerty w przypadku ważnych zdarzeń, w tym degradacji wydajności, niezamierzonego biasu, dryfu danych i nawet możliwości poprawy modelu. Wreszcie, z narzędziem dochodzenia Aporia możesz dotrzeć do przyczyny każdego zdarzenia, aby usunąć i poprawić każdy model w produkcji.
Jedną z funkcjonalności, które są oferowane, są Data Points i Time Series Investigation Tools, jak te narzędzia pomagają w zapobieganiu AI bias i dryfowi?
Data Points zapewniają widok na żywo danych, które model otrzymuje, i przewidywań, które są robione dla biznesu. Możesz uzyskać widok na żywo tego i zrozumieć dokładnie, co się dzieje w Twoim biznesie. To zdolność widoczności jest kluczowa dla transparentności. Czasami rzeczy zmieniają się w czasie, a istnieje korelacja między wieloma zmianami w czasie – to jest rola czasowej serii dochodzenia.
Ostatnio duzi detaliści mieli wszystkie swoje narzędzia predykcyjne AI, które zawiodły, gdy chodzi o predykowanie problemów łańcucha dostaw, jak platforma Aporia rozwiązałaby ten problem?
Głównym wyzwaniem w identyfikowaniu tego rodzaju problemów jest fakt, że mówimy o przewidywaniach dotyczących przyszłości. Oznacza to, że przewidywaliśmy, co się stanie lub nie stanie w przyszłości. Na przykład, jak wielu ludzi kupi określoną koszulę lub nowy PlayStation.
Potem zajmuje to trochę czasu, aby zebrać wszystkie rzeczywiste wyniki – więcej niż kilka tygodni. Potem, możemy podsumować i powiedzieć, ok, to była rzeczywista popyt, który widzieliśmy. Ten czas, mówimy o kilku miesiącach. To jest to, co nas zajmuje od momentu, gdy model robi przewidywania, aż do momentu, gdy biznes wie dokładnie, czy było prawidłowe, czy nie. I do tego czasu, zwykle jest już za późno, biznes albo stracił potencjalne przychody, albo marża została ściśnięta, ponieważ musieli sprzedać nadmiar towaru z wielkimi rabatami.
To jest wyzwanie. I to jest dokładnie miejsce, w którym Aporia wchodzi i staje się bardzo, bardzo pomocna dla tych organizacji. Po pierwsze, umożliwia organizacjom łatwo uzyskać transparentność i widoczność w tym, jakie decyzje są podejmowane – Czy są jakieś fluktuacje? Czy jest coś, co nie ma sensu? Po drugie, mówimy o dużych detalistach, mówimy o ogromnych, jak ogromnych ilościach towaru, i śledzenie ich ręcznie jest niemal niemożliwe. To jest miejsce, w którym biznes i zespoły maszynowego uczenia się najbardziej cenią Aporia, jako 24/7 zautomatyzowany i dostosowywalny system monitorowania. Aporia stale śledzi dane i przewidywania, analizuje statystyczne zachowanie tych przewidywań i może przewidzieć i zidentyfikować zmiany w zachowaniu konsumentów i zmiany w danych, tak szybko, jak to się dzieje. Zamiast czekać sześć miesięcy, aby zrealizować, że prognozowanie popytu było błędne, możesz w ciągu kilku dni zidentyfikować, że jesteśmy na złej drodze z naszymi prognozami popytu. Więc Aporia skraca ten czas z kilku miesięcy do kilku dni. To jest ogromna zmiana gry dla każdego praktyka ML.
Czy jest coś jeszcze, co chciałbyś podzielić się na temat Aporia?
Jesteśmy ciągle w rozwoju i szukamy niesamowitych ludzi z wybitnymi umysłami, aby dołączyć do podróży Aporia. Sprawdź nasze otwarte stanowiska.
Dziękuję za wspaniały wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Aporia.












