Connect with us

Yubei Chen, współzałożyciel Aizip Inc – seria wywiadów

Wywiady

Yubei Chen, współzałożyciel Aizip Inc – seria wywiadów

mm

Yubei Chen jest współzałożycielem Aizip inc., firmy, która buduje najmniejsze i najbardziej wydajne modele AI. Jest również asystentem profesora w dziale ECE na Uniwersytecie Kalifornijskim w Davis. Badania Chen’a znajdują się na przecięciu neurobiologii obliczeniowej i głębokiego nienadzorowanego (samoucznego) uczenia, poprawiając nasze zrozumienie zasad obliczeniowych rządzących nienadzorowanym uczeniem reprezentacji w mózgu i maszynach, oraz zmieniając nasze spojrzenie na statystykę sygnałów naturalnych.

Przed dołączeniem do UC Davis, Chen odbył studia podoktoranckie z prof. Yannem LeCunem w NYU Center for Data Science (CDS) i Meta Fundamental AI Research (FAIR). Ukończył studia doktoranckie w Redwood Center for Theoretical Neuroscience i Berkeley AI Research (BAIR), UC Berkeley, pod kierunkiem prof. Bruno Olshausena.

Aizip rozwija ultra-wydajne rozwiązania AI zoptymalizowane dla urządzeń brzegowych, oferując kompaktowe modele dla wizji, audio, szeregów czasowych, języka i aplikacji fuzji sensorów. Jego produkty umożliwiają zadania takie jak rozpoznawanie twarzy i obiektów, wykrywanie słów kluczowych, analiza ECG/EEG i czatboty na urządzeniu, wszystko napędzane przez TinyML. Za pomocą platformy AI nanofactory, Aizipline, firma przyspiesza rozwój modeli za pomocą modeli podstawowych i generatywnych, aby zbliżyć się do pełnej automatyzacji projektowania AI. Seria Aizip Gizmo małych modeli językowych (300M–2B parametrów) obsługuje szeroki zakres urządzeń, wprowadzając inteligentne możliwości na brzeg.

Wykonałeś studia podoktoranckie z Yannem LeCunem na NYU i Meta FAIR. Jak Twoja praca z nim i Twoje badania na UC Berkeley ukształtowały Twoje podejście do budowy rozwiązań AI w świecie rzeczywistym?

W Berkeley, moja praca była głęboko zakorzeniona w naukowym zapytaniu i matematycznej surowości. Moje badania doktoranckie, które łączyły inżynierię elektryczną, naukę komputerową i neurobiologię obliczeniową, koncentrowały się na zrozumieniu systemów AI z “białej skrzynki” perspektywy, lub rozwijaniu metod, które ujawniają podstawowe struktury danych i modeli uczenia. Pracowałem nad budowaniem interpretowalnych, wysokowydajnych modeli AI i technik wizualizacji, które pomagały otworzyć czarne skrzynki systemów AI.

W Meta FAIR, skupiono się na inżynierii systemów AI, aby osiągnąć najlepsze wyniki w skali. Z dostępem do światowej klasy zasobów obliczeniowych, badałem granice samoucznego uczenia i przyczyniłem się do tego, co teraz nazywamy “modelami świata” — systemami AI, które uczą się z danych i wyobrażają sobie możliwe środowiska. To podwójne doświadczenie — naukowe zrozumienie w Berkeley i inżynierskie skalowanie w Meta — dało mi całościowy punkt widzenia na rozwój AI. Podkreśliło ono wagę, jaką zarówno teoretyczne spojrzenie, jak i praktyczna implementacja mają przy rozwijaniu rozwiązań AI dla aplikacji w świecie rzeczywistym.

Twoja praca łączy neurobiologię obliczeniową z AI. Jak spojrzenia z neurobiologii wpływają na sposób, w jaki rozwijasz modele AI?

W neurobiologii obliczeniowej, badamy, jak mózg przetwarza informacje, mierząc jego odpowiedzi na różne bodźce, podobnie jak gdy badamy systemy AI, aby zrozumieć ich wewnętrzne mechanizmy. Na początku swojej kariery, rozwijałem techniki wizualizacji, aby analizować osadzanie słów — rozkładając słowa, takie jak “jabłko”, na ich składowe elementy semantyczne, takie jak “owoce” i “technologia”. Później, ten podejście rozwinął się do bardziej złożonych modeli AI, takich jak transformery i duże modele językowe, co pomogło ujawnić, jak one przetwarzają i przechowują wiedzę.

Te metody są tak naprawdę równoległe do technik w neurobiologii, takich jak używanie elektrod lub fMRI, aby badać aktywność mózgu. Badanie wewnętrznych reprezentacji modelu AI pozwala nam zrozumieć jego strategie rozumowania i wykryć emergentne właściwości, takie jak neurony pojęć, które aktywują się dla określonych idei (takich jak cecha Golden Gate Bridge, którą Anthropic znalazł, mapując Claude). Ten kierunek badań jest teraz powszechnie przyjęty w branży, ponieważ udowodniono, że umożliwia zarówno interpretowalność, jak i praktyczne interwencje, usuwając uprzedzenia z modeli. Tak więc podejścia inspirowane neurobiologią pomagają nam robić AI bardziej wyjaśnialnym, godnym zaufania i wydajnym.

Czym skłoniło Cię do współzałożenia Aizip? Możesz podzielić się drogą od koncepcji do uruchomienia firmy?

Jako podstawowy badacz AI, większość mojej pracy była teoretyczna, ale chciałem zabić lukę między badaniami a aplikacjami w świecie rzeczywistym. Współzałożyłem Aizip, aby przenieść innowacje AI do praktycznego użycia, szczególnie w środowiskach o ograniczonych zasobach. Zamiast budować duże modele podstawowe, skupiliśmy się na rozwijaniu najmniejszych i najbardziej wydajnych modeli AI, które będą zoptymalizowane dla urządzeń brzegowych.

Droga zasadniczo rozpoczęła się od kluczowego spostrzeżenia: podczas gdy postępy AI rosły w skali, aplikacje w świecie rzeczywistym często wymagały lekkich i wydajnych modeli. Zobaczyliśmy okazję, aby zapoczątkować nowy kierunek, który balansowałby surowości naukowej z praktycznym wdrożeniem. Wykorzystując spojrzenia z samoucznego uczenia i kompaktowych architektur modeli, Aizip był w stanie dostarczyć rozwiązania AI, które działają wydajnie na brzegu i otwierają nowe możliwości dla AI w systemach osadzonych, IoT i poza.

Aizip specjalizuje się w małych modelach AI dla urządzeń brzegowych. Jaką lukę na rynku zobaczyłeś, co doprowadziło do tego skupienia?

Branża AI w dużej mierze skupiła się na skalowaniu modeli, ale aplikacje w świecie rzeczywistym często wymagają odwrotnego — wysokiej wydajności, niskiego zużycia energii i minimalnej latencji. Wiele modeli AI dzisiaj jest zbyt obliczeniowo kosztownych do wdrożenia na małych, osadzonych urządzeniach. Zobaczyliśmy lukę na rynku dla rozwiązań AI, które mogą dostarczyć silne wyniki, pracując w ramach ekstremalnych ograniczeń zasobów.

Rozumieliśmy, że nie każda aplikacja AI musi działać na ogromnych modelach, i że również nie byłoby skalowalne, aby polegać na modelach tej wielkości dla wszystkiego. Zamiast tego, skupiamy się na optymalizowaniu algorytmów, aby osiągnąć maksymalną wydajność, utrzymując dokładność. Projektując modele AI dostosowane do aplikacji na brzegu — czy to w inteligentnych czujnikach, noszących urządzeniach czy automatyzacji przemysłowej — umożliwiamy AI działać w miejscach, gdzie tradycyjne modele byłyby niepraktyczne. Nasze podejście sprawia, że AI staje się bardziej dostępne, skalowalne i energooszczędne, odblokowując nowe możliwości dla innowacji AI poza chmurą.

Aizip jest na czele rozwoju Małych Modeli Językowych (SLM). Jak widzisz SLM konkurujące lub uzupełniające większe modele, takie jak GPT-4?

SLM i większe modele, takie jak GPT-4, niekoniecznie są w bezpośredniej konkurencji, ponieważ służą różnym potrzebom. Większe modele są potężne pod względem uogólnienia i głębokiego rozumowania, ale wymagają znacznych zasobów obliczeniowych. SLM są zaprojektowane z myślą o wydajności i wdrożeniu na urządzeniach brzegowych o niskiej mocy. Uzupełniają większe modele, umożliwiając możliwości AI w aplikacjach w świecie rzeczywistym, gdzie zasoby obliczeniowe, latencja i koszty mają znaczenie — takich jak urządzenia IoT, noszące urządzenia i automatyzacja przemysłowa. W miarę wzrostu adopcji AI, widzimy pojawiające się podejście hybrydowe, gdzie duże, chmurowe modele obsługują złożone zapytania, a SLM zapewniają czas rzeczywisty, lokalną inteligencję na brzegu.

Jakie są największe techniczne wyzwania w uczynieniu modeli AI wystarczająco wydajnymi dla urządzeń brzegowych o niskiej mocy?

Jednym z podstawowych wyzwań jest brak pełnego teoretycznego zrozumienia, jak modele AI działają. Bez wyraźnego teoretycznego fundamentu, wysiłki optymalizacyjne są często empiryczne, ograniczając zyski wydajności. Dodatkowo, ludzkie uczenie się zachodzi na różne sposoby, których obecne paradygmaty uczenia maszynowego nie w pełni ujmują, utrudniając projektowanie modeli, które naśladują ludzką wydajność.

Z inżynierskiego punktu widzenia, pchanie AI do pracy w ramach ekstremalnych ograniczeń wymaga innowacyjnych rozwiązań w kompresji modelu, kwantyzacji i projektowaniu architektury. Innym wyzwaniem jest tworzenie modeli AI, które mogą dostosować się do różnych urządzeń i środowisk, utrzymując przy tym wytrzymałość. W miarę wzrostu interakcji AI z fizycznym światem za pomocą IoT i czujników, potrzeba naturalnych i wydajnych interfejsów — takich jak głos, gest lub inne niekonwencjonalne dane wejściowe — staje się krytyczna. AI na brzegu jest o tym, aby przedefiniować, jak użytkownicy wchodzą w interakcje z cyfrowym światem bezproblemowo.

Czy możesz podzielić się niektórymi szczegółami o pracy Aizip z firmami, takimi jak Softbank?

Ostatnio współpracowaliśmy z SoftBank над projektem akwakultury, który zdobył nagrodę CES Innovation Award — jedną, z której jesteśmy szczególnie dumni. Rozwinęliśmy wydajny, oparty na brzegu model AI dla aplikacji liczenia ryb, który może być użyty przez operatorów akwakultury do ferm ryb. To rozwiązanie rozwiązuje krytyczne wyzwanie w hodowli ryb, które może ostatecznie stworzyć problemy z zrównoważeniem, marnowaniem żywności i rentownością. Branża była powolna w przyjęciu AI jako rozwiązania ze względu na niepewną moc i łączność w morzu, co sprawia, że chmurowe rozwiązania AI są niepraktyczne.

Aby rozwiązać to, opracowaliśmy rozwiązanie działające na urządzeniu. Połączyliśmy symulacje grafiki komputerowej SoftBank dla danych szkoleniowych z naszymi kompaktowymi modelami AI i stworzyliśmy wysoko dokładny system, który działa na smartfonach. W podwodnych testach terenowych osiągnął 95% wskaźnik rozpoznawania, dramatycznie poprawiając dokładność liczenia ryb. To pozwoliło farmerom zoptymalizować warunki przechowywania, określić, czy ryby powinny być transportowane żywe czy mrożone, i wykryć potencjalne choroby lub inne problemy zdrowotne u ryb.

Ten przełom poprawia wydajność, obniża koszty i zmniejsza zależność od ręcznej pracy. Szerzej, pokazuje, jak AI może mieć namacalny wpływ na problemy w świecie rzeczywistym.

Aizip wprowadził koncepcję “AI Nanofactory”. Czy mógłbyś wyjaśnić, co to znaczy i jak automatyzuje rozwój modeli AI?

AI Nanofactory to nasza wewnętrzna pipeline automatyzacji projektowania AI, zainspirowana Electronic Design Automation (EDA) w produkcji półprzewodników. Wczesny rozwój w każdej wschodzącej dziedzinie techniki wymaga wiele ręcznej pracy, więc automatyzacja staje się kluczem do przyspieszania postępu i skalowania rozwiązań, gdy dziedzina dojrzewa.

Zamiast po prostu używać AI do przyspieszania innych branż, zapytaliśmy, czy AI może przyspieszyć swój własny rozwój? AI Nanofactory automatyzuje każdy etap rozwoju modelu AI, od przetwarzania danych po projektowanie architektury, wybór modelu, szkolenie, kwantyzację, wdrożenie i debugowanie. Wykorzystując AI do optymalizacji samego siebie, byliśmy w stanie zmniejszyć czas rozwoju nowych modeli o średni czynnik 10. W niektórych przypadkach nawet o ponad 1000 razy. To oznacza, że model, który kiedyś zajmował ponad rok rozwoju, może teraz zostać stworzony w zaledwie kilka godzin.

Inną korzyścią jest to, że ta automatyzacja również zapewnia, że rozwiązania AI są ekonomicznie uzasadnione dla szerokiego zakresu aplikacji, sprawiając, że wdrożenie AI w świecie rzeczywistym staje się bardziej dostępne i skalowalne.

Jak widzisz ewolucję roli AI na brzegu w ciągu najbliższych pięciu lat?

AI na brzegu obiecuje przekształcić, jak wchodzimy w interakcje z technologią, podobnie jak smartfony rewolucjonizowały dostęp do internetu. Większość aplikacji AI dzisiaj jest oparta na chmurze, ale to zaczyna się zmieniać, gdy AI przesuwa się bliżej czujników i urządzeń, które wchodzą w interakcje z fizycznym światem. Ten przesuw podkreśla krytyczną potrzebę wydajnego, czasu rzeczywistego przetwarzania na brzegu.

W ciągu najbliższych pięciu lat oczekujemy, że AI na brzegu umożliwi bardziej naturalne interakcje między ludźmi a komputerami, takie jak rozpoznawanie głosu i gestów oraz inne intuicyjne interfejsy, które usuną zależność od tradycyjnych barier, takich jak klawiatury i ekranów dotykowych. AI również staje się bardziej osadzona w codziennych środowiskach, takich jak inteligentne domy czy automatyzacja przemysłowa, aby umożliwić podejmowanie decyzji w czasie rzeczywistym z minimalną latencją.

Innym kluczowym trendem będzie rosnąca autonomia systemów AI na brzegu. Modele AI staną się bardziej samooptymalizujące i adaptacyjne dzięki postępom w automatyzacji w stylu AI Nanofactory, co zmniejszy potrzebę interwencji ludzkiej w wdrożeniu i utrzymaniu. To otworzy nowe możliwości w różnych branżach, takich jak opieka zdrowotna, motoryzacja i rolnictwo.

Jakie są niektóre nadchodzące urządzenia AI od Aizip, na które jesteś najbardziej podekscytowany?

Pracujemy nad rozszerzeniem przypadków użycia naszych modeli w nowych branżach, a jedną, której jesteśmy szczególnie podekscytowani, jest agent AI dla sektora motoryzacyjnego. Istnieje rosnąca tendencja, szczególnie wśród chińskich producentów samochodów, do rozwijania asystentów głosowych napędzanych przez modele językowe, które czują się bardziej jak ChatGPT w kabinie. Wyzwaniem jest to, że większość obecnych asystentów nadal polega na chmurze, szczególnie dla naturalnych, elastycznych dialogów. Tylko podstawowe zadania sterowania (takie jak “włącz klimatyzację” lub “otwórz bagażnik”) zwykle działają lokalnie na pojeździe, a sztywny charakter tych poleceń może stać się rozpraszający dla kierowców, jeśli nie mają ich zapamiętanych z całkowitą precyzją.

Rozwinęliśmy serię ultra-wydajnych, napędzanych przez SLM agentów AI o nazwie Gizmo, które są obecnie wdrażane jako “współpiloci” w pojazdach. Gizmo jest szkolony, aby zrozumieć intencję w bardziej nuansowanym sposobie, i gdy służy jako agent AI pojazdu, mógłby wykonać polecenia przez conversational, swobodny język. Na przykład, agent mógłby dostosować temperaturę w kabinie, jeśli kierowca powiedział po prostu “jestem zimny”, lub odpowiedzieć na提示, takie jak “jadę do Bostonu jutro, co powinienem nosić?” sprawdzając pogodę i oferując sugestię.

Ponieważ działają one lokalnie i nie zależą od chmury, ci agenci nadal działają w strefach ślepych lub obszarach ze słabą łącznością, takich jak tunele, góry czy drogi wiejskie. Poprawiają również bezpieczeństwo, dając kierowcom pełną kontrolę głosową bez odwracania uwagi od drogi. I, na oddzielną i lżejszą notatkę, pomyślałem, że również wspomnę, że obecnie jesteśmy w trakcie wprowadzania modelu AI karaoke dla pojazdów i głośników Bluetooth do produkcji, który działa lokalnie, jak współpilot. Podstawowo, bierze on dowolne dane audio i usuwa ludzkie głosy z nich, co pozwala utworzyć wersję karaoke dowolnej piosenki w czasie rzeczywistym. Więc oprócz pomocy klientom w bezpiecznym zarządzaniu kontrolami w samochodzie, szukamy również sposobów, aby uczynić doświadczenie bardziej przyjemnym.

Te rodzaje rozwiązań, które mają znaczącą różnicę w codziennym życiu ludzi, są tymi, których jesteśmy najbardziej dumni.

Aizip rozwija ultra-wydajne rozwiązania AI zoptymalizowane dla urządzeń brzegowych, oferując kompaktowe modele dla wizji, audio, szeregów czasowych, języka i aplikacji fuzji sensorów. Jego produkty umożliwiają zadania takie jak rozpoznawanie twarzy i obiektów, wykrywanie słów kluczowych, analiza ECG/EEG i czatboty na urządzeniu, wszystko napędzane przez TinyML. Za pomocą platformy AI nanofactory, Aizipline, firma przyspiesza rozwój modeli za pomocą modeli podstawowych i generatywnych, aby zbliżyć się do pełnej automatyzacji projektowania AI. Seria Aizip Gizmo małych modeli językowych (300M–2B parametrów) obsługuje szeroki zakres urządzeń, wprowadzając inteligentne możliwości na brzeg.

Dziękujemy za wspaniały wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Aizip.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.