Interfejs mózg–maszyna
Max Versace, CEO i współzałożyciel Neurala – seria wywiadów

Dr Massimiliano Versace jest współzałożycielem i CEO Neurala, oraz wizjonerem firmy. Po swoich pionierskich badaniach w dziedzinie obliczeń inspirowanych mózgiem i głębokich sieci, nadal inspiruje i prowadzi świat autonomnej robotyki. Występował na dziesiątkach wydarzeń i w różnych miejscach, w tym TedX, NASA, Pentagon, GTC, InterDrone, National Labs, Air Force Research Labs, HP, iRobot, Samsung, LG, Qualcomm, Ericsson, BAE Systems, AI World, Mitsubishi, ABB i Accenture, oraz wielu innych.
Początkowo studiowałeś psychologię, a następnie zmieniłeś kierunek na neurobiologię, jaki był twój powód wówczas?
Zmiana była naturalna. Psychologia dostarczała jednej strony “monety szkoleniowej” – studiów zjawisk psychologicznych. Jednak jeśli ktoś jest zainteresowany tym, co mechanicznie powoduje myśli i zachowania, nieuchronnie ląduje na studiowaniu organu odpowiedzialnego za myśli, i kończy się na studiowaniu neurobiologii!
Kiedy zrozumiałeś, że chcesz zastosować swoją wiedzę o ludzkim mózgu do naśladownictwa ludzkiego mózgu w systemie AI?
Następny krok, neurobiologia do AI, jest trudniejszy. Podczas gdy neurobiologia zajmuje się szczegółowym badaniem anatomii i fizjologii układu nerwowego i jak mózgi dają początek zachowaniom, inną uzupełniającą ścieżką do osiągnięcia jeszcze głębszego zrozumienia jest zbudowanie syntetycznej wersji ich. Podobieństwo, które lubię podawać, to to, że można uzyskać częściowe zrozumienie, jak silnik działa, odkręcając cylinder i chłodnicę i dochodząc do wniosku, że cylindry i chłodnice są ważne w funkcjonowaniu silnika. Inny głębszy sposób zrozumienia silnika to zbudowanie go od podstaw – a mianowicie studiowanie inteligencji poprzez zbudowanie syntetycznej (sztucznej) wersji jej.
Jakie były niektóre z wczesnych projektów głębokiego uczenia się, nad którymi pracowałeś?
W 2009 roku dla DARPA pracowaliśmy nad zbudowaniem “całkowitej emulacji mózgu” dla autonomicznego robota przy użyciu zaawansowanego układu zaprojektowanego przez Hewlett Packard. W skrócie, naszym zadaniem było emulowanie mózgu i niektórych kluczowych autonomicznych i uczących się zachowań małego gryzonia w formie, która byłaby odpowiednia do przenoszenia i wdrożenia w małym sprzęcie.
Czy mógłbyś podzielić się historią powstania Neurala?
Neurala jako firma powstała w 2006 roku, aby zawrzeć niektóre prace patentowe związane z użyciem GPU (jednostek przetwarzania grafiki) do głębokiego uczenia się. Chociaż dzisiaj może to wydawać się trywialne, w tamtym czasie GPU nie były używane do AI, i my byliśmy pionierami tego pojęcia, wyobrażając sobie, że każdy piksel na karcie graficznej mógłby być użyty do przetwarzania neuronu (zamiast sekcji sceny do renderowania na ekranie). Dzięki równoległości GPU, która naśladuje nasz mózg w sposób (komercyjnie uzasadniony), byliśmy w stanie osiągnąć prędkość uczenia się i wykonywania naszych algorytmów, co nagle uczyniło AI i głębokie uczenie się praktycznymi. Musieliśmy poczekać kilka lat, aby opuścić środowisko akademickie, ponieważ świat “dogonił” (my już wierzyliśmy!) rzeczywistość AI. W 2013 roku, wyprowadziliśmy firmę z trybu ukrytego, (ponieważ byliśmy już finansowani przez NASA i US Air Force Research Labs) i weszliśmy do programu Boston Tech Stars. Stamtąd, zaczęliśmy zatrudniać kilku pracowników i pozyskać kapitał prywatny. Jednak dopiero w 2017 roku, z nowym zastrzykiem kapitału i dojrzałością branży, byliśmy w stanie osiągnąć pierwsze ważne wdrożenia i umieścić nasze AI w 56 milionach urządzeń, od kamer, telefonów komórkowych, dronów i robotów.
Jednym z wczesnych projektów Neurala było współpracowanie z NASA przy Mars Rover. Czy mógłbyś podzielić się z nami wyjątkami z tego projektu?
NASA miała bardzo konkretny problem: chcieli rozwijać technologię, która umożliwiłaby przyszłym bezzałogowym misjom, gdzie autonomiczny system (np. rover) nie będzie zależał od krok-po-kroku prowadzenia z centrum kontroli misji na Ziemi. Opóźnienia w komunikacji sprawiają, że ten rodzaj kontroli jest niemożliwy – wystarczy przypomnieć sobie, jak nieporadna była komunikacja między Ziemią a Mattem Damonem w filmie “Marsjanin”. Nasze rozwiązanie: wyposażyć każdy rover w swój własny mózg. NASA zwróciła się do nas, ponieważ byliśmy już uważani za ekspertów w budowaniu tych autonomicznych “mini-mózgów” z DARPA, aby wyposażyć rovera w mały, głęboki system uczenia się, który nie tylko mógłby działać na robocie, ale także dostosowywać się w czasie rzeczywistym i uczyć nowych rzeczy, podczas gdy robot działa. Obejmuje to nowe obiekty (np. skały, znaki wody itp.), gdy są one napotkane i tworzą znaczącą mapę niezbadanego planety. Wyzwanie było ogromne, ale tak samo jak i nagroda: technologia głębokiego uczenia się, która mogła działać na bardzo małej mocy przetwarzania i uczyć się nawet z jednego kawałka danych (np. obrazu). To przekraczało to, co głębokie uczenie się mogło osiągnąć w tamtym czasie (i nawet dzisiaj!).
Neurala zaprojektowała Lifelong-DNN, czy mógłbyś wyjaśnić, w jaki sposób różni się od zwykłego DNN i jakie są jego zalety?
Zaprojektowany dla przypadku użycia NASA powyżej, Lifelong DNN, jak sama nazwa wskazuje, może uczyć się przez cały cykl życia. To w przeciwieństwie do tradycyjnych głębokich sieci neuronowych (DNN), które mogą być albo szkolone, albo wykonywać “inferencję” (a mianowicie klasyfikację). W L-DNN, podobnie jak u ludzi, nie ma różnicy między uczeniem się a klasyfikacją. Każde spojrzenie na coś, zarówno “klasyfikuje” je (to jest krzesło), jak i uczy się o nim (to krzesło jest nowe, nigdy nie widziałem go wcześniej, teraz wiem o nim trochę więcej). Inaczej niż DNN, L-DNN jest zawsze uczący się i konfrontujący to, co wie o świecie, nowe informacje, i jest w stanie naturalnie zrozumieć anomalie. Na przykład, jeśli jedno z moich dzieci zagrało żart na mnie i pomalowało moje krzesło na różowo, rozpoznałbym je od razu. Ponieważ mój L-DNN nauczył się przez czas, że moje krzesło jest czarne, a gdy moje postrzeganie go nie zgadza się z moimi wspomnieniami o nim, L-DNN wyprodukowałby sygnał anomalii. To jest używane w produktach Neurala na różne sposoby (patrz poniżej).
Czy mógłbyś omówić, co to jest Brain Builder custom vision AI, i jak umożliwia szybsze, łatwiejsze i mniej kosztowne aplikacje robotyczne?
Ponieważ L-DNN naturalnie uczy się o świecie i może zrozumieć, czy coś jest anomalnym lub odbiega od nauczonego standardu, produkt Neurala, Brain Builder i VIA (Visual Inspection Automation) są używane do szybkiego ustawienia zadań inspekcji wizualnej przy użyciu tylko kilku obrazów “dobrych produktów”. Na przykład, w środowisku produkcyjnym, można użyć 20 obrazów “dobrych butelek” i stworzyć wizualną inspekcję jakości “mini-mózg”, który może rozpoznać dobre butelki, lub gdy zła butelka (np. z złamanym korkiem) jest produkowana. To można zrobić z L-DNN bardzo łatwo, szybko i na prostym procesorze, wykorzystując technologię NASA zbudowaną w ponad 10 latach intensywnych badań i rozwoju.
W poprzednim wywiadzie, zaleciłeś przedsiębiorcom, aby zawsze dążyli do rozpoczęcia działalności, która jest nieco niemożliwa. Czy czułeś, że Neurala była nieco niemożliwa, gdy po raz pierwszy uruchomiłeś firmę?
Wciąż pamiętam, jak mój przyjaciel i kolega, Anatoli, wypluł espresso, gdy powiedziałem “kiedyś nasza technologia będzie działać na telefonie komórkowym”. Brzmiało to niemożliwie, ale wszystko, co trzeba było zrobić, to wyobrazić sobie i pracować nad tym. Dzisiaj działa na milionach telefonów. Wyobrażamy sobie świat, w którym tysiące sztucznych oczu mogą dostrzec przemysłowe maszyny i procesy, aby zapewnić wcześniej niewyobrażalny poziom jakości i kontroli, co wcześniej było niemożliwe, ponieważ wymagałoby to tysiąca ludzi na maszynę. Mam nadzieję, że nikt nie pije espresso, czytając to….
Dziękujemy za wspaniały wywiad, Neurala jest firmą, którą powinniśmy mieć na radarze. Czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Neurala.












