Hjerne-maskin-grensesnitt
Max Versace, CEO og medgrunnlegger av Neurala – Intervju-serie

Dr. Massimiliano Versace er medgrunnlegger og CEO av Neurala, og selskapets visjonær. Etter hans pionerforskning innen hjernen-inspirert datamaskiner og dype nettverk, fortsetter han å inspirere og lede verden av autonome roboter. Han har talt på dusinvis av arrangementer og steder, inkludert TedX, NASA, Pentagon, GTC, InterDrone, National Labs, Air Force Research Labs, HP, iRobot, Samsung, LG, Qualcomm, Ericsson, BAE Systems, AI World, Mitsubishi, ABB og Accenture, blant mange andre.
Du studerte først psykologi og så skiftet til nevrovitenskap, hva var din begrunnelse på den tiden?
Skiftet var naturlig. Psykologi ga en side av “trening-mynten” – studiet av psykologiske fenomener. Men hvis en er interessert i hva som mekanisk årsaker tanker og atferd, havner en uunngåelig på å studere organet som er ansvarlig for tanker, og ender opp med å studere nevrovitenskap!
Når ble du klar over at du ville bruke din forståelse av menneskehjernen til å etterligne menneskehjernen i et AI-system?
Neste skritt, nevrovitenskap til AI, er vanskeligere. Mens nevrovitenskap er opptatt av det detaljerte studiet av anatomien og fysiologien til nervesystemet og hvordan hjerner gir opphav til atferd, er en annen komplementær vei til å oppnå en enda større forståelse å bygge en syntetisk versjon av dem. En analogi jeg liker å gi er at en kan få en delvis forståelse av hvordan en motor fungerer ved å fjerne en sylinder og radiatoren og konkludere med at sylindere og radiatorene er viktige i motorfunksjon. En annen dypere måte å forstå en motor er å bygge en fra scratch – nemlig ved å studere intelligens ved å bygge en syntetisk (kunstig) versjon av den.
Hva er noen av de tidlige dype læringsprosjektene du arbeidet på?
I 2009 for DARPA arbeidet vi på å bygge en “helhjernsimulering” for en autonom robot ved hjelp av en avansert chip designet av Hewlett Packard. I en nøttshell, vår oppgave var å simulere hjernen og noen av de viktigste autonome og læringsatferdene til en liten gnager i en størrelse som ville gjøre den egnet til å være bærbar og implementert i små hårdvarer.
Kunne du dele opphavsfortellingen om Neurala?
Neurala som selskap startet i 2006 for å inneholde noen patenter rundt bruk av GPU (Grafikkprosessorer) for dypt læringsarbeid. Mens dette kan være betraktet som trivialt i dag, ble GPU-er ikke brukt til AI på den tiden, og vi banebrytende konseptet ved å forestille seg at hver piksel i en grafikkort kunne brukes til å prosessere en neuron (i motsetning til en del av en scene som skulle rendres på skjermen). Takk til parallelle prosesser i GPU-er, som ligner vår hjerne parallellt til en (kommercielt viable) grad, var vi i stand til å oppnå lærings- og kjørehastighet for våre algoritmer som plutselig gjorde AI og dypt læringsarbeid praktisk. Vi måtte vente noen flere år til å forlate akademia da verden “fattet” (vi var allerede faste troende!) på realiteten til AI. I 2013, tok vi selskapet ut av stealth-modus, (da vi allerede var finansiert av NASA og US Air Force Research Labs) og gikk inn i Boston Tech Stars-programmet. Derfra, startet vi å ansette noen ansatte og samlet inn privat kapital. Likevel, var det ikke før 2017 at, med en fersk injeksjon av kapital og industrien modnet ytterligere, vi var i stand til å lande de første viktige utrullinger og plassere vår AI i 56 millioner enheter, fra kameraer til smarttelefoner, droner og roboter.
En av Neuralas tidlige prosjekter var å arbeide på NASAs Mars-rover. Kunne du dele noen høydepunkter fra dette prosjektet?
NASA hadde et svært spesifikt problem: de ønsket å utforske teknologi til å strømme fremtidige ubemannede oppdrag, hvor det autonome systemet (f.eks. en rover) ikke ville være avhengig av jordens kontrollstasjon trinn-for-trinn-guidance. Kommunikasjonsforsinkelser gjør denne kontrollen umulig – bare husk hvor klønete kommunikasjonen var mellom jorden og Matt Damon i filmen “The Martian”. Vår løsning: gi hver rover en hjernen av sin egen. NASA vendte seg til oss, da vi allerede var sett på som ekspert i å bygge disse autonome “mini-hjernene” med DARPA, for å gi en rover en liten-faktor dypt læringsystem i stand til ikke bare å kjøre på roboten, men også til å tilpasse seg i sanntid og lære nye ting mens roboten opererer. Dette inkluderer nye objekter (f.eks. steiner, tegn på vann osv.) mens de møtes og skaper en meningsfull kart over en uutforsket planet. Utfordringen var enorm, men like stor var gevinsten: en dypt lærings-teknologi som var i stand til å kjøre på en svært liten prosesseringskraft og lære på selv ett enkelt data (f.eks. et bilde). Dette gikk utenfor hva dypt læringsarbeid var i stand til å oppnå på den tiden (og selv i dag!).
Neurala har designet Lifelong-DNN, kan du forklare hvordan dette skiller seg fra et vanlig DNN og hvilke fordeler det tilbyr?
Designet for NASA-bruks tilfelle ovenfor, Lifelong DNN, som navnet indikerer, kan lære gjennom hele sin livssyklus. Dette er i motsetning til tradisjonelle dype neurale nettverk (DNN), som kan være enten trenet, eller utføre en “inference” (navnlig, en klassifisering). I L-DNN, som hos mennesker, er det ingen forskjell på å lære og klassifisere. Hver gang vi ser på noe, både “klassifiserer” vi det (dette er en stol) og lærer om det (dette er en ny stol, har aldri sett den før, nå vet jeg litt mer om den). Forskjellig fra DNN, er L-DNN alltid lærende og konfronterer hva den vet om verden, hva ny informasjon presenteres, og er naturlig i stand til å forstå anomali. For eksempel, hvis en av mine barn spilte en spøk på meg og malte min stol rosa, ville jeg gjenkjenne den med en gang. Siden min L-DNN har lært over tid at min stol er svart, og når min oppfattning av den ikke matcher minnet av den, ville L-DNN produsere en anomali-signal. Dette brukes i Neuralas produkter på ulike måter (Se nedenfor).
Kan du diskutere hva Brain Builder custom vision AI er, og hvordan det muliggjør raskere, enklere og mindre dyre robotikk-applikasjoner?
Siden L-DNN naturlig lærer om verden og kan forstå om noe er anomalt eller avviker fra en lært standard, brukes Neuralas produkt, Brain Builder og VIA (Visual Inspection Automation) til å raskt sette opp visuelle inspeksjonsoppgaver ved hjelp av bare noen få bilder av “god produkter”. For eksempel, i en produksjonssetting, kan en bruke 20 bilder av “god flaske” og skape en visuell kvalitetsinspeksjon “mini-hjerne” i stand til å gjenkjenne god flaske, eller når en dårlig flaske (f.eks. en med en ødelagt lokk) produseres. Dette kan gjøres med L-DNN svært enkelt, raskt og på en enkel CPU, ved å utnytte NASA-teknologien bygget over mer enn 10 år med intens R&D.
I en tidligere intervju anbefalte du at entreprenører alltid måtte sikte på å starte et bedrift som er litt umulig. Følte du at Neurala var litt umulig da du først lanserte selskapet?
Jeg husker fortsatt min venn og kollega, Anatoli, spyttet ut hans espresso da jeg sa “en dag vil vår teknologi kjøre på en mobiltelefon”. Det lød umulig, men alt du trengte å gjøre var å forestille seg og arbeide for det. I dag kjører det på millioner av telefoner. Vi forestiller oss en verden hvor tusenvis av kunstige øyne kan spore industrielle maskiner og prosesser for å gi et tidligere utenkeligt nivå av kvalitet og kontroll, tidligere umulig som de ville forbruke tusenvis av mennesker per maskin. Håper ingen drikker espresso mens de leser dette….
Takk for det flotte intervjuet, Neurala er tydeligvis et selskap som vi bør holde øye på. Lesere som ønsker å lære mer bør besøke Neurala.












