Interviste
Yubei Chen, Co-Fondatore di Aizip Inc – Serie di Interviste

Yubei Chen è co-fondatore di Aizip inc., un’azienda che costruisce i modelli di intelligenza artificiale più piccoli e efficienti del mondo. È anche professore assistente nel dipartimento di Ingegneria Elettrica e Informatica (ECE) all’Università della California, Davis. La ricerca di Chen si trova all’intersezione della neuroscienza computazionale e dell’apprendimento non supervisionato (auto-supervisionato), migliorando la nostra comprensione dei principi computazionali che governano l’apprendimento di rappresentazioni non supervisionate sia nel cervello che nelle macchine, e ridefinendo le nostre conoscenze sulla statistica dei segnali naturali.
Prima di unirsi all’UC Davis, Chen ha completato il suo post-dottorato con il prof. Yann LeCun al NYU Center for Data Science (CDS) e Meta Fundamental AI Research (FAIR). Ha completato il suo dottorato al Redwood Center for Theoretical Neuroscience e Berkeley AI Research (BAIR), UC Berkeley, sotto la supervisione del prof. Bruno Olshausen.
Aizip sviluppa soluzioni di intelligenza artificiale ultra-efficienti ottimizzate per dispositivi edge, offrendo modelli compatti per applicazioni di visione, audio, serie temporali, linguaggio e fusione di sensori. I suoi prodotti abilitano attività come il riconoscimento di volti e oggetti, il riconoscimento di parole chiave, l’analisi ECG/EEG e i chatbot sul dispositivo, tutti alimentati da TinyML. Attraverso la sua piattaforma di nanofabbrica di intelligenza artificiale, Aizipline, l’azienda accelera lo sviluppo del modello utilizzando modelli di base e generativi per spingere verso l’automazione completa della progettazione dell’intelligenza artificiale. La serie di modelli linguistici piccoli (300M-2B parametri) di Aizip supporta una vasta gamma di dispositivi, portando capacità intelligenti ai margini.
Ha fatto il post-dottorato con Yann LeCun al NYU e Meta FAIR. Come ha influenzato il suo approccio alla costruzione di soluzioni di intelligenza artificiale nel mondo reale il lavoro con lui e la sua ricerca all’UC Berkeley?
A Berkeley, il mio lavoro era profondamente radicato nella ricerca scientifica e nella rigore matematico. La mia ricerca di dottorato, che combinava ingegneria elettrica, informatica e neuroscienza computazionale, si concentrava sulla comprensione dei sistemi di intelligenza artificiale da una prospettiva “white-box”, o sviluppando metodi per rivelare le strutture sottostanti dei dati e dei modelli di apprendimento. Ho lavorato sulla costruzione di modelli di intelligenza artificiale interpretabili e ad alte prestazioni e tecniche di visualizzazione che aiutavano ad aprire i sistemi di intelligenza artificiale “black-box”.
Al Meta FAIR, l’attenzione si è concentrata sull’ingegneria dei sistemi di intelligenza artificiale per raggiungere prestazioni di stato dell’arte su larga scala. Con l’accesso a risorse computazionali di classe mondiale, ho esplorato i limiti dell’apprendimento auto-supervisionato e ho contribuito a ciò che ora chiamiamo “modelli del mondo” – sistemi di intelligenza artificiale che apprendono dai dati e immaginano ambienti possibili. Questa doppia esperienza – comprensione scientifica a Berkeley e ingegneria guidata dalla scala a Meta – mi ha dato una prospettiva completa sullo sviluppo dell’intelligenza artificiale. Ha sottolineato l’importanza che sia la comprensione teorica che l’implementazione pratica hanno quando si sviluppano soluzioni di intelligenza artificiale per applicazioni nel mondo reale.
Il suo lavoro combina la neuroscienza computazionale con l’intelligenza artificiale. Come le intuizioni dalla neuroscienza influenzano il modo in cui sviluppa i modelli di intelligenza artificiale?
Nella neuroscienza computazionale, studiamo come il cervello elabora le informazioni misurando le sue risposte a vari stimoli, proprio come facciamo per comprendere i meccanismi interni dei modelli di intelligenza artificiale. All’inizio della mia carriera, ho sviluppato tecniche di visualizzazione per analizzare le rappresentazioni di parole – scomponendo parole come “mela” nei loro elementi semantici costituenti, come “frutto” e “tecnologia”. Successivamente, questo approccio si è esteso a modelli di intelligenza artificiale più complessi come i trasformatori e i grandi modelli linguistici, che hanno aiutato a rivelare come essi elaborino e memorizzino le conoscenze.
Questi metodi sono in realtà paralleli alle tecniche utilizzate nella neuroscienza, come l’uso di elettrodi o fMRI per studiare l’attività cerebrale. L’analisi delle rappresentazioni interne di un modello di intelligenza artificiale ci consente di comprendere le sue strategie di ragionamento e di rilevare proprietà emergenti, come i neuroni di concetto che si attivano per idee specifiche (come la caratteristica del Golden Gate Bridge che Anthropic ha trovato quando ha mappato Claude). Questa linea di ricerca è ora ampiamente adottata nell’industria perché si è dimostrata in grado di abilitare sia l’interpretazione che gli interventi pratici, rimuovendo i pregiudizi dai modelli. Quindi, gli approcci ispirati alla neuroscienza ci aiutano a rendere l’intelligenza artificiale più spiegabile, affidabile ed efficiente.
Cosa l’ha ispirato a co-fondare Aizip? Può condividere il viaggio dalla concezione al lancio dell’azienda?
Come ricercatore fondamentale di intelligenza artificiale, gran parte del mio lavoro era teorico, ma volevo colmare il divario tra la ricerca e le applicazioni nel mondo reale. Ho co-fondato Aizip per portare le innovazioni di intelligenza artificiale all’avanguardia nell’uso pratico, in particolare in ambienti con risorse limitate. Invece di costruire grandi modelli di base, ci siamo concentrati sullo sviluppo dei modelli di intelligenza artificiale più piccoli e efficienti del mondo, ottimizzati per dispositivi edge.
Il viaggio è fondamentalmente iniziato con un’osservazione chiave: mentre i progressi dell’intelligenza artificiale si stavano rapidamente ampliando, le applicazioni nel mondo reale richiedevano spesso modelli leggeri e altamente efficienti. Abbiamo quindi visto un’opportunità per aprire una nuova direzione che bilanciasse la rigore scientifica con la distribuzione pratica. Sfruttando le intuizioni dell’apprendimento auto-supervisionato e delle architetture di modelli compatti, Aizip è stata in grado di offrire soluzioni di intelligenza artificiale che operano efficientemente ai margini e aprono nuove possibilità per l’intelligenza artificiale nei sistemi incorporati, IoT e oltre.
Aizip si concentra su modelli di intelligenza artificiale piccoli per dispositivi edge. Qual è il divario nel mercato che ha portato a questo focus?
L’industria dell’intelligenza artificiale si è largamente concentrata sull’ampliamento dei modelli, ma le applicazioni nel mondo reale richiedono spesso il contrario – alta efficienza, basso consumo di energia e minima latenza. Molti modelli di intelligenza artificiale oggi sono troppo costosi in termini computazionali per essere distribuiti su dispositivi incorporati piccoli. Abbiamo visto un divario nel mercato per soluzioni di intelligenza artificiale che potessero offrire prestazioni solide mentre operavano all’interno di vincoli di risorse estremi.
Abbiamo riconosciuto che non è necessario che ogni applicazione di intelligenza artificiale funzioni su modelli massicci, e che non sarebbe neanche scalabile fare affidamento su modelli di quella dimensione per tutto. Invece, ci concentriamo sull’ottimizzazione degli algoritmi per raggiungere la massima efficienza mantenendo l’accuratezza. Progettando modelli di intelligenza artificiale adattati per applicazioni edge – sia in sensori intelligenti, dispositivi indossabili o automazione industriale – abilitiamo l’intelligenza artificiale a funzionare in luoghi in cui i modelli tradizionali sarebbero impraticabili. Il nostro approccio rende l’intelligenza artificiale più accessibile, scalabile ed efficiente in termini energetici, sbloccando nuove possibilità per l’innovazione guidata dall’intelligenza artificiale al di là del cloud.
Aizip è stata all’avanguardia nello sviluppo di Small Language Models (SLM). Come vede SLM in competizione o complemento con modelli più grandi come GPT-4?
SLM e modelli più grandi come GPT-4 non sono necessariamente in competizione diretta perché servono esigenze diverse. I modelli più grandi sono potenti in termini di generalizzazione e ragionamento profondo, ma richiedono risorse computazionali sostanziali. SLM sono progettati per l’efficienza e la distribuzione su dispositivi edge a bassa potenza. Complementano i modelli più grandi abilitando le capacità di intelligenza artificiale in applicazioni del mondo reale in cui la potenza di calcolo, la latenza e i costi sono importanti – come nei dispositivi IoT, nei dispositivi indossabili e nell’automazione industriale. Man mano che l’adozione dell’intelligenza artificiale cresce, vediamo emergere un approccio ibrido, in cui i modelli cloud-based più grandi gestiscono query complesse mentre SLM forniscono intelligenza localizzata in tempo reale ai margini.
Quali sono le sfide tecniche più grandi nel rendere i modelli di intelligenza artificiale abbastanza efficienti per dispositivi edge a bassa potenza?
Una delle sfide fondamentali è la mancanza di una comprensione teorica completa di come funzionano i modelli di intelligenza artificiale. Senza una solida base teorica, gli sforzi di ottimizzazione sono spesso empirici, limitando i guadagni di efficienza. Inoltre, l’apprendimento umano avviene in modi diversi che i paradigmi di apprendimento automatico attuali non catturano completamente, rendendo difficile progettare modelli che mimino l’efficienza umana.
Dal punto di vista ingegneristico, spingere l’intelligenza artificiale a funzionare all’interno di vincoli estremi richiede soluzioni innovative nella compressione del modello, quantizzazione e progettazione dell’architettura. Un’altra sfida è creare modelli di intelligenza artificiale che possano adattarsi a una varietà di dispositivi e ambienti mantenendo la robustezza. Man mano che l’intelligenza artificiale interagisce sempre più con il mondo fisico attraverso IoT e sensori, la necessità di interfacce naturali ed efficienti – come voce, gesto e altri input non tradizionali – diventa critica. L’intelligenza artificiale ai margini è questione di ridefinire come gli utenti interagiscono con il mondo digitale in modo fluido.
Può condividere alcuni dettagli sul lavoro di Aizip con aziende come Softbank?
Abbiamo recentemente collaborato con SoftBank in un progetto di acquacoltura che ha vinto un premio CES Innovation Award – uno di cui siamo particolarmente orgogliosi. Abbiamo sviluppato un modello di intelligenza artificiale efficiente e basato su edge per un’applicazione di conteggio dei pesci che può essere utilizzata dagli operatori di acquacoltura per le aziende di allevamento di pesci. Questa soluzione affronta una sfida critica nell’allevamento di pesci che può creare problemi di sostenibilità, sprechi di cibo e profitti. L’industria è stata lenta nell’adottare l’intelligenza artificiale come soluzione a causa della mancanza di affidabilità della potenza e della connettività in mare, rendendo impraticabili le soluzioni di intelligenza artificiale basate su cloud.
Per risolvere questo problema, abbiamo sviluppato una soluzione basata su dispositivo. Abbiamo combinato le simulazioni grafiche computerizzate di SoftBank per i dati di addestramento con i nostri modelli di intelligenza artificiale compatti e creato un sistema altamente preciso che funziona su smartphone. Nei test sul campo sottomarino, ha raggiunto un tasso di riconoscimento del 95%, migliorando drasticamente l’accuratezza del conteggio dei pesci. Ciò ha permesso ai coltivatori di ottimizzare le condizioni di stoccaggio, determinare se i pesci dovrebbero essere trasportati vivi o congelati e rilevare potenziali malattie o altri problemi di salute nei pesci.
Quella svolta migliora l’efficienza, riduce i costi e riduce la dipendenza dal lavoro manuale. Più in generale, mostra come l’intelligenza artificiale possa avere un impatto tangibile sui problemi del mondo reale.
Aizip ha introdotto il concetto di “AI Nanofactory”. Potrebbe spiegare cosa significa e come automa lo sviluppo del modello di intelligenza artificiale?
La AI Nanofactory è la nostra pipeline di automazione della progettazione dell’intelligenza artificiale interna, ispirata all’Electronic Design Automation (EDA) nella produzione di semiconduttori. Lo sviluppo iniziale in qualsiasi campo tecnologico emergente richiede molto lavoro manuale, quindi l’automazione diventa chiave per accelerare i progressi e scalare le soluzioni man mano che il campo matura.
Invece di utilizzare semplicemente l’intelligenza artificiale per accelerare altre industrie, ci siamo chiesti: può l’intelligenza artificiale accelerare il proprio sviluppo? La AI Nanofactory automatizza ogni fase dello sviluppo del modello di intelligenza artificiale, dalla elaborazione dei dati alla progettazione dell’architettura, alla selezione del modello, all’addestramento, alla quantizzazione, alla distribuzione e al debug. Sfruttando l’intelligenza artificiale per ottimizzare se stessa, siamo stati in grado di ridurre il tempo di sviluppo per nuovi modelli di un fattore medio di 10. In alcuni casi, di oltre 1.000 volte. Ciò significa che un modello che una volta richiedeva oltre un anno per essere sviluppato può ora essere creato in poche ore.
Un altro vantaggio è che questa automazione assicura anche che le soluzioni di intelligenza artificiale siano economicamente sostenibili per una vasta gamma di applicazioni, rendendo la distribuzione dell’intelligenza artificiale nel mondo reale più accessibile e scalabile.
Come vede l’evoluzione del ruolo dell’intelligenza artificiale ai margini nei prossimi cinque anni?
L’intelligenza artificiale ai margini promette di trasformare il modo in cui interagiamo con la tecnologia, simile a come gli smartphone hanno rivoluzionato l’accesso a Internet. La maggior parte delle applicazioni di intelligenza artificiale oggi sono basate su cloud, ma questo sta iniziando a cambiare man mano che l’intelligenza artificiale si avvicina ai sensori e ai dispositivi che interagiscono con il mondo fisico. Questo spostamento sottolinea una necessità critica di elaborazione efficiente e in tempo reale ai margini.
Nei prossimi cinque anni, ci aspettiamo che l’intelligenza artificiale ai margini abiliti interazioni uomo-macchina più naturali, come il riconoscimento vocale e gestuale e altre interfacce intuitive, che rimuoverebbero la dipendenza dalle barriere tradizionali come tastiere e schermi touch. L’intelligenza artificiale è anche attesa diventare più integrata negli ambienti di tutti i giorni come le case intelligenti o l’automazione industriale per abilitare la presa di decisioni in tempo reale con minima latenza.
Un’altra tendenza chiave sarà l’aumento dell’autonomia dei sistemi di intelligenza artificiale ai margini. I modelli di intelligenza artificiale diventeranno più auto-ottimizzanti e adattivi grazie ai progressi nell’automazione dello stile AI Nanofactory, quindi ridurranno la necessità di intervento umano nella distribuzione e nella manutenzione. Ciò aprirà nuove opportunità in vari settori come sanità, automotive e agricoltura.
Quali sono alcuni dispositivi alimentati da intelligenza artificiale di prossima uscita da Aizip che la emozionano di più?
Stiamo lavorando per espandere i casi d’uso per i nostri modelli in nuovi settori, e uno di cui siamo particolarmente entusiasti è un agente di intelligenza artificiale per il settore automobilistico. C’è una crescente tendenza, in particolare tra i costruttori di automobili cinesi, a sviluppare assistenti vocali alimentati da modelli linguistici che si sentono più come ChatGPT all’interno dell’abitacolo. La sfida è che la maggior parte degli assistenti attuali dipende ancora dal cloud, specialmente per il dialogo naturale e flessibile. Solo le attività di controllo di base (come “accendi l’aria condizionata” o “apri il bagagliaio”) di solito funzionano localmente sul veicolo, e la natura rigida di quei comandi può diventare una distrazione per i guidatori se non li hanno memorizzati con precisione assoluta.
Abbiamo sviluppato una serie di agenti di intelligenza artificiale ultra-efficienti e alimentati da SLM chiamati Gizmo che sono attualmente utilizzati in una serie di applicazioni per diversi settori, e stiamo lavorando per distribuirli come “co-piloti” di cabina per veicoli. Gizmo è stato addestrato a comprendere l’intento in modo più sfumato e, quando funge da agente di intelligenza artificiale del veicolo, potrebbe eseguire comandi attraverso un linguaggio conversazionale e libero. Ad esempio, l’agente potrebbe regolare la temperatura della cabina se un guidatore semplicemente dicesse “Ho freddo” o rispondere a un prompt come “Domani sto guidando a Boston, cosa dovrei indossare?” controllando il meteo e offrendo una suggestione.
Poiché funzionano localmente e non dipendono dal cloud, questi agenti continuano a funzionare nelle aree morte o in zone con scarsa connettività, come tunnel, montagne o strade rurali. Migliorano anche la sicurezza fornendo ai guidatori il controllo completo della voce senza distogliere l’attenzione dalla strada. E, a titolo di nota più leggera, sto anche lavorando per mettere in produzione un modello di karaoke alimentato da intelligenza artificiale per veicoli e altoparlanti Bluetooth, che funziona localmente come il co-pilota. Fondamentalmente, prende qualsiasi input audio e rimuove le voci umane, consentendo di creare una versione karaoke di qualsiasi canzone in tempo reale. Quindi, oltre ad aiutare i clienti a gestire i controlli in auto in modo più sicuro, stiamo anche cercando modi per rendere l’esperienza più divertente.
Queste sono le soluzioni che fanno una differenza significativa nella vita quotidiana delle persone, e sono quelle di cui siamo più orgogliosi.
Aizip sviluppa soluzioni di intelligenza artificiale ultra-efficienti ottimizzate per dispositivi edge, offrendo modelli compatti per applicazioni di visione, audio, serie temporali, linguaggio e fusione di sensori. I suoi prodotti abilitano attività come il riconoscimento di volti e oggetti, il riconoscimento di parole chiave, l’analisi ECG/EEG e i chatbot sul dispositivo, tutti alimentati da TinyML. Attraverso la sua piattaforma di nanofabbrica di intelligenza artificiale, Aizipline, l’azienda accelera lo sviluppo del modello utilizzando modelli di base e generativi per spingere verso l’automazione completa della progettazione dell’intelligenza artificiale. La serie di modelli linguistici piccoli (300M-2B parametri) di Aizip supporta una vasta gamma di dispositivi, portando capacità intelligenti ai margini.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Aizip.












