Interviste
Blair Newman, CTO di Neuton – Serie di Interviste

Blair Newman, è il CTO di Neuton, un framework di reti neurali rivoluzionario e una soluzione di apprendimento automatico (AutoML) che è molto più efficace di qualsiasi altro framework, algoritmo non neurale o prodotto AutoML disponibile sul mercato. Rende l’Intelligenza Artificiale (AI) accessibile a tutti.
cosa ti ha inizialmente attratto verso il machine learning e la scienza dei dati?
Da un punto di vista personale, sono sempre stato affascinato dalle possibilità che il ML/la scienza dei dati possono offrire, come ad esempio – dalle Smart City – alle Connected Car e ora anche a ciò che può offrire il TinyML. Ora, con la democratizzazione dell’AI, stiamo letteralmente vedendo il ML ovunque.
Puoi condividere la storia di genesi di Neuton?
Abbiamo deciso di intraprendere il viaggio per rendere l’AI disponibile a “tutti” dopo molti anni di esecuzione di numerosi progetti da una prospettiva di apprendimento automatico. Durante questo periodo, abbiamo identificato una serie di barriere che limitavano la crescita esponenziale. Quindi, per rendere veramente il ML disponibile a tutti… dovevamo affrontare alcune delle barriere tecniche che esistevano…. I requisiti per quantità significative di dati per l’addestramento… Una soluzione SaaS automatizzata per eliminare la necessità di competenze tecniche…. E infine, rendere la nostra piattaforma disponibile gratuitamente per rimuovere l’ultima barriera.
Per i lettori che potrebbero non essere familiari con questa terminologia, potresti definire cosa è il TinyML?
Mi piace generalmente tenere le cose semplici…. Il mondo fisico incontra il mondo digitale…. E dove queste due entità si intersecano… è il mondo del TinyML…. Il TinyML porta l’intelligenza proprio su quel bordo.
Cosa sta impedendo l’accelerazione del TinyML nella comunità AI?
Il TinyML richiede generalmente una quantità enorme di capitali da un punto di vista delle risorse. HW, ingegneri embedded, ingegneri di apprendimento automatico, sviluppatori software per l’integrazione…. Una delle aree in cui noi eccelliamo è che collassiamo significativamente questi requisiti.
Come fa Neuton a creare modelli compatibili senza compromettere l’accuratezza?
I framework tradizionali e più noti (ad es. TensorFlow) partono da una struttura preesistente che inerentemente include sprechi. Inoltre, la costruzione di un modello è spesso un processo molto iterativo che, una volta costruito il modello, deve essere ottimizzato prima dell’integrazione. Questo è ciò che io chiamo un approccio top-down. Con Neuton, capovolgiamo completamente questo paradigma, poiché costruiamo ogni modello dal basso verso l’alto, un neurone alla volta, eliminando efficacemente gli sprechi inerenti ai altri framework. Ciò detto, la struttura della rete non è predefinita, ma cresce da un singolo neurone durante l’addestramento. Abbiamo accoppiato questo approccio con una convalida incrociata costante, poiché ogni neurone viene applicato al modello risultante. Quindi, il modello finale è sempre costruito per uno scopo specifico, senza sprechi e accurato al completamento.
Neuton non utilizza la backpropagation o il gradient descent stocastico, qual è il ragionamento dietro l’evitare queste metodologie popolari?
Il nostro approccio brevettato utilizza una metodologia di ottimizzazione globale che elimina efficacemente la necessità di applicare queste metodologie.
Quanto più efficiente è la soluzione Neuton rispetto ai tradizionali approcci di apprendimento automatico?
In tutte le metriche chiave come il tempo di creazione del modello, l’accuratezza, la dimensione del modello e, di conseguenza, il tempo di mercato. Costantemente vediamo che superiamo altri framework e piattaforme…. Normalmente vediamo che i nostri modelli sono spesso 1000 volte più piccoli, con un tempo di mercato ridotto del 70%. Infine, il nostro Ufficio di spiegabilità è seconda a nessuno nel fornire una completa trasparenza dei nostri modelli, insieme a ogni previsione individuale.
Potresti fornire alcuni dettagli sulla spiegabilità dell’AI che la piattaforma Neuton offre?
Il nostro Ufficio di spiegabilità arriva in molte forme. Iniziando prima con il nostro strumento di Analisi dei dati esplorativa (EDA) che fornisce una visione iniziale delle statistiche dei dati prima dell’addestramento. Da lì, la nostra matrice di importanza delle caratteristiche consente ai nostri clienti di identificare quali sono le prime 10 caratteristiche che influenzano le loro previsioni e anche quali sono le ultime 10 caratteristiche che hanno un’influenza minima sulle loro previsioni. Da lì, offriamo ai nostri clienti un ulteriore livello di trasparenza dei loro modelli risultanti, poiché sono in grado di analizzare ogni previsione individualmente per vedere come la loro previsione potrebbe cambiare se il valore di una data caratteristica cambia. Infine, forniamo uno strumento di gestione del ciclo di vita (indicatore di rilevanza modello-dati) che avvisa proattivamente i nostri clienti quando il loro modello inizia a decadere e il loro modello deve essere riaddestrato.
C’è qualcos’altro che vorresti condividere su Neuton?
La nostra missione qui a Neuton è letteralmente portare l’AI a tutti. Crediamo di essere stati efficaci nel realizzare queste possibilità. Sia che si tratti di abilitare il non-scienziato dei dati o di potenziare lo scienziato dei dati stagionato, fornendo una soluzione SaaS a codice zero. Ora, con l’accelerazione del TinyML, siamo sulla strada giusta per veramente democratizzare l’AI.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Neuton.












