Intervjuer
Blair Newman, CTO på Neuton – Intervjuserie

Blair Newman, är CTO på Neuton, ett banbrytande Neural Network Framework och Automated Machine Learning (AutoML)-lösning som är betydligt mer effektiv än något annat ramverk, icke-neuralt algoritm eller AutoML-produkt som finns tillgänglig på marknaden. Det gör Artificiell Intelligens (AI) tillgänglig för alla.
Vad var det som initialt drog dig till maskinlärande och datavetenskap?
Ur ett personligt perspektiv har jag alltid varit fascinerad av de möjligheter som ML/Data Science kan erbjuda, såsom – Från Smarta Städer – Anslutna Bilar och nu vad TinyML också kan erbjuda. Nu med demokratiseringen av AI ser vi bokstavligen ML Överallt.
Kan du dela berättelsen om Neutons ursprung?
Vi beslutade att påbörja resan med att göra AI tillgänglig för “alla” efter många år av att arbeta med flera projekt ur ett maskinlärandeperspektiv. Under denna period identifierade vi ett antal olika barriärer som begränsade exponentiell tillväxt. Så för att verkligen göra ML tillgänglig för alla… Vi behövde hantera några av de tekniska barriärerna som fanns…. Kraven på stora mängder data för att utföra träning… En Automatiserad SaaS-lösning för att eliminera behovet av teknisk expertis…. Sedan sist göra vår plattform tillgänglig gratis för att ta bort den sista barriären.
För läsare som kanske inte är bekanta med denna terminologi, kan du definiera vad TinyML är?
Jag föredrar att hålla det enkelt…. Den fysiska världen möter den digitala världen…. Och där dessa två entiteter möts… är världen av TinyML…. TinyML bringar intelligens rakt till kanten.
Vad hindrar accelerationen av TinyML i AI-samhället?
TinyML kräver vanligtvis en enorm mängd kapital ur ett resursperspektiv. HW, Embedded Engineers, Machine Learning Engineer, Software Developers för integration…. En av områdena där vi excellerar är att vi kollapsar dessa krav betydligt.
Hur skapar Neuton kompakta modeller utan att kompromissa med noggrannhet?
De traditionella och mer kända ramverken (t.ex. TensorFlow) börjar med en förutbefintlig struktur som inneboende innehåller slöseri. Dessutom är byggandet av en modell ofta en mycket iterativ process som sedan, när modellen är byggd, måste optimeras före integration. Detta är vad jag kallar en top-down-approach. Med Neuton vänder vi på denna paradigm helt och hållet, eftersom vi bygger varje modell från botten och upp, en neuron i taget, och effektivt eliminerar det inbyggda slöseriet som upplevs med andra ramverk. Detta sagt – nätverksstrukturen är inte fördefinierad, men växer från en enda neuron under träning. Vi kopplar denna approach med konstant korsvalidering när varje neuron appliceras på den resulterande modellen. Så, den slutliga modellen är alltid byggd för ändamål, utan slöseri och exakt vid slutförandet.
Neuton använder inte backpropagation eller stokastisk gradientnedgång, vad var resonemanget bakom att undvika dessa populära metoder?
Vår patenterade approach använder en Global Optimeringsmetodik som effektivt eliminerar behovet av att applicera dessa metoder.
Hur mycket mer effektiv är Neuton-lösningen jämfört med traditionella maskinlärande-approcher?
I alla nyckelmetricer som tiden till modellskapande, noggrannhet, modellstorlek och därmed tiden till marknaden. Vi ser konsekvent att vi presterar bättre än andra ramverk och plattformar…. Vanligtvis upplever vi att våra modeller ofta är 1000 gånger mindre med en reducerad tid till marknaden med över 70%. Slutligen är vår Explainability Office utan like i att tillhandahålla fullständig transparens för våra modeller tillsammans med varje enskild prediktion.
Kan du tillhandahålla några detaljer om AI-förklarbarhet som Neuton-plattformen erbjuder?
Vår Explainability Office kommer i flera former. Först och främst med vår EDA (Exploratory Data Analysis)-verktyg som tillhandahåller en initial vy av statistiken för din data före träning. Därifrån kan våra kunder identifiera vilka är de topp 10 funktionerna som påverkar deras prediktioner och också vilka är de botten 10 funktionerna som har minimal påverkan på deras prediktioner. Därifrån erbjuder vi våra kunder nästa nivå av transparens för deras resulterande modeller, eftersom de kan analysera varje prediktion individuellt för att se hur deras prediktion kan ändras om värdet av en given funktion ändras. Slutligen tillhandahåller vi ett livscykelsverktyg (Model-To-Data-Relevance Indicator) som proaktivt meddelar våra kunder när deras modell börjar försämras och deras modell behöver omtränas.
Finns det något annat du vill dela om Neuton?
Vår mission här på Neuton är att bokstavligen bringa AI till alla. Vi tror att vi har varit framgångsrika i att börja förverkliga dessa möjligheter. Oavsett om det är att möjliggöra för icke-Data Scientist eller att ge den erfarne Data Scientist möjlighet att använda en Zero Code SaaS-baserad lösning. Nu med accelerationen av TinyML är vi väl på väg att verkligen demokratisera AI.
Tack för den underbara intervjun, läsare som vill lära sig mer bör besöka Neuton.












