mozzicone Liran Hason, co-fondatore e CEO di Aporia - Serie di interviste - Unite.AI
Seguici sui social

interviste

Liran Hason, co-fondatore e CEO di Aporia – Serie di interviste

mm

Pubblicato il

 on

Liran Hason è il co-fondatore e CEO di aporia, una piattaforma di osservabilità ML full-stack utilizzata dalle aziende Fortune 500 e dai team di data science in tutto il mondo per garantire un'IA responsabile. Aporia si integra perfettamente con qualsiasi infrastruttura ML. Che si tratti di un server FastAPI su Kubernetes, uno strumento di distribuzione open source come MLFlow o una piattaforma di machine learning come AWS Sagemaker

Prima di fondare Aporia, Liran è stato architetto ML presso Adallom (acquisita da Microsoft) e successivamente investitore presso Vertex Ventures.

Hai iniziato a programmare quando avevi 10 anni, cosa ti ha attratto inizialmente dei computer e su cosa stavi lavorando?

Era il 1999 e un mio amico mi ha chiamato e mi ha detto che aveva creato un sito web. Dopo aver digitato un indirizzo lungo 200 caratteri nel mio browser, ho visto un sito web con il suo nome sopra. Sono rimasto stupito dal fatto che abbia creato qualcosa sul suo computer e ho potuto vederlo sul mio computer. Questo mi ha reso molto curioso di sapere come funziona e come posso fare lo stesso. Ho chiesto a mia madre di comprarmi un libro HTML, che è stato il mio primo passo nella programmazione.

Trovo una grande gioia nell'affrontare le sfide tecnologiche e con il passare del tempo la mia curiosità è cresciuta. Ho imparato ASP, PHP e Visual Basic e ho davvero consumato tutto ciò che potevo.

Quando avevo 13 anni, stavo già assumendo alcuni lavori freelance, costruendo siti Web e app desktop.

Quando non avevo alcun lavoro attivo, lavoravo ai miei progetti, di solito diversi siti Web e applicazioni mirati ad aiutare altre persone a raggiungere i propri obiettivi:

Programmazione Blu-Bianco – è un linguaggio di programmazione ebraico, simile all'HTML, che ho creato dopo aver realizzato che i bambini in Israele che non hanno un alto livello di inglese sono limitati o allontanati dal mondo del coding.

blinky – I miei nonni sono sordi e usano il linguaggio dei segni per comunicare con i loro amici. Quando sono emersi software di videoconferenza come Skype e ooVoo, ha consentito loro per la prima volta di parlare con gli amici anche se non si trovano nella stessa stanza (come facciamo tutti con i nostri telefoni). Tuttavia, poiché non possono sentire, non sono stati in grado di sapere quando hanno una chiamata in arrivo. Per aiutarli, ho scritto un software che identifica le videochiamate in arrivo e li avvisa facendo lampeggiare un array di led in un piccolo dispositivo hardware che ho costruito e collegato al loro computer.

Questi sono solo alcuni dei progetti che ho realizzato da adolescente. La mia curiosità non si è mai fermata e mi sono ritrovato a imparare C, C++, Assembly e come funzionano i sistemi operativi, e ho davvero cercato di imparare il più possibile.

Potresti condividere la storia del tuo viaggio come architetto di machine learning presso Adallom, acquisita da Microsoft?

Ho iniziato il mio viaggio ad Adallom dopo il servizio militare. Dopo 5 anni nell'esercito come Capitano, ho intravisto una grande opportunità per entrare a far parte di un'azienda e di un mercato emergenti, come uno dei primi dipendenti. L'azienda era guidata da grandi fondatori, che conoscevo dal mio servizio militare, e sostenuta da VC di alto livello, come Sequoia. L'irruzione delle tecnologie cloud sul mercato era ancora agli inizi e all'epoca stavamo costruendo una delle primissime soluzioni di sicurezza cloud. Le aziende stavano appena iniziando a passare dall'on-premise al cloud e abbiamo visto emergere nuovi standard di settore, come Office 365, Dropbox, Marketo, Salesforce e altri.

Durante le mie prime settimane, sapevo già che un giorno avrei voluto avviare la mia azienda. Sentivo davvero, dal punto di vista tecnico, di essere pronto per qualsiasi sfida mi si presentasse e, se non me stesso, conoscevo le persone giuste per aiutarmi a superare qualsiasi cosa.

Adallom aveva bisogno di qualcuno che avesse una conoscenza approfondita della tecnologia ma che potesse anche essere a contatto con il cliente. Avanti veloce come un mese e sono su un aereo per gli Stati Uniti, per la prima volta nella mia vita, per incontrare persone di LinkedIn (pre-Microsoft). Un paio di settimane dopo sono diventati il ​​nostro primo cliente pagante negli Stati Uniti. Questa era solo una delle tante grandi aziende - Netflix, Disney e Safeway - per le quali stavo aiutando a risolvere problemi critici del cloud. È stato super educativo e un forte costruttore di fiducia.

Per me, entrare in Adallom significava davvero entrare in un posto dove credo nel mercato, credo nel team e credo nella visione. Sono estremamente grato per l'opportunità che mi è stata data lì.

Lo scopo di quello che sto facendo era ed è molto importante. Per me è stato lo stesso nell'esercito, è sempre stato importante. Ho potuto vedere facilmente come l'approccio di Adallom di connettersi alle soluzioni SaaS, quindi monitorare l'attività degli utenti, delle risorse, trovare anomalie e così via, fosse il modo in cui le cose sarebbero state fatte. Ho capito che questo sarà l'approccio del futuro. Quindi, ho sicuramente visto Adallom come un'azienda che avrà successo.

Ero responsabile dell'intera architettura della nostra infrastruttura ML. E ho visto e sperimentato in prima persona la mancanza di strumenti adeguati per l'ecosistema. Sì, mi era chiaro che ci doveva essere una soluzione dedicata in un posto centralizzato dove poter vedere tutti i tuoi modelli; dove puoi vedere quali decisioni stanno prendendo per la tua attività; dove puoi monitorare e diventare proattivo con i tuoi obiettivi ML. Ad esempio, abbiamo avuto momenti in cui abbiamo appreso dei problemi nei nostri modelli di apprendimento automatico troppo tardi, e questo non è eccezionale per gli utenti e sicuramente non per l'azienda. È qui che è iniziata l'idea di Aporia.

Potresti condividere la storia della genesi di Aporia?

La mia esperienza personale con l'apprendimento automatico inizia nel 2008, come parte di un progetto di collaborazione presso il Weizmann Institute, insieme all'Università di Bath e a un centro di ricerca cinese. Lì ho costruito un sistema di identificazione biometrica analizzando le immagini dell'iride. Sono stato in grado di ottenere una precisione del 94%. Il progetto è stato un successo ed è stato applaudito dal punto di vista della ricerca. Ma, per me, costruivo software da quando avevo 10 anni e qualcosa sembrava in un certo senso, non reale. Non potresti davvero usare il sistema di identificazione biometrica che ho costruito nella vita reale perché ha funzionato bene solo per il set di dati specifico che ho usato. Non è abbastanza deterministico.

Questo è solo un po' di sfondo. Quando crei un sistema di apprendimento automatico, ad esempio per l'identificazione biometrica, vuoi che le previsioni siano deterministiche: vuoi sapere che il sistema identifica accuratamente una determinata persona, giusto? Proprio come il tuo iPhone non si sblocca se non riconosce la persona giusta all'angolo giusto, questo è il risultato desiderato. Ma allora non era proprio così con l'apprendimento automatico, quando sono entrato per la prima volta nello spazio.

Circa sette anni dopo, stavo sperimentando in prima persona, in Adallom, la realtà di far funzionare modelli di produzione senza guardrail affidabili, mentre prendono decisioni per la nostra attività che incidono sui nostri clienti. Poi, ho avuto la fortuna di lavorare come investitore presso Vertex Ventures, per tre anni. Ho visto come sempre più organizzazioni hanno utilizzato il machine learning e come le aziende sono passate dal semplice parlare di machine learning al machine learning. Tuttavia, queste aziende hanno adottato il machine learning solo per essere messe alla prova dagli stessi problemi che stavamo affrontando ad Adallom.

Tutti si sono affrettati a utilizzare il machine learning e stavano cercando di creare sistemi di monitoraggio interni. Ovviamente non era il loro core business e queste sfide sono piuttosto complesse. Qui è quando ho anche capito che questa è la mia opportunità per avere un impatto enorme.

L'intelligenza artificiale viene adottata in quasi tutti i settori, tra cui sanità, servizi finanziari, automobilistico e altri, e toccherà la vita di tutti e avrà un impatto su tutti noi. È qui che Aporia mostra il suo vero valore, consentendo a tutti questi casi d'uso che cambiano la vita di funzionare come previsto e contribuire a migliorare la nostra società. Perché, come con qualsiasi software, avrai dei bug e l'apprendimento automatico non è diverso. Se non controllati, questi problemi di ML possono davvero danneggiare la continuità aziendale e avere un impatto sulla società con esiti di bias non intenzionali. Prendere Il tentativo di Amazon di implementare uno strumento di reclutamento basato sull'intelligenza artificiale – il pregiudizio involontario ha fatto sì che il modello di apprendimento automatico raccomandasse fortemente i candidati maschi rispetto alle femmine. Questo è ovviamente un risultato indesiderato. Pertanto, è necessaria una soluzione dedicata per rilevare pregiudizi involontari prima che raggiungano le notizie e influenzino gli utenti finali.

Affinché le organizzazioni possano affidarsi adeguatamente e godere dei vantaggi dell'apprendimento automatico, devono sapere quando non funziona correttamente e ora, con le nuove normative, spesso gli utenti ML avranno bisogno di modi per spiegare le previsioni del modello. Alla fine, è fondamentale ricercare e sviluppare nuovi modelli e progetti innovativi, ma una volta che questi modelli incontrano il mondo reale e prendono decisioni reali per le persone, le imprese e la società, c'è un chiaro bisogno di una soluzione completa di osservabilità per garantire che possano fidati dell'intelligenza artificiale.

Puoi spiegare l'importanza di un'IA trasparente e spiegabile?

Anche se può sembrare simile, c'è un'importante distinzione da fare tra il software tradizionale e l'apprendimento automatico. Nel software, hai un ingegnere del software, che scrive codice, definisce la logica dell'applicazione, sappiamo esattamente cosa accadrà in ogni flusso del codice. È deterministico. È così che di solito viene costruito il software, gli ingegneri creano casi di test, testano casi limite, arrivando al 70% - 80% di copertura - ti senti abbastanza bene da poter essere rilasciato in produzione. Se vengono visualizzati avvisi, puoi facilmente eseguire il debug e capire quale flusso è andato storto e correggerlo.

Questo non è il caso dell'apprendimento automatico. Invece, se un essere umano definisce la logica, viene definita come parte del processo di addestramento del modello. Quando si parla di logica, a differenza del software tradizionale non si tratta di un insieme di regole, ma piuttosto di una matrice di milioni e miliardi di numeri che rappresentano la mente, il cervello del modello di machine learning. E questa è una scatola nera, non conosciamo davvero il significato di ogni singolo numero in questa matrice. Ma lo sappiamo statisticamente, quindi questo è probabilistico e non deterministico. Può essere accurato nell'83% o nel 93% delle volte. Questo solleva molte domande, giusto? Innanzitutto, come possiamo fidarci di un sistema di cui non possiamo spiegare il modo in cui arriva alle sue previsioni? In secondo luogo, come possiamo spiegare le previsioni per settori altamente regolamentati, come il settore finanziario. Ad esempio, negli Stati Uniti, le società finanziarie sono obbligate per legge a spiegare ai propri clienti perché sono state respinte per una richiesta di prestito.

L'incapacità di spiegare le previsioni di machine learning in un testo leggibile dall'uomo potrebbe essere uno dei principali ostacoli all'adozione di massa del machine learning in tutti i settori. Vogliamo sapere, come società, che il modello non prende decisioni distorte. Vogliamo assicurarci di capire cosa sta portando il modello a una decisione specifica. È qui che la spiegabilità e la trasparenza sono estremamente cruciali.

Come funziona la soluzione toolbox AI trasparente e spiegabile di Aporia?

La cassetta degli attrezzi IA spiegabile di Aporia funziona come parte di un sistema unificato di osservabilità dell'apprendimento automatico. Senza una visibilità approfondita dei modelli di produzione e una soluzione affidabile di monitoraggio e avviso, è difficile fidarsi delle comprensibili intuizioni dell'IA: non è necessario spiegare le previsioni se l'output non è affidabile. E così, è qui che entra in gioco Aporia, fornendo un unico riquadro di visibilità su tutti i modelli in esecuzione, monitoraggio personalizzabile, funzionalità di avviso, strumenti di debug, indagine sulle cause principali e intelligenza artificiale spiegabile. Una soluzione di osservabilità full-stack dedicata per qualsiasi problema che si presenti in produzione.

La piattaforma Aporia è agnostica e fornisce alle aziende orientate all'IA, alla scienza dei dati e ai team ML un dashboard centralizzato e una visibilità completa sullo stato, le previsioni e le decisioni del loro modello, consentendo loro di fidarsi della propria intelligenza artificiale. Utilizzando l'intelligenza artificiale spiegabile di Aporia, le organizzazioni sono in grado di tenere aggiornati tutti gli stakeholder rilevanti spiegando le decisioni di apprendimento automatico con un clic di un pulsante: ottenere informazioni leggibili dall'uomo su previsioni di modelli specifici o simulare "E se?" situazioni. Inoltre, Aporia tiene costantemente traccia dei dati inseriti nel modello e delle previsioni e ti invia in modo proattivo avvisi su eventi importanti, tra cui il degrado delle prestazioni, la distorsione involontaria, la deriva dei dati e persino opportunità per migliorare il tuo modello. Infine, con la cassetta degli attrezzi di indagine di Aporia puoi arrivare alla causa principale di qualsiasi evento per rimediare e migliorare qualsiasi modello in produzione.

Alcune delle funzionalità offerte includono punti dati e strumenti di indagine sulle serie temporali, in che modo questi strumenti aiutano a prevenire la distorsione e la deriva dell'IA?

I punti dati forniscono una visualizzazione in tempo reale dei dati che il modello sta ottenendo e delle previsioni che sta facendo per l'azienda. Puoi ottenere un feed dal vivo e capire esattamente cosa sta succedendo nella tua attività. Quindi, questa capacità di visibilità è cruciale per la trasparenza. Quindi a volte le cose cambiano nel tempo e c'è una correlazione tra molteplici cambiamenti nel tempo: questo è il ruolo dell'indagine sulle serie temporali.

Di recente i principali rivenditori hanno avuto problemi con tutti i loro strumenti di previsione dell'IA quando si trattava di prevedere i problemi della catena di approvvigionamento, come risolverebbe la piattaforma Aporia?

La sfida principale nell'identificare questo tipo di problemi è radicata nel fatto che stiamo parlando di previsioni future. Ciò significa che abbiamo previsto che qualcosa accadrà o non accadrà in futuro. Ad esempio, quante persone compreranno una maglietta specifica o compreranno una nuova PlayStation.

Poi ci vuole un po' di tempo per raccogliere tutti i risultati effettivi – più di qualche settimana. Quindi, possiamo riassumere e dire, ok, questa era la domanda effettiva che abbiamo visto. In questo lasso di tempo, stiamo parlando di pochi mesi in tutto. Questo è ciò che ci porta dal momento in cui il modello fa la previsione fino a quando l'azienda sa esattamente se era giusto o sbagliato. E a quel punto, di solito è troppo tardi, l'azienda ha perso potenziali entrate o il margine è stato ridotto, perché devono vendere scorte in eccesso con enormi sconti.

Questa è una sfida. Ed è esattamente qui che Aporia entra in scena e diventa molto, molto utile per queste organizzazioni. Innanzitutto, consente alle organizzazioni di ottenere facilmente trasparenza e visibilità su quali decisioni vengono prese: ci sono fluttuazioni? C'è qualcosa che non ha senso? In secondo luogo, poiché stiamo parlando di grandi rivenditori, stiamo parlando di enormi, come enormi quantità di inventario, e rintracciarle manualmente è quasi impossibile. È qui che le aziende e i team di machine learning apprezzano maggiormente Aporia, come sistema di monitoraggio automatizzato e personalizzabile 24 ore su 7, XNUMX giorni su XNUMX. Aporia traccia costantemente i dati e le previsioni, analizza il comportamento statistico di queste previsioni e può anticipare e identificare i cambiamenti nel comportamento dei consumatori e i cambiamenti nel comportamento dei dati non appena si verificano. Invece di aspettare sei mesi per rendersi conto che la previsione della domanda era errata, è possibile nel giro di pochi giorni identificare che siamo sulla strada sbagliata con le nostre previsioni della domanda. Quindi Aporia accorcia questo lasso di tempo da pochi mesi a pochi giorni. Questo è un enorme punto di svolta per qualsiasi praticante di ML.

C'è qualcos'altro che vorresti condividere su Aporia?

Siamo in costante crescita e alla ricerca di persone straordinarie con menti brillanti che si uniscano al viaggio di Aporia. Dai un'occhiata al nostro Posizioni aperte.

Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare aporia.

Socio fondatore di unite.AI e membro di Consiglio tecnologico di Forbes, Antonio è un futurista che è appassionato del futuro dell'intelligenza artificiale e della robotica.

È anche il Fondatore di Titoli.io, un sito web che si concentra sugli investimenti in tecnologie dirompenti.