Interviste
Afsheen Afshar, Fondatore di Pilot Wave Holdings – Serie di Interviste

Afsheen Afshar, Fondatore di Pilot Wave Holdings, è un veterano della scienza dei dati e del settore degli investimenti, con una carriera che comprende ruoli senior in Goldman Sachs, J.P. Morgan e Cerberus Capital Management, dove ha contribuito a pionierare iniziative di data science e intelligenza artificiale su larga scala all’interno di istituzioni finanziarie. Con una formazione tecnica radicata nella ricerca sulle neuroscienze e sull’apprendimento automatico alla Stanford University, Afshar ha costruito una carriera all’intersezione di analisi avanzate, private equity e trasformazione operativa, concentrandosi infine sull’applicazione dell’intelligenza artificiale alle prestazioni aziendali nel mondo reale. In Pilot Wave, riunisce competenze di investimento, leadership operativa e profonda conoscenza tecnica per identificare, acquisire e far crescere aziende utilizzando strategie basate sui dati e tecnologia moderna.
Pilot Wave Holdings è una piattaforma di acquisizione e crescita focalizzata sulla trasformazione di piccole e medie imprese attraverso l’intelligenza artificiale e la tecnologia avanzata. La società sfrutta sistemi di intelligenza artificiale proprietari per analizzare le operazioni, scoprire inefficienze e guidare miglioramenti delle prestazioni in tutto il portafoglio di aziende. Combinando un coinvolgimento operativo concreto con una moderna infrastruttura di dati, Pilot Wave mira a modernizzare aziende tradizionali che storicamente hanno avuto un accesso limitato a strumenti avanzati, posizionandole per una crescita scalabile e a lungo termine in un’economia sempre più guidata dalla tecnologia.
Ha ricoperto ruoli di leadership pionieristici nell’intelligenza artificiale in aziende come JPMorgan e Cerberus, e in seguito ha fondato Pilot Wave Holdings per portare l’intelligenza artificiale nei settori tradizionali. Qual è l’intuizione o la frustrazione fondamentale che l’ha portata a spostarsi dal costruire l’intelligenza artificiale all’interno di grandi istituzioni all’acquisizione e trasformazione diretta di aziende?
Il problema fondamentale era la necessità di essere in grado di muoversi con velocità. All’interno di grandi istituzioni, anche quando le persone concordano sull’opportunità, ci sono solitamente troppi livelli tra l’identificazione del problema e l’effettiva azione. L’intelligenza artificiale non fallisce di solito perché il lavoro tecnico è impossibile, fallisce perché l’organizzazione è troppo lenta, troppo politica o troppo frammentata per agire con urgenza. Volevo lavorare in un ambiente in cui strategia, operazioni e tecnologia potessero essere allineate rapidamente. Acquisire e costruire aziende direttamente crea questo tipo di empowerment. Se si vuole realmente cambiare il modo in cui un’azienda funziona con velocità e determinazione, essere il proprietario è importante.
Molto del settore ancora celebra i piloti di successo, eppure il vero valore deriva dai sistemi di produzione. Perché le iniziative di intelligenza artificiale falliscono così spesso in quel punto di transizione, e cosa distingue le organizzazioni che riescono a rendere operativa l’intelligenza artificiale da quelle che si fermano?
Molti piloti sono progettati per avere successo, il che è esattamente il motivo per cui molte aziende si ingannano. Si verificano in ambienti puliti, con un’attenzione extra, un ambito limitato e nessuna della frizione che si presenta in produzione. Il problema più profondo è spesso una lacuna di empatia. I tecnologi spesso non prendono il tempo, o francamente non hanno il desiderio, di imparare l’esperienza dell’operatore, quindi costruiscono qualcosa che funziona in teoria o in una demo, ma non si adatta alla realtà del lavoro. Le aziende che rendono operativa l’intelligenza artificiale con successo sono quelle che prendono sul serio il flusso di lavoro umano fin dall’inizio e costruiscono per la complessità delle operazioni reali, invece di cercare di evitarla. Tutti dicono di volere valore di produzione, ma molte squadre stanno ancora ottimizzando per l’applauso del pilota.
Il suo lavoro si concentra sull’integrazione dell’intelligenza artificiale in settori come infrastrutture, produzione e commercio elettronico. Come differisce fondamentalmente il dispiegamento dell’intelligenza artificiale in questi ambienti rispetto al dispiegamento in aziende native digitali o con software come primo obiettivo?
La differenza è che in aziende tradizionali di Main Street, l’empatia e l’elemento umano sono ancora più importanti di quanto la gente nel mondo dell’intelligenza artificiale voglia ammettere. In ambienti software-first, le squadre possono spesso muoversi rapidamente e risolvere problemi in seguito. In infrastrutture, produzione e commercio elettronico, il lavoro è legato a sistemi fisici, vincoli reali e persone che sanno immediatamente quando qualcosa non si adatta al modo in cui l’azienda funziona realmente. Ciò significa che non puoi semplicemente presentarti con una soluzione tecnicamente elegante e aspettarti l’adozione. Se non capisci l’esperienza dell’operatore, la tua strategia di intelligenza artificiale è probabilmente già rotta. Questi ambienti espongono il pensiero superficiale molto rapidamente, il che è parte del motivo per cui sono così importanti.
Ha sostenuto che l’adozione dell’intelligenza artificiale dovrebbe iniziare con le priorità aziendali piuttosto che con gli strumenti. Come si presenta ciò nella pratica, e come le squadre di leadership dovrebbero riformulare il loro approccio alla trasformazione dell’intelligenza artificiale?
La maggior parte delle squadre di leadership inizia nel posto sbagliato. Iniziano con una conversazione su cosa possa fare questa tecnologia per noi perché suona emozionante e attuale, quando il posto giusto per iniziare è cosa sono le nostre priorità aziendali più importanti. Una volta che lo si sa, allora si può parlare onestamente degli strumenti migliori per affrontare quelle priorità, e non deve sempre essere l’intelligenza artificiale. Sembra ovvio, ma la maggior parte delle aziende sta ancora inseguendo la tecnologia per prima e spera che il caso d’uso aziendale appaia in qualche modo in seguito. È al contrario e porta a molti movimenti inutili. Se la leadership vuole risultati reali, deve smettere di trattare la strategia di intelligenza artificiale come un esercizio di shopping.
In Pilot Wave, non solo consiglia aziende, ma le ridisegna dopo l’acquisizione. Quali sono i primi cambiamenti strutturali o culturali che attua per far sì che l’adozione dell’intelligenza artificiale sia realmente efficace?
La prima cosa è trovare sia sponsor senior che junior. I sponsor junior conoscono la realtà quotidiana e possono assicurarsi che il personale di base faccia realmente ciò che deve essere fatto, mentre i sponsor senior assicurano che la politica venga minimizzata e lo sforzo non venga soffocato silenziosamente. Molte aziende si appoggiano troppo al sostegno dall’alto e poi si chiedono perché nulla cambia nella pratica. La verità è che l’adozione dell’intelligenza artificiale fallisce solitamente perché l’organizzazione resiste a livello di base o perché la leadership lascia che gli ostacoli si accumulino attorno ad essa. È necessario avere entrambi i tipi di sostegno in atto fin dall’inizio. Altrimenti, l’iniziativa diventa un altro punto di discussione esecutivo che non atterra mai realmente.
Man mano che gli agenti di intelligenza artificiale diventano più capaci e l’infrastruttura diventa sempre più astratta, quali rischi strategici emergono per le aziende che non controllano il proprio dati e lo stack di intelligenza artificiale?
Sostengo che le aziende debbano sempre avere il controllo fondamentale. Ciò richiede lo strumento di ogni sistema, che è il modo in cui Pilot Wave approccia la progettazione del sistema, perché se non puoi vedere cosa sta succedendo, misurarlo e mettere barriere attorno ad esso, allora stai assumendo un rischio che non capisci. Ciò non significa che non si debbano delegare compiti, perché la delega continuerà assolutamente a livello di scala, ma la delega senza misurazione non è una strategia eseguibile. Molto del mercato è sedotto dall’astrazione perché rende le cose più facili e veloci, ma quella comodità può nascondere una fragilità sistemica reale. Se gli strumenti giusti, la misurazione e le barriere sono in atto, il rischio sistemico potenziale può essere minimizzato. Se non lo sono, stai costruendo dipendenza prima di aver guadagnato fiducia.
C’è un divario crescente tra come l’intelligenza artificiale viene commercializzata e come si esegue in ambienti del mondo reale. Quali segnali dovrebbero cercare i leader tecnici e gli operatori per distinguere le capacità di intelligenza artificiale significative dalle affermazioni superficiali?
Chiedi sempre la misurazione del valore reale. Sono stato religiosamente attento alla misurazione del valore per tutta la mia carriera, fino a progetti individuali, perché senza quella disciplina diventa molto facile confondere l’eccitazione con i risultati. Ogni sforzo dovrebbe essere soggetto a un ROI e tracciato. Se qualcuno non può spiegare chiaramente come il sistema influisca sui ricavi, sui costi, sulla produttività, sull’efficienza del lavoro o su altro parametro aziendale reale, allora c’è una buona possibilità che stiano vendendo teatro. L’industria è diventata fin troppo comoda nel premiare demo lucide e affermazioni vaghe. Senza una rigorosa misurazione del valore, c’è un rischio reale di buttare via tempo e denaro.
Ha costruito e guidato grandi organizzazioni di scienza dei dati. Come vede l’evoluzione del ruolo dei team di intelligenza artificiale man mano che l’automazione aumenta e i sistemi basati su agenti assumono maggiori responsabilità?
L’intelligenza artificiale assumerà compiti di livello sempre più alto. In Pilot Wave, stiamo già sviluppando intelligenza artificiale che può prendere come input qualcosa come “aumenta i miei ricavi del 10 percento” invece di “rifai il mio sito web”, che è molto più vicino a dove si trova ancora oggi la maggior parte dell’intelligenza artificiale. Quel cambiamento cambia il ruolo dei team di intelligenza artificiale in modo serio, perché il lavoro diventa meno focalizzato su compiti isolati e più su come i sistemi ragionano su obiettivi aziendali reali. Molte squadre stanno ancora pensando troppo a livello di automazione e sottovalutano quanto velocemente la tecnologia sta muovendosi verso l’alto. Il centro di gravità si sposterà dall’esecuzione delle attività verso la delega aziendale. È un cambiamento molto più grande di quanto la maggior parte delle aziende stia preparandosi.
Molte aziende investono molto nell’intelligenza artificiale, eppure lottano per generare un ROI misurabile. Quali sono i modelli di fallimento più comuni che ha osservato, e come possono essere evitati?
La maggior parte degli sforzi di intelligenza artificiale, specialmente nelle grandi aziende, è ancora troppo focalizzata su dashboard eleganti, buzzword e cose che sono facili da presentare internamente, ma difficili da legare a valore reale. Le aziende spendono molto tempo a rendere il lavoro sofisticato invece di renderlo utile. Il modello di fallimento è solitamente non misterioso, è solo una mancanza di disciplina attorno alla creazione di valore azionabile. Se non c’è un obiettivo economico chiaro, nessun proprietario e nessun framework di misurazione, lo sforzo non dovrebbe proseguire. Essere religiosamente focalizzati sulla creazione di valore a ogni passo lungo la strada è critico. Altrimenti, l’intelligenza artificiale aziendale diventa un esercizio di branding molto costoso.
Guardando avanti, quali capacità di intelligenza artificiale o innovazioni a livello di sistema avranno il maggior impatto sulle industrie del mondo fisico nei prossimi cinque o dieci anni?
La capacità di dare obiettivi di alto livello a un sistema di intelligenza artificiale e delegare parti importanti dell’azienda diventerà molto reale molto presto. È la capacità che importerà di più, perché sposta l’intelligenza artificiale oltre l’esecuzione di compiti ristretti e verso un reale vantaggio operativo. Di conseguenza, le persone si concentreranno di più sugli aspetti di relazione e fiducia dell’azienda, insieme alla natura fisica reale del lavoro in corso, che sia costruzione o un’altra industria basata sul campo. Molte persone ancora parlano dell’intelligenza artificiale come di un livello di produttività che si trova lateralmente, ma quella visione sta già iniziando a sembrare superata. I sistemi stanno diventando capaci di assumere responsabilità più ampie. Il futuro è molto emozionante, ma sarà anche molto più disruptivo di quanto molti incumbent vogliano ammettere.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Pilot Wave Holdings.












