Connect with us

Shane Eleniak, Chief Product Officer at Calix – Intervista della serie

Interviste

Shane Eleniak, Chief Product Officer at Calix – Intervista della serie

mm

Shane Eleniak ricopre il ruolo di Chief Product Officer presso Calix, dove guida la visione strategica e l’esecuzione della piattaforma e delle soluzioni SaaS leader del settore. Con un focus sull’abilitazione dei fornitori di servizi di comunicazione a semplificare il loro business e offrire esperienze eccezionali agli abbonati, Shane sovraintende all’intero ciclo di vita del prodotto – dalla conceptualizzazione alla distribuzione leader del mercato.

Sotto la sua guida, Calix ha consolidato la sua posizione di pioniere nel settore della banda larga, consegnando costantemente strumenti innovativi che consentono ai fornitori di competere e vincere.

Calix è un’azienda tecnologica con sede negli Stati Uniti che fornisce piattaforme cloud, software e servizi gestiti progettati per i fornitori di servizi di banda larga e comunicazione. La sua offerta principale si concentra su una piattaforma di banda larga abilitata all’intelligenza artificiale che integra infrastrutture cloud, dati e sistemi di rete per aiutare i fornitori a semplificare le operazioni, migliorare l’engagement dei clienti e offrire esperienze digitali più personalizzate. Abilitando questi fornitori a passare da servizi di connettività di base a fornitori di “esperienze” completi, Calix aiuta a crescere i ricavi, aumentare la fedeltà degli abbonati e sostenere la trasformazione digitale delle comunità attraverso servizi di banda larga più avanzati e scalabili.

La tua carriera copre più di tre decenni attraverso l’ingegneria, la rete, le piattaforme cloud e la leadership di prodotti su larga scala. Come hanno plasmato queste esperienze la tua prospettiva su cosa sia realmente necessario per far funzionare l’intelligenza artificiale all’interno delle aziende, anziché rimanere un esperimento laterale?

Ho iniziato nelle telecomunicazioni tradizionali e nella rete, dove l’intero gioco era il percorso dei dati e l’affidabilità su larga scala. Se non puoi consegnare un servizio pulito e affidabile, nulla di ciò che costruisci su di esso ha realmente importanza. All’epoca, il telefono era sulla parete della cucina, i cavi interni non si muovevano e finché c’era il segnale di linea, tutto andava bene.

La banda larga e Internet hanno cambiato tutto. Improvvisamente, non era più solo “è acceso?” Era Ethernet e poi Wi-Fi, i bambini con console di gioco e tablet, tu in una riunione di Zoom che collabora su un foglio di calcolo cloud, e mobilità costante – dispositivi all’interno della casa, in giardino, alla partita di calcio, al caffè. L’esperienza dell’abbonato è diventata molto più complessa di uno stato binario acceso/spento, e il mondo per i fornitori di servizi è diventato altamente dinamico. In quel mondo, una visione retrospettiva dei dati – classici data warehouse e report storici dopo un mese – non funziona. Devi raccogliere dati, comprendere l’esperienza e generare insight in tempo reale perché gli abbonati si aspettano che i problemi vengano risolti proattivamente, non in ore o giorni.

Quell’evoluzione ha plasmato il mio modo di pensare all’intelligenza artificiale. La maggior parte delle persone vuole mettere l’intelligenza artificiale “in cima”, allo stesso modo in cui mettono l’intelligenza aziendale o il SaaS in cima ai dati esistenti. La mia esperienza dice che devi pensare molto più in profondità di così e progettare per insight azionabili in tempo reale e la capacità di intraprendere azioni tempestive.

Per gli abbonati, tuttavia, le aspettative non sono cambiate molto negli ultimi 25 anni. Vogliono ancora una connettività gestita e sicura che sembri semplice come il segnale di linea – vogliono che tutto “funzioni” senza pensare a tutti i livelli e la complessità, e lo vogliono ovunque nella loro vita. La mia carriera nelle telecomunicazioni e nel cloud mi ha reso molto a mio agio con quella paradossalità: costruisci sistemi estremamente complessi in modo da poter astrare tutto ciò e offrire un’esperienza semplice e fantastica al limite. È esattamente così che penso all’intelligenza artificiale che svolge un lavoro reale all’interno di qualsiasi azienda, banda larga o altro.

Calix sottolinea spesso che l’intelligenza artificiale operativa è costruita e non acquistata. Quali sono gli errori più comuni che le organizzazioni commettono quando cercano di aggiungere l’intelligenza artificiale senza ripensare come il lavoro fluisce attraverso l’azienda?

Per me, è meno una questione di “costruito o acquistato” e più una questione di se hai fatto un passo indietro e guardato l’intero stack tecnologico. Molte aziende hanno deciso che l’intelligenza artificiale era semplicemente utilizzare alcuni API per accedere a un modello di linguaggio, collegandolo allo stack con un wrapper e acquistando token – e poi avevi una strategia di intelligenza artificiale. Non funziona così.

Troppi di noi si fissano sulla tecnologia invece dell’esito. Abbiamo già visto questo film. Quando sono arrivati i PC, tutti volevano discutere se avevano un processore 286 o 386, quanto memoria avevano e quale DOS stavano eseguendo. Oggi, nessuno può dirti le specifiche del proprio laptop o telefono, e a nessuno importa finché funziona. Ciò che conta è: questo mi rende più efficace nel mio lavoro? È lo stesso con l’intelligenza artificiale. Se non puoi collegarla a flussi di lavoro reali, valore reale e ROI reale, le specifiche tecniche sono solo rumore.

Un altro grande errore è cercare di aggiungere l’intelligenza artificiale a ciò che già esiste senza chiedersi cosa significa per l’architettura, il modello di sicurezza e i costi. L’intelligenza artificiale è una tecnologia fondamentale, non un upgrade di funzionalità incrementale. Quando la tratti come incrementale, finisci con dati scadenti, problemi di sicurezza, allucinazioni, costi fuori controllo o molta attività che non risolve un problema per nessuno.

Infine, non puoi ignorare il contesto e l’importanza dell’esperienza verticale. L’azione è tutta questione di contesto, e quel contesto differisce attraverso le telecomunicazioni, la finanza e la sanità. Calix ha iniziato con un’esperienza approfondita in un settore e ha costruito una piattaforma verticale intorno ad esso. Già comprendevamo i dati, le informazioni, i flussi di lavoro e il contesto, quindi lo stack poteva riflettere quella realtà. La maggior parte delle aziende conosce il proprio settore verticale al meglio. L’opportunità è codificare quella conoscenza in uno stack tecnologico verticale invece di affidarsi a un sottile strato orizzontale e a un modello di intelligenza artificiale generico, e poi cercare di cucire tutto insieme. Le aziende sono questione di esiti, non di modelli. La vera domanda è come questa tecnologia aiuta a consegnare quegli esiti nel modo in cui il lavoro fluisce.

Hai delineato un’architettura a cinque livelli per l’intelligenza artificiale operativa che include dati, conoscenza, orchestrazione, fiducia e azione. Perché è importante separare esplicitamente questi livelli, e quale livello le aziende sottovalutano o saltano interamente più spesso?

Da molto tempo, lo stack era abbastanza semplice: dati, informazioni, dashboard, flussi di lavoro, persone. Costruivi data warehouse, mettevi l’intelligenza aziendale in cima, creavi motori di flusso di lavoro e affidavi il lavoro difficile agli esseri umani. In un mondo agente, questo non funziona. Hai bisogno di dati, conoscenza, orchestrazione, fiducia e azione perché ogni livello svolge una funzione distinta.

La parte visibile di cui tutti vogliono parlare è il livello di azione – gli agenti. Quella è la punta dell’iceberg. Ciò che determina se puoi mai lasciare che gli agenti tocchino sistemi reali è tutta la “roba noiosa” sotto la linea di galleggiamento: pipeline di dati e dati puliti, il livello di conoscenza che ti dà il contesto, l’orchestrazione che coordina flussi di lavoro dinamici e il modello di fiducia che decide cosa dovrebbe essere consentito in primo luogo. Quando il Titanic è affondato, non è stato il piccolo pezzo che si vedeva a causare l’affondamento; è stata la grande massa di ghiaccio sotto la superficie. L’intelligenza artificiale operativa è la stessa. La tubazione sotto la superficie è ciò che fa o distrugge.

Storicamente, non abbiamo mai trattato l’orchestrazione e la fiducia come livelli separati perché gli esseri umani svolgevano la maggior parte di quel lavoro. L’orchestrazione significava manager e code di ticket; la fiducia significava nomi utente e password. Ora devi fidarti di entità – agenti – per fare cose, e devi coordinare più agenti in tempo reale intorno a dati dinamici. È un problema di progettazione completamente diverso, ed è per questo che quei livelli devono essere espliciti.

Il livello che la maggior parte delle persone sottovaluta è la fiducia. Molte organizzazioni pensano di gestire la fiducia perché hanno controlli di accesso – chi può accedere a quale sistema. Ma la vera fiducia in un mondo agente non è “questo utente ha accesso?” È “questa azione particolare è appropriata per questo individuo o questo agente in questo momento?” È una questione di governance, non di controllo di accesso. Se non rendi quel livello esplicito, rimani bloccato nella terra dei demo, perché non sarai mai a tuo agio nel lasciare che gli agenti facciano lavori reali in produzione.

Quindi, la fiducia è evidentemente una parte fondamentale della tua strategia di intelligenza artificiale. Come progetti i sistemi in modo che le decisioni automatizzate rimangano osservabili, verificabili e reversibili mentre si muovono abbastanza velocemente per consegnare valore aziendale?

Devi iniziare da una mentalità di zero fiducia. La prima domanda non è “questo agente può tecnicamente farlo?” La prima domanda è “questo agente, per conto di questa persona, dovrebbe provare a farlo in assoluto?” Se la risposta è no, allora non procedere.

Se la risposta è sì, entri nelle barriere di sicurezza: verificabilità, tracciabilità e la necessità di un essere umano nel loop. Il nostro modello si basa su un livello di fiducia che agisce un po’ come un vigile del traffico all’inizio di ogni interazione: chi sei, cosa stai facendo e perché lo stai facendo? Ciò elimina molti problemi di sicurezza, perché non lasci che gli agenti corrano e facciano cose e poi sperare di notarlo dopo il fatto.

L’alternativa è lasciare che gli agenti si scatenino e poi alzare un allarme se vanno a fare qualcosa di male. Stai supponendo di poterlo vedere, capirlo, identificarlo e fermarlo in tempo reale, al ritmo e alla scala a cui operano questi sistemi. È un problema molto difficile, ed è il motivo per cui molte persone lottano – stanno cercando di cercare attori malvagi in tempo reale invece di prevenire azioni malvagie in anticipo.

Inoltre, abbiamo aggiunto gateways stratificati. Anche se un agente sta agendo per conto della persona giusta, stiamo ancora guardando la sessione e il contenuto – stanno cercando di avvelenare un modello, abusare di un’API o spingere qualcosa al di fuori delle politiche? Tutto ciò è avvolto in una completa osservabilità in modo da poter verificare cosa è successo e annullarlo se necessario. È così che ti muovi velocemente e ancora dormi la notte.

Molte aziende hanno successo nel generare insight di intelligenza artificiale ma lottano per tradurli in azione. Quali decisioni di progettazione hanno permesso a Calix di spingere l’intelligenza artificiale direttamente nei flussi di lavoro quotidiani attraverso marketing, operazioni e supporto clienti?

Molto prima che l’intelligenza artificiale diventasse la star dello spettacolo, a Calix eravamo già ossessionati da una domanda: cosa rende un insight veramente azionabile per una persona reale in un lavoro reale? Dal 2018, abbiamo lavorato con i fornitori di servizi per capire come lavorano diverse persone – cosa fa un marketer in una mattina di martedì, cosa fa un team operativo quando si verifica un allarme, cosa fanno i team di supporto quando un abbonato chiama frustrato. Ciò ci ha costretto a diventare molto precisi su quali insight contavano per chi, in quale contesto e cosa sembrava un’azione “buona”.

Quindi, quando è arrivata l’intelligenza artificiale agente, non partivamo da zero. Avevamo già sistemi in tempo reale che generavano insight azionabili legati a persone e flussi di lavoro specifici. La domanda di progettazione è diventata: dato un diverso set di strumenti e uno stack tecnologico diverso, come riarchitetteresti quegli stessi flussi di lavoro in un mondo di intelligenza artificiale agente, invece di cercare di inventare tutto da zero?

Quando abbiniamo questa conoscenza approfondita delle persone con l’intelligenza artificiale agente, possiamo costruire flussi di lavoro dinamici su dati dinamici. Gli agenti possono capire in tempo reale quali passaggi e quali persone devono essere coinvolte in base a cosa sta succedendo, invece di forzarti a codificare rigidamente centinaia di flussi in microservizi. Per la maggior parte delle aziende, il problema difficile è cercare di prendere decisioni in tempo reale basate sul contesto e poi progettare il flusso di lavoro giusto intorno a quello. Per noi, quella parte era già in atto; avevamo già fatto insight azionabili in tempo reale, basati su persone e flussi di lavoro per anni. L’intelligenza artificiale agente è solo un nuovo set di strumenti su quella base.

La tua visione della piattaforma include l’interoperabilità agente-agente (A2A) e i sistemi di intelligenza artificiale federati. Come si evolve il modo in cui gli strumenti aziendali collaborano rispetto agli integratori tradizionali?

Se guardi agli ultimi 20 anni, il modello predefinito è stato “acquista un mucchio di strumenti SaaS e collegali intorno a un data lake”. Ogni nuovo sistema significava un’altra integrazione punto-punto, un’altra pipeline di dati e un altro posto in cui riconciliare la verità. In un mondo agente, questo non scala. Vuoi che i dati rimangano dove appartengono e che gli agenti parlino tra loro attraverso interfacce ben definite.

È per questo che parliamo di toccare il sistema a due livelli: MCP al livello della conoscenza e A2A ai livelli di orchestrazione e fiducia. MCP è come gli agenti scoprono e utilizzano strumenti e dati senza una nuova integrazione personalizzata ogni volta. A2A è come gli agenti coordinano il lavoro con gli altri sotto chiare barriere di sicurezza.

Una volta che hai questo, la collaborazione smette di assomigliare a un mucchio di connettori fragili e inizia ad assomigliare a una rete di specialisti che possono teamare dinamicamente intorno al lavoro reale. Ecco dove entra in gioco l’analogia della matrice di Eisenhower. Non tutto è ugualmente urgente e importante. Alcuni lavori sono veramente critici nel tempo, alcuni sono importanti ma possono essere pianificati, alcuni devono solo essere fatti e alcuni sono rumore. Con la coordinazione agente-agente che siede su un livello di fiducia e orchestrazione, puoi trattare quelle categorie in modo diverso su larga scala: gli agenti possono attaccare i problemi urgenti e importanti, mettere in coda o pianificare quelli importanti ma non urgenti e tenere lontano il lavoro di basso valore che ingombra tutto il resto.

Quello è un mondo molto diverso da “aggiungiamo solo un altro connettore e speriamo che la coda si svuoti”. Stai effettivamente vedendo flussi di lavoro dinamici e orchestrati intorno a eventi e dati dinamici, invece di un groviglio di integrazioni una tantum dove tutto grida con la stessa priorità.

Una volta che gli agenti di intelligenza artificiale sono autorizzati ad agire in modo autonomo, la governance diventa rapidamente una sfida. Come si bilancia la velocità, la responsabilità e la supervisione umana quando i sistemi di intelligenza artificiale prendono o eseguono decisioni su larga scala?

L’errore che vedo è che le persone pensano di poter aggiungere l’intelligenza artificiale agente a ciò che già esiste e cercare di “bilanciare” velocità, responsabilità e supervisione umana dopo il fatto. Non puoi. Devi iniziare riconoscendo che questo è un problema di stack tecnologico verticale e costruendo intenzionalmente un livello di fiducia e un livello di orchestrazione. Senza quei due livelli, diventa un caos – tutto è primo arrivato, primo servito, o chi grida più forte.

Ancora una volta, è la matrice di Eisenhower: non tutto il lavoro è stato creato ugualmente. La fiducia e l’orchestrazione sono come si opera quella matrice in un mondo agente. Non vuoi che ogni agente tratti ogni attività come un allarme antincendio; vuoi che il sistema sappia cosa è veramente critico nel tempo, cosa può essere pianificato e cosa dovrebbe essere gestito silenziosamente in background.

E poi c’è la parte “stretto su largo”. La maggior parte delle aziende confonde un impatto maggiore dall’intelligenza artificiale con il rimanere ampio. Sei molto meglio a scegliere una fetta verticale stretta – un caso d’uso concreto, un set di flussi di lavoro – e costruire la fiducia e l’orchestrazione di cui hai bisogno lì per primo. Diventa più sottile nel verticale, ottieni giusto e mantieni gli esseri umani nel loop ai bordi, e poi espandi. È così che ti muovi velocemente, rimani responsabile e eviti di creare un pasticcio che non puoi sbrogliare dopo.

Dalla tua esperienza nel guidare grandi team di prodotto e ingegneria a livello globale, quali cambiamenti organizzativi o culturali sono necessari affinché l’intelligenza artificiale diventi una capacità aziendale duratura invece di una raccolta di piloti disconnessi?

La maggior parte delle aziende non ha un “problema di intelligenza artificiale”; ha un problema di conoscenza e flussi di lavoro. Il primo cambio è smettere di giocare con soluzioni punto-punto e spostarsi da data warehouse a un data warehouse di conoscenza federato che tutti possano vedere e agire. Finché la conoscenza vive in silos e l’intelligenza artificiale è una ciliegia in cima a ogni silo, otterrai piloti, non trasformazione.

Da lì, devi essere disposto ad affrontare i problemi più difficili in un ordine specifico. Passo uno è separare l’ipnosi dalla realtà e adottare ciò che funziona, non qualunque cosa sia più forte nel tuo feed. Passo due è riarchitettare il livello di conoscenza in modo da poter trasformare i dati in contesto condiviso e federato invece di un altro report sepolto in un sistema. Passo tre è ripensare i flussi di lavoro intorno a quella conoscenza e a un reale livello di fiducia – la maggior parte del lavoro oggi è organizzato intorno a persone, abilità e silos di conoscenza locali. Se non cambi quello, gli agenti saranno solo un altro strumento che orbita intorno agli stessi vecchi collo di bottiglia.

Solo allora arrivi al cambio culturale, che è spesso il più difficile. Hai bisogno di una cultura in cui le persone non sono principalmente preoccupate di perdere il lavoro, gli strumenti o l’identità, ma sono veramente entusiaste di lavorare con nuove capacità. È un problema di gestione del cambio, non un problema tecnologico. Somiglia molto alla leadership distribuita: le persone alla punta della lancia capiscono i flussi di lavoro, si sentono al sicuro nel nominare l’attrito e sono entusiaste di mettere gli agenti al lavoro su di esso.

Guardando oltre la banda larga e le telecomunicazioni, quali settori ritieni siano meglio posizionati per adottare l’intelligenza artificiale operativa e guidata da agenti dopo, e quali condizioni li rendono pronti?

Non penso realmente a questo come scegliere i vincitori per etichetta di settore; penso in termini di pattern. Quasi ogni verticale ha la stessa sfida sottostante: hanno costruito silos di dati e silos di funzionalità invece di una vista unica attraverso tre cicli di vita – cliente, dipendente e prodotto. Quelli che sono pronti sono quelli disposti a vedere ciò, ammettere di non avere un reale livello di conoscenza e risolvere il problema.

Da lì, le condizioni sembrano abbastanza simili indipendentemente dal fatto che tu sia nel settore sanitario, nella finanza o nel retail. Hai bisogno di flussi di lavoro complessi dove le persone sono tese, punti di attrito reali che puoi nominare e abbastanza dati di alta qualità per dare agli agenti il contesto. Se puoi mappare i flussi di lavoro attuali, vedere dove il lavoro si rallenta o si accumula, capire quali passaggi di mano creano ritardi e poi supportare ciò con un data warehouse di conoscenza federato, l’intelligenza artificiale agente diventa uno strumento incredibile.

In quel mondo, la “prontezza del settore” si riduce alla leadership. I leader di un’azienda sono disposti a muoversi oltre gli strumenti di marketing e i dashboard orizzontali sottili e invece investire in uno stack tecnologico verticale – trasformando i dati in conoscenza, federando quella conoscenza, mettendo in atto framework di orchestrazione e fiducia e avendo conversazioni oneste su dove è il reale ROI? Qualsiasi azienda in qualsiasi settore che fa quel lavoro è ben posizionata per l’intelligenza artificiale operativa e guidata da agenti; quelle che non lo fanno rimarranno bloccate nell’aggiungere un altro strumento a un mucchio già rumoroso.

Man mano che l’intelligenza artificiale aziendale evolve verso ambienti multi-agente e multi-cloud, cosa sembra un’architettura di intelligenza artificiale buona tra cinque anni, e quali principi dovrebbero impegnarsi i leader oggi per evitare di dover ricostruire i loro sistemi in seguito?

Tra cinque anni, la parte interessante dell’intelligenza artificiale non sarà gli agenti o i modelli individuali; sarà i flussi di lavoro agente che abilitano e il valore aziendale che quei flussi di lavoro consegnano. Gli agenti stessi verranno e andranno. I livelli sotto di loro – dati, conoscenza, orchestrazione, fiducia e azione – continueranno a evolversi, ma il bisogno di essi non se ne andrà.

È per questo che sono più concentrato sull’architettura che su qualsiasi strumento specifico. Stiamo passando da data warehouse a data warehouse di conoscenza federato, da integrazioni punto-punto fragili a stack stratificati aperti. In quel mondo, avrai agenti che eseguono in diverse nuvole, toccando diverse fonti di conoscenza e coordinandosi su interfacce ben definite – MCP al livello della conoscenza e protocolli agente-agente ai livelli di orchestrazione e fiducia. Man mano che la tecnologia migliora, vuoi poter sostituire pezzi migliori in quei livelli senza dover ricostruire tutto ogni volta.

Quindi, i principi per i leader sono semplici. Non costruire in modo monolitico. Progetta per livelli in modo che i dati, la conoscenza, l’orchestrazione, la fiducia e l’azione possano evolversi indipendentemente. Progetta per flussi, non per funzionalità, in modo da essere chiaro su quali flussi di lavoro contano e cosa sembra “buono” nei cicli di vita del cliente, del dipendente e del prodotto. E progetta per la governance al livello dell’agente: supponi zero fiducia per impostazione predefinita, definisci chiari “biglietti di agente” e usa l’orchestrazione per decidere cosa è urgente, cosa è importante e cosa deve solo essere fatto. Se fai questo, puoi lasciare che la tecnologia cambi – come sempre fa – senza preoccuparti costantemente di dover ricostruire.

Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Calix.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.