Interviste
Ali Sarrafi, Amministratore Delegato e Fondatore di Kovant – Serie di Interviste

Ali Sarrafi, Amministratore Delegato e Fondatore di Kovant, è un esperto di tecnologia e intelligenza artificiale di lunga data con sede a Stoccolma, con un curriculum di costruzione e scalabilità di aziende di intelligenza artificiale ad alto tasso di crescita. Dal momento della fondazione di Kovant alla fine del 2024, ha attinto a una profonda esperienza nella strategia di intelligenza artificiale aziendale, nell’esecuzione del go-to-market e nella scalabilità operativa. In precedenza, ha ricoperto il ruolo di Vice Presidente della Strategia presso Silo AI dopo l’acquisizione da parte di AMD, dove era responsabile della definizione della strategia di intelligenza artificiale aziendale e della promozione dell’adozione su larga scala. All’inizio della sua carriera, ha co-fondato Combient Mix, guidando l’azienda attraverso una rapida crescita e un’acquisizione di successo da parte di Silo AI, e ha successivamente ricoperto ruoli di consulenza e di consiglio di amministrazione in aziende di istruzione e startup di intelligenza artificiale, riflettendo una costante attenzione alla traduzione di intelligenza artificiale avanzata in impatto aziendale reale.
Kovant è un’azienda di intelligenza artificiale aziendale che si concentra sull’abilitazione delle organizzazioni a passare dall’uso sperimentale dell’intelligenza artificiale a processi aziendali autonomi e completamente operativi. L’azienda sviluppa una piattaforma basata su agenti progettata per orchestrare squadre di agenti di intelligenza artificiale in domini operativi complessi come approvvigionamento, catene di fornitura, conformità e operazioni dei clienti. Sottolineando la distribuzione sicura di livello aziendale e il rapido tempo di ritorno sull’investimento, Kovant si posiziona come un ponte tra l’ambizione strategica dell’intelligenza artificiale e l’esecuzione quotidiana, aiutando le grandi organizzazioni a integrare l’intelligenza artificiale direttamente nei flussi di lavoro principali anziché trattarla come uno strumento o un progetto pilota autonomo.
Avete guidato importanti iniziative di intelligenza artificiale presso Spotify, avete scalato e ceduto Combient Mix, e in seguito avete definito la strategia di intelligenza artificiale aziendale presso Silo AI prima di fondare Kovant. Quali sono le lacune o le frustrazioni specifiche che avete incontrato in quei ruoli che vi hanno convinto che era giunto il momento di costruire una piattaforma aziendale autonoma, e come quella storia ha plasmato la filosofia di progettazione fondamentale di Kovant?
In tutti i miei ruoli precedenti, alcune lacune coerenti continuavano a presentarsi. In primo luogo, la maggior parte degli strumenti di intelligenza artificiale “verticali” è effettivamente prigioniera di un singolo stack software: fanno una cosa leggermente meglio all’interno di quel confine, ma lottano il momento in cui un flusso di lavoro deve attraversare più sistemi. Allo stesso tempo, i dati aziendali sono sparsi in molti strumenti e molte soluzioni di automazione semplicemente non possono raggiungerli. Aggiungete anni di integrazioni puntuali e ottenete l’architettura classica “spaghetti”: la complessità aumenta, i cambiamenti si rallentano e i team finiscono per automatizzare singoli passaggi anziché rivedere il flusso di lavoro dall’inizio alla fine. Il risultato è che il ritorno sull’investimento spesso arriva più lentamente – e più piccolo – di quanto le organizzazioni si aspettino.
Kovant è progettata come risposta a quella realtà. La nostra filosofia fondamentale è che gli agenti dovrebbero comportarsi più come dipendenti: lavorano attraverso più strumenti, sono “assunti” per fare lavori, non per automatizzare una singola sequenza scriptata. È per questo che le integrazioni e l’orchestrazione sono costruite e perché presumiamo che i dati aziendali siano spesso disordinati e non strutturati – hanno bisogno di un approccio più umano per gestire eccezioni e ambiguità.
Utilizziamo agenti fondamentali per raggiungere velocità e scalabilità, mantenendo al contempo la sovranità dei dati in primo piano: le aziende possono accedere e utilizzare i propri dati orizzontalmente senza che lascino le loro sedi.
Kovant si posiziona come una piattaforma aziendale autonoma in grado di eseguire intere operazioni e dipartimenti con agenti di intelligenza artificiale. Come definite “autonomo” in un contesto aziendale, e come questo differisce dagli strumenti di automazione e agenti con cui le aziende stanno già sperimentando oggi?
In un contesto aziendale, quando diciamo “autonomo” non intendiamo “non supervisionato”. Intendiamo che gli agenti di intelligenza artificiale possano intraprendere azioni reali dall’inizio alla fine di un’operazione con obiettivi chiari e guardrail, e che si rivolgeranno agli esseri umani quando è necessaria la supervisione.
Ciò che rende Kovant diverso sono i nostri agenti fondamentali. Anziché automatizzare un singolo processo fisso o seguire una sequenza predefinita, gli agenti di Kovant possono lavorare come un team (o sciame) su un’operazione utilizzando solo istruzioni e una panoramica operativa che chiamiamo blueprint. Non sono progettati per un’unica, stretta attività; collaborano per risolvere flussi di lavoro complessi, adattarsi alle condizioni che cambiano e passare agli esseri umani quando la situazione richiede la supervisione.
Ad esempio, un team di agenti di gestione degli inventari può eseguire tutti i seguenti lavori senza ricostruirli da zero, tra cui: comunicare con i fornitori via e-mail, monitorare i livelli di inventario e i segnali di esaurimento, tenere traccia delle spedizioni e degli ordini di acquisto, aggiornare gli stati tra i sistemi, creare biglietti di discrepanza per gli pianificatori di inventario per approvare, ridistribuire l’inventario tra i magazzini e consolidare i rapporti di inventario.
Quindi il cambiamento è che invece di “chat più strumenti” o automazioni fragili che si rompono in scala, le aziende passano dal costruire agenti all’eseguirli in scala.
Nonostante l’enorme interesse per l’intelligenza artificiale agente, molte organizzazioni rimangono bloccate nella modalità di prova. Dai veri e propri dispiegamenti che state vedendo, quali sono i motivi principali per cui le aziende lottano per passare dall’esperimento alla produzione su larga scala?
Ciò che stiamo vedendo è che la maggior parte delle organizzazioni non rimane bloccata nella modalità di prova perché l’idea è sbagliata; rimane bloccata perché l’ambiente è ostile alla scalabilità.
Il primo ostacolo è il paesaggio tecnologico aziendale frammentato. I flussi di lavoro si estendono su molti sistemi, i dati vivono in più posti e cucire tutto insieme in modo affidabile è difficile. E l’intelligenza artificiale agente è spesso distribuita come un componente aggiuntivo agli strumenti esistenti, anziché come un modo per rivedere come il flusso di lavoro dovrebbe funzionare dall’inizio alla fine.
C’è anche un vero problema di architettura e dati. Molti vendor di software come servizio (SaaS) ancora cercano di bloccare i dati all’interno, il che crea incompatibilità e limita ciò che gli agenti possono effettivamente fare tra i sistemi. E molte squadre sottovalutano il fatto che la maggior parte dei dati aziendali è non strutturata (e-mail, documenti, biglietti, PDF, log di chat). Se il vostro approccio presume dati puliti e strutturati, il tempo di ritorno sull’investimento diventa lungo, doloroso e difficile da replicare oltre la prova.
In sintesi: la frammentazione, il blocco e i dati non strutturati creano resistenza – e le prove non si trasformano in produzione fino a quando queste realtà non vengono progettate.
Affidabilità è spesso citata come il più grande ostacolo al dispiegamento di agenti di intelligenza artificiale nel mondo reale. Perché molti sistemi di agenti falliscono una volta che lasciano ambienti controllati, e come l’approccio di Kovant riduce problemi come allucinazioni e comportamento imprevedibile?
Alcuni sistemi di agenti sembrano grandi nelle demo, poi falliscono nel mondo reale perché l’ambiente è disordinato e imprevedibile. I dati sono incompleti o inconsistenti, casi limite si presentano costantemente (rimborsi, dispute, approvazioni speciali). I flussi di lavoro si estendono su più strumenti, piattaforme e integrazioni che cambiano nel tempo, e le autorizzazioni variano. Quando a un agente di intelligenza artificiale viene chiesto di gestire un compito grande e gli viene data troppa contestualizzazione contemporaneamente, il rischio di allucinazioni e comportamento strano aumenta.
Kovant riduce questo per progettazione. La nostra architettura unica restringe lo spazio del problema, lo spazio decisionale e il contesto con cui i modelli lavorano per ridurre le allucinazioni. Rompiamo anche le operazioni in compiti stretti e focalizzati per singoli agenti e passaggi. Ciò rende il comportamento più prevedibile e aggiunge tracciabilità e controllabilità nel sistema e può gestire meglio le allucinazioni. Possiamo vedere cosa abbia fatto ogni agente, dove sia iniziato un fallimento e intervenire o escalare quando necessario.
Le allucinazioni non scompaiono magicamente, ma restringendo cosa ogni agente sia responsabile e limitando il contesto su cui può agire, possiamo ridurre la loro frequenza e limitare il loro impatto. Questo approccio “narrowed task/context” è stato anche supportato in un recente lavoro del team di ricerca di Nvidia, che ha trovato benefici simili dalla limitazione della presa di decisioni degli agenti.
La responsabilità è una preoccupazione importante mentre gli agenti di intelligenza artificiale iniziano a intraprendere azioni reali nei sistemi aziendali. Come i registri dettagliati delle azioni cambiano la conversazione su fiducia, conformità e rischio operativo?
Con i registri dettagliati delle azioni possiamo vedere cosa è successo, perché è successo e cosa succede dopo.
I registri dettagliati trasformano un agente da un bot misterioso che lavora nella macchina in un sistema che possiamo ispezionare.
In Kovant, con ogni dispiegamento di agenti di intelligenza artificiale, ci sarà una mappa dei rischi che l’organizzazione può agire, abbiamo costruito una porta di guardia per gli esseri umani per azioni rischiose che significa che gli agenti possono eseguire solo quei compiti se un essere umano esamina e approva la decisione. Tutti questi sono registrati allo stesso modo come un sistema di registri è registrato e sono tracciabili.
Crediamo che sia importante combinare i registri delle azioni con la supervisione umana e l’osservabilità per minimizzare il rischio. Ciò significa che si ottengono ancora i benefici di velocità e scalabilità degli agenti che eseguono operazioni reali.
C’è una crescente discussione su se gli agenti di intelligenza artificiale possano essere assicurati a causa della loro presa di decisioni opaca. Come la rendicontazione dei flussi di lavoro degli agenti e la riproducibilità aiutano ad affrontare il problema della “scatola nera” e ad aprire la porta all’assicurabilità?
Il problema della “scatola nera” è ciò che rende difficile l’assicurabilità. Se non si può chiaramente mostrare cosa abbia fatto un agente, perché l’abbia fatto e quali controlli fossero in atto, è difficile per chiunque, specialmente per gli assicuratori, valutare il rischio.
Il nostro approccio è essenzialmente un’estensione dell’impostazione di responsabilità nella risposta precedente. Rompiamo lo spazio decisionale e l’impatto delle azioni in pezzi più piccoli, in modo che il modello non prenda una singola decisione opaca che possa influenzare un’intera operazione. Ogni passaggio è più stretto, più prevedibile ed è più facile da valutare.
Aggiungiamo quindi registri dettagliati, osservabilità e supervisione umana. Per le decisioni più importanti e più impattanti, utilizziamo un gatekeeper umano in modo che l’agente possa procedere solo dopo la revisione e l’approvazione. Ciò crea molta più visibilità su come il flusso di lavoro si comporta nella pratica.
La rendicontazione dei flussi di lavoro e la riproducibilità sono l’ultimo pezzo. Se qualcosa va storto, è possibile riprodurre cosa è successo, indagare velocemente, convalidare le correzioni e dimostrare quanto spesso l’approvazione umana sia richiesta e dove si trovino le salvaguardie. In termini di underwriting, ciò trasforma il comportamento misterioso dell’intelligenza artificiale in qualcosa di più vicino al rischio operativo standard.
Con iniziative come la Fondazione di Intelligenza Artificiale Agente che mira a creare standard condivisi per sistemi agenti, quali sono gli aspetti più promettenti di questi sforzi e dove ancora mancano per le operazioni aziendali reali?
La standardizzazione è in generale una cosa buona. La Fondazione di Intelligenza Artificiale Agente può fare il lavoro noioso ma essenziale per far sì che i sistemi di agenti parlino la stessa lingua, il che dovrebbe rendere più facili le integrazioni e ridurre il blocco del fornitore nel tempo.
Dove sono cauto è la prospettiva di chi plasma gli standard. Se la maggior parte del lavoro è guidata dai creatori di modelli e dalle startup tecnologiche, c’è il rischio che gli “standard” ottimizzino ciò che è più facile da costruire o dimostrare, anziché ciò di cui le grandi organizzazioni hanno effettivamente bisogno per eseguire gli agenti in modo sicuro ogni giorno.
Per le operazioni aziendali reali, le lacune tendono a essere meno sui connettori e più sul controllo: cosa un agente può accedere e cambiare, flussi di lavoro di approvazione per azioni ad alto impatto, registri tracciabili e osservabilità in modo che i team possano monitorare il comportamento, indagare gli incidenti e dimostrare la conformità. Le aziende hanno anche bisogno di standard pratici per operare nella realtà disordinata: testare contro casi limite, gestire sistemi in cambiamento e essere in grado di interrompere, contenere o annullare azioni in modo sicuro attraverso strumenti legacy e ambienti di dati regolamentati.
Quindi è una direzione promettente, ma l’impatto sarà limitato a meno che i requisiti aziendali e i controlli di rischio operativo non vengano trattati come un ripensamento.
Kovant ha già generato entrate significative da grandi aziende nordiche mentre opera principalmente in modalità stealth. Quali tipi di funzioni aziendali o flussi di lavoro si stanno dimostrando più pronti per gli agenti di intelligenza artificiale autonomi oggi?
Da ciò che abbiamo visto nei dispiegamenti reali, i flussi di lavoro più “pronti” oggi sono quelli composti da lavoro di colletti bianchi reattivo: monitoraggio, inseguimento, controllo, aggiornamento dei sistemi, gestione delle eccezioni e mantenimento delle operazioni in movimento attraverso più strumenti.
Nella produzione e nella catena di fornitura aziendale più ampia, ciò si manifesta in:
- Approvvigionamento/procurement: disponibilità di materie prime, approvvigionamento sostenibile, operazioni di conformità, selezione del fornitore (incluso dual/multi-sourcing), gestione del contratto, gestione del rischio del fornitore e gestione delle offerte.
- Produzione: pianificazione della capacità, pianificazione della produzione, gestione della manutenzione, gestione della qualità, gestione del collo di bottiglia e prevenzione delle perdite.
- Magazzinaggio: ricezione e ispezione, gestione degli inventari, rotazione degli stock (FIFO/FEFO) e contabilità ciclica/audit.
- Trasporto / logistica: selezione del modo e del vettore, dogana/documentazione, tracciabilità e visibilità, monitoraggio delle emissioni e conformità commerciale.
- Vendite e servizio: disponibilità del prodotto, prevenzione dello stockout, gestione delle vendite/resa, analisi del comportamento dei consumatori, più aree di post-vendita come riparazioni, tracciamento della fine della vita, operazioni di officina e contratti di servizio.
Quando le aziende dispiegano agenti di intelligenza artificiale attraverso operazioni critiche, come consigliate di bilanciare l’autonomia con la supervisione umana per garantire il controllo senza rallentare tutto?
L’equilibrio è governato dall’autonomia. Bisogna lasciare che gli agenti si muovano rapidamente sul lavoro a basso rischio all’interno di guardrail chiari e che si rivolgano agli esseri umani quando l’azione attraversa una soglia di rischio definita.
Molti fallimenti derivano dal dare al modello troppa portata e troppa contestualizzazione contemporaneamente. Consiglio di rompere le operazioni in decisioni più strette e più focalizzate, dove ogni passaggio abbia autorizzazioni chiare e un impatto limitato. Ciò riduce il comportamento imprevedibile e rende le prestazioni più facili da monitorare e migliorare.
Poi si combinano tre cose: osservabilità, registri delle azioni e gatekeeping umano. Tutto ciò che l’agente fa dovrebbe essere tracciabile, in modo che si possa ispezionare cosa è successo e indagare rapidamente. Per azioni ad alto impatto o rischiose, si inserisce un passaggio di approvazione umana nel flusso di lavoro, in modo che l’agente possa proporre e preparare, ma eseguire solo una volta che una persona abbia approvato.
Ciò mantiene le cose in movimento rapidamente. Se mai, rallenta solo leggermente al passaggio di supervisione umana, ma quella è una parte importante del processo. Gli esseri umani non sono bloccati nella supervisione di ogni clic, ma sono ancora in controllo dei momenti che contano. Il risultato è velocità dove è sicuro e supervisione dove è necessario.
Guardando avanti, come pensate che il ruolo degli agenti di intelligenza artificiale autonomi si evolverà all’interno delle grandi organizzazioni nei prossimi anni, e cosa separerà le aziende che hanno successo con l’intelligenza artificiale agente da quelle che lottano?
Nei prossimi anni, gli agenti di intelligenza artificiale autonomi passeranno da esperimenti interessanti a diventare un vero strato operativo all’interno delle grandi organizzazioni. Saranno utilizzati per operazioni, servizio clienti, finanza e risorse umane. Man mano che l’affidabilità, la governance e la supervisione migliorano, vedremo le aziende spostarsi da piloti isolati all’esecuzione di team di agenti attraverso flussi di lavoro dall’inizio alla fine.
Il cambiamento più grande è che velocità, agilità, scalabilità, efficienza e costi diventeranno un leveraggio competitivo più diretto. Credo che stia arrivando un movimento “Uber” per le aziende. Quelle che padroneggiano veramente l’intelligenza artificiale agente saranno in grado di operare a un ritmo fondamentalmente più veloce dei ritardatari, catturare i mercati più velocemente e rispondere al cambiamento senza il solito attrito operativo.
Ciò che separa i vincitori non è solo il dispiegamento degli agenti, ma il dispiegamento degli agenti in modo efficace. L’autonomia governata, l’osservabilità forte e i registri delle azioni, e le architetture che restringono lo spazio decisionale saranno chiave per questo. Le aziende che trattano l’intelligenza artificiale agente come una capacità operativa fondamentale, con i controlli giusti, l’integrazione e la proprietà giuste, useranno questo per fare di più, non di meno. Ciò libererà i team per concentrarsi sulla crescita e sull’innovazione anziché trascorrere i loro giorni sepolti nell’amministrazione. In breve, la velocità radicale e l’efficienza diventano un vero vantaggio competitivo a livello aziendale.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Kovant.












