interviste
Manuel Romero, co-fondatore e responsabile scientifico di Maisa – Serie di interviste

Manuel RomeroRomero, co-fondatore e responsabile scientifico di Maisa, è un ricercatore e ingegnere nel campo dell'intelligenza artificiale, specializzato nello sviluppo di sistemi di intelligenza artificiale affidabili e di livello enterprise. Ha co-fondato Maisa nel 2024 con l'obiettivo di creare un'IA responsabile, in grado di eseguire processi aziendali complessi con trasparenza e controllo. Prima di Maisa, Romero ha ricoperto ruoli di alto livello nell'ingegneria dell'IA e nell'apprendimento automatico presso aziende come Clibrain e Narrativa, dove si è specializzato nell'elaborazione del linguaggio naturale e nei sistemi di IA su larga scala. In precedenza, ha lavorato come ingegnere software full-stack e specialista DevOps, prima di dedicarsi alla ricerca e allo sviluppo di sistemi di IA avanzati, contribuendo attivamente all'ecosistema open source dell'IA.
Maisa AI Sviluppa "lavoratori digitali" autonomi, agenti di intelligenza artificiale progettati per automatizzare flussi di lavoro aziendali complessi, mantenendo al contempo tracciabilità, governance e affidabilità. La piattaforma consente alle organizzazioni di creare e implementare agenti di intelligenza artificiale utilizzando il linguaggio naturale, permettendo l'automazione tra sistemi interni e fonti di dati senza la necessità di una programmazione complessa. Concentrandosi sul ragionamento verificabile e sull'esecuzione strutturata, Maisa mira a superare le limitazioni comuni associate ai sistemi di intelligenza artificiale generativa e ad aiutare le aziende a implementare in modo sicuro l'intelligenza artificiale autonoma su larga scala.
Ti sei spesso concentrato sulla comprensione del "perché" più profondo dei sistemi di intelligenza artificiale. Da un punto di vista tecnico, cosa ti ha spinto a co-fondare Maisa nel 2024 e quale lacuna nell'architettura di intelligenza artificiale aziendale ritenevi non fosse stata colmata?
La motivazione alla base della fondazione di Maisa è nata dalla consapevolezza che la maggior parte delle piattaforme di intelligenza artificiale aziendali erano costruite attorno a modelli, non a sistemi.
Durante il boom dell'IA generativa, molte aziende si sono concentrate sull'integrazione di modelli linguistici di grandi dimensioni nei flussi di lavoro esistenti. Tuttavia, questi sistemi erano spesso fragili, opachi e difficili da gestire su larga scala. Mancavano di:
- esecuzione deterministica laddove contava.
- forte osservabilità e tracciabilità
- riproducibilità
La lacuna che abbiamo riscontrato era l'assenza di una vera e propria infrastruttura di intelligenza artificiale per le imprese. Le aziende sviluppavano applicazioni basate sulle API LLM, ma mancava loro qualcosa di equivalente a un'architettura informatica per il lavoro basato sulla conoscenza.
Maisa è stata creata per colmare questa lacuna progettando un'architettura incentrata sulla Knowledge Processing Unit (KPU), un sistema che consente all'intelligenza artificiale di operare in modo affidabile all'interno di flussi di lavoro aziendali reali.
Prima di fondare Maisa, hai lavorato nel campo dell'elaborazione avanzata del linguaggio naturale e dei sistemi generativi. In che modo queste esperienze hanno influenzato le scelte architetturali alla base della piattaforma?
La mia esperienza nel campo dell'elaborazione del linguaggio naturale (NLP) e della generazione del linguaggio naturale (NLG), in particolare nell'addestramento e nel pre-addestramento di modelli linguistici e successivamente di modelli linguistici di grandi dimensioni (centinaia), mi ha chiarito un aspetto fondamentale quando ho cercato di costruire sistemi reali basati su di essi. L'architettura Transformer è estremamente potente, ma presenta almeno tre limitazioni di base che devono essere affrontate per poterla utilizzare in modo affidabile in produzione.
Il primo tipo è quello delle allucinazioni. Questi modelli generano testo in modo probabilistico e possono produrre risultati che sembrano corretti ma non sono basati su informazioni verificate.
Il secondo problema riguarda le limitazioni di contesto. Anche con finestre di contesto più ampie, i modelli operano all'interno di uno spazio di token limitato, il che rende difficile ragionare su insiemi di conoscenze ampi o complessi.
Il terzo elemento è la disponibilità di informazioni aggiornate. I modelli pre-addestrati rappresentano un'istantanea delle conoscenze al momento dell'addestramento, mentre gli ambienti aziendali richiedono sistemi in grado di elaborare informazioni in continua evoluzione.
La consapevolezza di questi vincoli ha influenzato molte delle decisioni architetturali alla base di Maisa. Invece di affidarci esclusivamente al modello, ci siamo concentrati sulla creazione di un sistema che fornisca un accesso strutturato alla conoscenza, meccanismi di validazione ed esecuzione controllata, in modo che l'IA possa operare in modo affidabile nei flussi di lavoro aziendali reali.
Molte aziende sperimentano l'intelligenza artificiale generativa, ma faticano ad andare oltre i progetti pilota. Dal punto di vista della progettazione dei sistemi, qual è la ragione principale per cui la scalabilità fallisce in così tante organizzazioni?
Molte aziende faticano a superare la fase pilota dell'IA generativa perché la maggior parte delle implementazioni viene realizzata come esperimento piuttosto che come sistema robusto. I primi prototipi spesso si basano su un'ingegneria rapida, un'orchestrazione leggera e semplici pipeline di recupero, che possono dimostrare il loro valore ma non forniscono l'affidabilità, l'osservabilità o il controllo necessari per gli ambienti di produzione. Quando le organizzazioni cercano di scalare questi sistemi, incontrano problemi come output incoerenti, mancanza di tracciabilità, difficoltà di integrazione con i flussi di lavoro aziendali e governance limitata sul comportamento dell'IA. In sostanza, il problema è che i modelli linguistici di grandi dimensioni sono generatori probabilistici, mentre i processi aziendali richiedono un comportamento prevedibile e verificabile. Senza un'architettura che aggiunga struttura al ragionamento, alla validazione, all'esecuzione e al monitoraggio, i sistemi di IA generativa rimangono difficili da scalare oltre casi d'uso isolati.
I Digital Worker di Maisa sono progettati per essere verificabili e strutturati, piuttosto che puramente probabilistici. Cosa significa questo in termini pratici per le aziende che valutano l'IA per l'utilizzo in produzione?
Quando affermiamo che i Digital Worker di Maisa sono verificabili e strutturati, anziché puramente probabilistici, intendiamo che l'IA opera all'interno di un sistema controllato in cui le sue azioni e il suo ragionamento possono essere tracciati e gestiti. Invece di consentire a un modello di generare liberamente output e decisioni, il sistema struttura il modo in cui l'IA interagisce con dati, strumenti e flussi di lavoro. Ogni fase del processo può essere registrata, ispezionata e convalidata, e le azioni vengono eseguite tramite interfacce definite anziché direttamente dall'output del modello. Per le aziende, questo significa che i sistemi di IA possono essere monitorati, verificati e integrati nei processi critici con maggiore sicurezza. Trasforma l'IA da un assistente "a scatola nera" a un sistema il cui comportamento può essere compreso, controllato e considerato affidabile negli ambienti di produzione.
In qualità di architetto dell'Unità di elaborazione della conoscenza, in che modo si differenzia da un tipico livello di orchestrazione o motore di workflow costruito attorno a modelli linguistici di grandi dimensioni?
L'Unità di Elaborazione della Conoscenza (KPU) si differenzia dai tipici livelli di orchestrazione perché è progettata per gestire l'intero ciclo di vita del ragionamento basato sull'IA, anziché limitarsi a coordinare richieste e chiamate di modello. La maggior parte dei framework di orchestrazione agisce come gestore di flussi di lavoro, concatenando fasi quali il recupero delle informazioni, la richiesta di input e l'esecuzione degli strumenti. La KPU opera a un livello architetturale più profondo, strutturando le modalità di accesso alla conoscenza, di esecuzione del ragionamento e di esecuzione delle azioni all'interno del sistema. Tratta l'elaborazione della conoscenza come un livello computazionale centrale, integrando memoria, validazione ed esecuzione controllata, in modo che l'IA possa operare in modo affidabile all'interno di flussi di lavoro aziendali complessi, anziché limitarsi a generare risposte.
Nei settori regolamentati, la tolleranza al rischio è bassa. Quali decisioni di progettazione specifiche avete preso per garantire che i risultati dell'IA rimangano affidabili e non propaghino errori in flussi di lavoro complessi?
Nei settori regolamentati, affidabilità e controllo sono essenziali, pertanto abbiamo progettato il sistema con diverse misure di sicurezza per garantire che gli output dell'IA rimangano affidabili. Un principio chiave è l'esecuzione strutturata, in base alla quale l'IA non può attivare direttamente azioni critiche senza passare attraverso interfacce controllate. Abbiamo inoltre integrato livelli di validazione che verificano gli output del modello rispetto a schemi, regole o meccanismi secondari prima che vengano accettati. In aggiunta, il sistema mantiene la piena osservabilità, registrando le fasi di ragionamento, le interazioni con gli strumenti e le decisioni, in modo che possano essere tracciate e verificate. Nel complesso, queste scelte progettuali contribuiscono a impedire che gli errori si propaghino attraverso i flussi di lavoro e consentono alle organizzazioni di gestire sistemi di IA con il livello di affidabilità e governance richiesto negli ambienti regolamentati.
Quali sono i casi d'uso iniziali più convincenti in cui avete visto i Digital Worker passare dall'assistenza guidata all'esecuzione pienamente operativa basata sull'intelligenza artificiale?
Alcuni dei primi casi d'uso più interessanti si manifestano nei flussi di lavoro ad alta intensità di conoscenza, dove i processi sono ben definiti ma richiedono comunque un'analisi e un processo decisionale significativi. In ambiti come la revisione della conformità, le operazioni di supporto tecnico e la gestione della conoscenza interna, i lavoratori digitali possono andare oltre la semplice assistenza agli esseri umani e iniziare a eseguire attività strutturate dall'inizio alla fine. Possono recuperare e analizzare grandi volumi di informazioni interne, applicare procedure definite, interagire con i sistemi aziendali tramite strumenti controllati e produrre output che alimentano direttamente i flussi di lavoro operativi. Il cambiamento chiave si verifica quando l'IA non si limita a generare suggerimenti, ma è in grado di eseguire in modo affidabile azioni definite all'interno di un sistema governato, consentendo alle organizzazioni di automatizzare parti del complesso lavoro basato sulla conoscenza anziché limitarsi ad aumentarlo.
Con l'intensificarsi del controllo normativo sull'IA a livello globale, come prevedete che si evolverà l'infrastruttura di base dell'IA per soddisfare i requisiti di conformità senza limitare l'innovazione?
Con l'intensificarsi del controllo normativo sull'IA, credo che assisteremo a un allontanamento dalle architetture che si limitano a richiamare le API dei fornitori di modelli e a fidarsi ciecamente dei risultati. Le imprese e gli enti regolatori richiederanno sempre più sistemi in cui il comportamento dell'IA sia osservabile, verificabile e governato. È qui che architetture come la Knowledge Processing Unit (KPU) diventano fondamentali. Questo tipo di architettura consente alle organizzazioni di implementare controlli, tracciare le decisioni e garantire che i risultati dell'IA siano affidabili prima che influenzino i processi reali. Col tempo, mi aspetto che questi sistemi diventino lo standard di riferimento per infrastrutture di IA affidabili.
Hai parlato di etica e responsabilità parallelamente al tuo lavoro tecnico. In che modo queste prospettive influenzano il tuo approccio alla creazione di sistemi di intelligenza artificiale trasparenti?
Per me, etica e responsabilità si traducono direttamente in scelte di progettazione dei sistemi. Se i sistemi di intelligenza artificiale devono partecipare a flussi di lavoro operativi reali, non possono funzionare come scatole nere opache il cui comportamento non può essere ispezionato o compreso. Questa prospettiva ha fortemente influenzato il mio approccio alla creazione di sistemi di intelligenza artificiale. Trasparenza, tracciabilità e supervisione umana devono essere integrate nell'architettura fin dall'inizio. Ciò significa garantire che i passaggi del ragionamento siano osservabili, le decisioni verificabili e le azioni eseguite tramite meccanismi controllati. Quando questi principi sono incorporati a livello di infrastruttura, i sistemi di intelligenza artificiale diventano non solo più affidabili, ma anche più facili da gestire in modo responsabile per le organizzazioni.
Guardando al futuro, ritieni che l'infrastruttura di IA agentiva diventerà fondamentale quanto lo è stata l'infrastruttura cloud nel decennio precedente? E cosa deve accadere a livello tecnico affinché questa trasformazione si concretizzi?
Credo fermamente che l'infrastruttura di IA agentiva abbia il potenziale per diventare fondamentale quanto lo è diventata l'infrastruttura cloud nell'ultimo decennio. Man mano che le organizzazioni cercheranno di automatizzare il lavoro basato sulla conoscenza, sempre più complesso, avranno bisogno di sistemi in grado di coordinare in modo affidabile ragionamento, memoria ed esecuzione su molteplici attività e fonti di dati. Tuttavia, affinché questa trasformazione si concretizzi, l'architettura sottostante deve maturare oltre la semplice integrazione di modelli. Abbiamo bisogno di un'infrastruttura che fornisca ragionamento strutturato, accesso affidabile alla conoscenza aziendale, forte osservabilità ed esecuzione controllata delle azioni. Quando queste capacità saranno integrate nel sistema centrale, l'IA agentiva potrà evolversi da strumento sperimentale in un'infrastruttura affidabile su cui le organizzazioni faranno affidamento per gestire operazioni critiche.
Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare Maisa AI.












