Finanziamenti
Maisa raccoglie 25 milioni di dollari per alimentare lavoratori digitali affidabili e trasparenti

L’intelligenza artificiale aziendale è afflitta da insuccessi: gli studi mostrano che fino al 95% dei piloti di intelligenza artificiale generativa falliscono. Ma Maisa, che collega Valencia e San Francisco, sta ingegnerizzando la responsabilità nell’automazione. A seguito di un round di finanziamento di 25 milioni di dollari guidato da Creandum con il sostegno di Forgepoint Capital, NFX e Village Global, Maisa è pronta a trasformare i flussi di lavoro di intelligenza artificiale con un’automazione dei processi agente che è altrettanto verificabile quanto intelligente.
Inside the Engine: KPU & Chain-of-Work — Building Trust from the Ground Up
Al centro della piattaforma di Maisa c’è l’unità di elaborazione della conoscenza (Knowledge Processing Unit, KPU) — un’architettura innovativa che ripensa il ragionamento dell’intelligenza artificiale. Il KPU include:
- Un motore di ragionamento, alimentato da un modello linguistico di grandi dimensioni, che pianifica flussi di lavoro multistep.
- Un motore di esecuzione che esegue questi piani e restituisce i risultati per la ricallibrazione.
- Una finestra di contesto virtuale che semplifica il flusso di informazioni, concentrandosi solo sui dati rilevanti per mitigare le allucinazioni.
Il genio del KPU sta nel modo in cui ridisegna il ruolo del modello linguistico di grandi dimensioni. Invece di agire come un generatore di testo probabilistico, il modello viene trattato come un componente all’interno di un quadro computazionale disciplinato. Il KPU orchestra il ragionamento come un sistema operativo, suddividendo i problemi in passaggi gestibili e verificabili, garantendo che ogni azione possa essere convalidata. Questa struttura trasforma un modello un tempo opaco in un sistema logico prevedibile, in cui gli errori possono essere rilevati, corretti e impediti di propagarsi.
Complementare al KPU è la Chain-of-Work — un registro di controllo registrato con cura che traccia ogni decisione, azione e strumento coinvolto nel processo di un lavoratore digitale. A differenza dei tipici output dell’intelligenza artificiale che lasciano gli utenti nell’incertezza, la Chain-of-Work funziona come un registratore di volo per l’automazione. Ogni calcolo, ogni estrazione di dati, ogni passaggio di ragionamento viene conservato nei dettagli. Ciò consente alle aziende non solo di fidarsi dei risultati, ma di ritrarli, riprodurli e raffinarli nel tempo. Per le industrie soggette a normative, questo non è solo un vantaggio — è la base per un deploy sicuro su larga scala.
Maisa Studio in azione: agenti senza codice radicati nella trasparenza
Sfruttando il KPU e la Chain-of-Work, Maisa Studio consente ai “sviluppatori cittadini” — personale non tecnico — di distribuire lavoratori digitali utilizzando istruzioni in linguaggio chiaro. Attraverso HALP (Human-Augmented LLM Processing) di Maisa, il sistema interagisce per chiarire l’intento, costruisce flussi di lavoro, integra centinaia di API e inizia l’apprendimento dinamico — tutto senza sviluppatori o set di dati.
Nella pratica, ciò ha già prodotto un impatto significativo: un’azienda di servizi finanziari ha ridotto i falsi positivi del 99% e ha raggiunto un aumento della produttività di 10 volte per dipendente — con il deploy completo raggiunto in sole tre sessioni di onboarding. Banche globali, aziende automobilistiche e società energetiche stanno testando la piattaforma per automatizzare processi soggetti a normative su larga scala, dove la trasparenza e la verificabilità sono imprescindibili.
Perché è importante — Una visione per un’intelligenza artificiale che puoi fidarti e scalare
Maisa non offre solo automazione — offre un’intelligenza artificiale responsabile che incorpora la fiducia attraverso l’architettura. In settori gravati da regolamentazioni, opacità e alte poste in gioco — finanza, sanità, energia — la capacità di tracciare ogni decisione automatizzata è fondamentale. La Chain-of-Work consente alle aziende di ispezionare, verificare e convalidare la logica dell’intelligenza artificiale in ogni passaggio, quindi i regolatori e i team interni non devono indovinare come sono state raggiunte le conclusioni. Invece, possono verificarle con precisione.
Nel frattempo, la progettazione del KPU sopprime sistematicamente le allucinazioni isolando il ragionamento dal rumore dei dati e strutturando l’esecuzione. Ciò rende affidabile l’output e elimina l’imprevedibilità che spesso rende le aziende diffidenti nei confronti dell’intelligenza artificiale. Invece di produrre output avvolti nel mistero, gli agenti di Maisa forniscono risultati logici, prevedibili e coerenti.
Guardando avanti, questa piattaforma rappresenta un cambiamento fondamentale: l’intelligenza artificiale diventa un collaboratore affidabile — il cui ragionamento è trasparente, le cui azioni sono tracciabili e il cui “processo di pensiero” può essere raffinato e verificato. Poiché il sistema di Maisa è agnostico rispetto al modello, le organizzazioni mantengono la flessibilità di adottare modelli più forti in futuro — senza perdere la rigore e la supervisione del framework KPU. Quella adattabilità getta le basi per un deploy sostenibile e scalabile in base alle esigenze aziendali in evoluzione.
In sostanza, Maisa offre un progetto per un’intelligenza artificiale che non è solo potente — ma responsabile e resiliente. In un mondo in cui la maggior parte dei progetti di intelligenza artificiale non riesce a consegnare, questa tecnologia traccia un percorso raro in avanti — combinando innovazione con integrità.












