Connect with us

ActionAI ottiene 10 milioni di dollari per portare responsabilità e affidabilità all’intelligenza artificiale aziendale

Finanziamenti

ActionAI ottiene 10 milioni di dollari per portare responsabilità e affidabilità all’intelligenza artificiale aziendale

mm

L’adozione aziendale dell’intelligenza artificiale è accelerata rapidamente, ma scalare oltre i progetti pilota rimane una sfida persistente. Un motivo principale è la fiducia. Mentre i dipendenti utilizzano sempre più strumenti di intelligenza artificiale nel loro lavoro quotidiano, le organizzazioni rimangono esitanti a fare affidamento su di essi per le operazioni core dove l’accuratezza e la responsabilità sono critiche.

Questo divario è ciò che ActionAI si propone di colmare. La società ha annunciato un round di finanziamento di 10 milioni di dollari per costruire un’infrastruttura che renda i sistemi di intelligenza artificiale sufficientemente affidabili per l’uso aziendale mission-critico.

Perché l’adozione dell’intelligenza artificiale si sta fermando

Nonostante la sperimentazione diffusa, la maggior parte delle iniziative di intelligenza artificiale aziendale non raggiunge la produzione. I dati interni spesso non vengono verificati, i risultati possono essere incoerenti e gli errori – in particolare le allucinazioni – introducono un rischio operativo reale.

Studi mostrano che mentre la maggioranza dei dipendenti utilizza ora strumenti di intelligenza artificiale al lavoro, molti lo fanno senza verificare l’accuratezza. Allo stesso tempo, una grande percentuale dei casi d’uso dell’intelligenza artificiale aziendale rimane bloccata nella modalità di prova. Il problema non è più se l’intelligenza artificiale sia capace, ma se possa essere considerata attendibile.

Ciò è particolarmente problematico in settori come finanza, assicurazioni, sanità e logistica, dove gli errori possono avere conseguenze regolamentari, finanziarie o legali.

Costruire uno strato di affidabilità per l’intelligenza artificiale

L’approccio di ActionAI è quello di trattare l’affidabilità come uno strato fondamentale e non come un ripensamento. La sua piattaforma è progettata per monitorare e valutare i sistemi di intelligenza artificiale in tutta la loro durata di vita – dalla formazione dei dati al risultato finale.

Invece di concentrarsi solo sulle prestazioni del modello, il sistema mappa come i dati fluiscono attraverso ogni fase dello stack di intelligenza artificiale. Ciò consente ai team di identificare esattamente dove si verificano i guasti, sia al livello di input, durante l’elaborazione o allo stadio di output.

Un componente chiave della piattaforma è la sua capacità di debuggere i problemi in tempo reale. Quando qualcosa va storto, i team possono isolare rapidamente la causa radice e affrontare i casi limite prima che si trasformino in problemi più grandi.

Introduzione alle eccezioni spiegabili

Uno degli elementi più distintivi della piattaforma è un sistema chiamato Eccezioni spiegabili (ExEx). Invece di costringere i sistemi di intelligenza artificiale ad agire con output incerti, ExEx rileva quando il modello manca di fiducia e indirizza il compito a un essere umano.

Ciò che rende questo approccio degno di nota è che non si limita a segnalare un problema – fornisce una motivazione. I revisori umani ricevono il contesto che spiega perché l’intelligenza artificiale era incerta, consentendo loro di prendere decisioni più rapide e più informate.

Ciò crea un flusso di lavoro strutturato umanizzato che non rallenta le operazioni, ma agisce come una salvaguardia. Assicura che gli output incerti o ad alto rischio non passino inosservati attraverso il sistema.

Dal monitoraggio al controllo continuo

Oltre al deploy, la piattaforma continua a monitorare le prestazioni dell’intelligenza artificiale in produzione. Traccia come i sistemi rispondono a nuovi dati, condizioni in evoluzione o istruzioni aggiornate.

Quando le prestazioni calano o appaiono anomalie, il sistema le segnala automaticamente, aiutando le organizzazioni a mantenere la coerenza nel tempo. Ciò è particolarmente importante poiché i modelli di intelligenza artificiale si deteriorano o si comportano in modo imprevedibile quando esposti a nuovi input.

L’obiettivo è spostarsi da deploy statici di intelligenza artificiale a sistemi gestiti in modo continuo che si adattino senza sacrificare l’affidabilità.

ActionAI si concentra su settori in cui la precisione è imprescindibile. Ciò include servizi finanziari, produzione, retail, assicurazioni, catene di approvvigionamento e sistemi giuridici.

In questi ambienti, anche piccoli errori possono creare problemi a catena. Introducendo la supervisione, la tracciabilità e la gestione strutturata delle eccezioni, la piattaforma è progettata per rendere l’intelligenza artificiale fattibile in contesti in cui è stata tradizionalmente considerata troppo rischiosa.

Una svolta verso un’intelligenza artificiale responsabile

Per la fondatrice Miriam Haart, il problema fondamentale non è solo migliorare le prestazioni dell’intelligenza artificiale, ma rendere i sistemi responsabili fin dall’inizio.

L’architettura della società si concentra sulla convalida dei dati prima che entrino nel sistema, monitora il comportamento durante l’esecuzione e assicura che gli output possano essere spiegati e verificati in seguito. Questa visibilità end-to-end è ciò che consente alle organizzazioni di andare oltre la sperimentazione e di entrare in una fase di deploy su larga scala.

L’implicazione più ampia di questo round di finanziamento è una svolta nel modo in cui le aziende pensano all’intelligenza artificiale. Invece di trattarla come uno strumento sovrapposto ai sistemi esistenti, le società iniziano a considerarla come un’infrastruttura fondamentale – qualcosa che deve soddisfare gli stessi standard di qualsiasi sistema mission-critico.

ActionAI si sta posizionando in quel punto di intersezione, dove le prestazioni da sole non sono più sufficienti. L’affidabilità, la trasparenza e il controllo stanno diventando i requisiti definitivi per l’adozione dell’intelligenza artificiale aziendale.

Se questi elementi possono essere standardizzati, l’intelligenza artificiale potrebbe finalmente spostarsi da progetti pilota isolati a operazioni completamente integrate in tutta l’azienda.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.