Connect with us

Perché l’Intelligenza Artificiale Aziendale Si Rompe Dopo Il Deployment – e Cosa Fare Al Riguardo

Leader di pensiero

Perché l’Intelligenza Artificiale Aziendale Si Rompe Dopo Il Deployment – e Cosa Fare Al Riguardo

mm

Avvertimento: Il Problema Non È Il Modello

Nel 2023, la città di New York ha lanciato il chatbot MyCity per aiutare le imprese a navigare nelle complesse normative. L’idea era semplice: rendere più facile l’accesso alle informazioni legali.

Nella pratica, il sistema ha prodotto risposte che non solo erano sbagliate, ma anche fuorvianti dal punto di vista legale – dalle norme sulle mance alle discriminazioni abitative alle leggi sui pagamenti.

Un’indagine successiva ha rilevato che il 71,4% dei feedback degli utenti era negativo. Invece di risolvere i problemi sottostanti, la risposta è stata quella di aggiungere avvertenze. Il chatbot è rimasto in “beta” per oltre due anni prima di essere chiuso.

Il fallimento non è stato tecnico. Il sistema si è rotto in produzione perché non c’era un meccanismo per garantire l’accuratezza, non c’era una chiara responsabilità e non c’era modo di intervenire quando le cose andavano male.

Questo è il modello dietro l’intelligenza artificiale aziendale di oggi: la tecnologia funziona, ma le organizzazioni non sono pronte a gestirla in modo affidabile una volta che è attiva.

Dal Pilotaggio Alla Produzione: Dove Tutto Si Rompe

Costruire un pilotaggio è abbastanza semplice – scegliere un caso d’uso, selezionare un modello, preparare i dati, trovare un sponsor. Eseguire un sistema in produzione è un’altra lega completamente diversa.

La differenza è come la differenza tra saltare in una piscina e saltare dalla stratosfera, come ha fatto Felix Baumgartner nel 2012. Stessa fisica di base, condizioni completamente diverse – e conseguenze completamente diverse in caso di fallimento.

In produzione, l’intelligenza artificiale entra nei flussi decisionali reali, interagisce con i clienti e crea conseguenze legali e operative. È lì che iniziano a comparire lacune – non nel modello, ma nel modo in cui è gestito.

L’Europa rende questo visibile prima di altre regioni. Regolamenti come il Regolamento AI dell’UE, il GDPR e il NIS2 non rallentano l’adozione – espongono se le organizzazioni possano gestire i sistemi di intelligenza artificiale sotto vincoli reali.

Nel 2025, il 55% delle grandi imprese dell’UE stava già utilizzando l’intelligenza artificiale. L’adozione sta già avvenendo su larga scala. La sfida è cosa succede dopo il deployment.

At quel punto, iniziano a sorgere domande operative di base. E spesso, nessuno può rispondere: Chi è responsabile per gli output e le decisioni autonome dell’intelligenza artificiale? Cosa succede quando il sistema si comporta in modi inaspettati? E chi lo fermerà prima che il danno raggiunga i media?

La responsabilità ricade sull’azienda, non sulla tecnologia. Il chatbot di Air Canada ha fornito a un cliente informazioni errate sui biglietti di lutto. Il cliente ha fatto affidamento su di esso e successivamente è stato negato un rimborso. Un tribunale ha stabilito che l’azienda aerea era responsabile – il chatbot non era un’entità separata.

Stesso problema, angolo diverso: Il sistema McHire di McDonald’s ha esposto dati sensibili di quasi 64.000 candidati. La causa non è stata un attacco sofisticato – il login dell’amministratore utilizzava “admin” e “123456”. Il sistema sembrava avanzato. Il fallimento è stato elementare.

Quando si aggiunge la governance a un sistema live, è già troppo tardi. Distribuire un sistema è una decisione tecnica. Gestirlo in modo affidabile è una decisione organizzativa. Ed è la parte che la maggior parte delle aziende sottovaluta.

Chi Possiede Realmente Il Rischio Dell’Intelligenza Artificiale? Nessuno.

Questo è il nucleo del problema, e paradossalmente è la parte meno discussa. L’IT gestisce l’infrastruttura. Il legale gestisce la conformità. Le squadre aziendali spingono per i casi d’uso. Ma nessuno possiede il rischio dell’intelligenza artificiale end-to-end.

Questo crea due problemi immediati. La decisione di “andare” si rallenta – perché nessuno vuole assumersi la responsabilità. E la decisione di “fermare” si rallenta altrettanto – perché nessuno sa chi può.

I dati lo riflettono. Menos del 10% dei casi d’uso dell’intelligenza artificiale passano dal pilotaggio alla produzione, e la maggior parte delle organizzazioni lotta per generare un impatto aziendale misurabile. Allo stesso tempo, molte stanno già distribuendo l’intelligenza artificiale – ma secondo un sondaggio sulla maturità della governance, solo il 7% aveva una governance ben strutturata e applicata in modo coerente.

Perché questo succede così costantemente? Perché la maggior parte dei framework e delle politiche aziendali definiscono cosa dovrebbe succedere – non chi è responsabile quando conta. Quando un sistema inizia a produrre output errati a mezzanotte di venerdì, la domanda non è teorica. Chi agisce? E chi ha l’autorità di decidere?

Questo peggiora con la scala. Un sistema può essere gestito in modo informale. Quando si hanno trenta, la responsabilità si frammenta tra i team, e nessuno ha la visione completa.

Il Commonwealth Bank of Australia fornisce un esempio chiaro. La banca ha sostituito 45 lavoratori del servizio clienti con bot vocali dell’intelligenza artificiale, aspettandosi che la domanda calasse. Non è successo. I volumi di chiamata sono aumentati, i manager sono intervenuti per gestire l’eccesso, e la banca ha dovuto riassumere tutti e 45 i dipendenti. Quando sfidati, non sono stati in grado di dimostrare che l’automazione aveva ridotto il carico di lavoro.

Nessuno ha validato le ipotesi prima del deployment. Nessuno possedeva l’esito quando quelle ipotesi fallivano. Questo è cosa significa un vuoto di responsabilità nella pratica.

Avere Regole Non È Sufficiente. Serve Un Meccanismo

La maggior parte delle organizzazioni non manca di politiche. Mancano di sistemi che funzionano quando qualcosa va storto.

Una politica definisce cosa dovrebbe succedere. Un meccanismo determina cosa succede realmente – quando un modello produce output errati, quando un fornitore modifica qualcosa in background, o quando un sistema inizia a comportarsi in modi inaspettati.

Quella differenza diventa visibile in produzione – quando le decisioni devono essere prese in condizioni reali.

Questi fallimenti seguono una dinamica costante. In ogni caso, le stesse lacune operative appaiono – solo in forme diverse.

La Proprietà Viene Per Prima

Ogni sistema di intelligenza artificiale distribuito necessita di un proprietario chiaramente responsabile – una persona, non un team o un dipartimento, con l’autorità di approvare, mettere in pausa e fermare.

Senza di questo, né il deployment rapido né l’intervento sicuro sono possibili. Come visto nell’esempio del Commonwealth Bank, l’assenza di una chiara proprietà conduce direttamente al fallimento operativo.

I Dati e La Chiarezza Legale Sono Spesso Mancanti

Molti sistemi vanno live senza flussi di dati documentati, una base legale verificata o chiarezza su quali obblighi si applicano una volta che il sistema è in produzione.

L’azione del regolatore italiano contro DeepSeek nel 2025 illustra questo chiaramente. Il problema non era la qualità del modello – era l’incapacità di spiegare come i dati personali venivano gestiti. Il risultato è stato un’interruzione improvvisa del servizio per gli utenti europei.

Il Test Raremente Riflette L’Uso Nel Mondo Reale

I sistemi sono spesso valutati su scenari in cui si eseguono bene, ma non sui casi in cui il fallimento avrebbe più importanza.

Il chatbot MyCity è un esempio chiaro. I casi di base – intorno alle leggi sul lavoro, alle discriminazioni abitative o alle norme sui pagamenti – non sono stati catturati prima del deployment. Una volta esposto a utenti reali, quei fallimenti sono diventati pubblici immediatamente.

Il test non è solo sulla performance – è sull’identificazione dei punti in cui il sistema fallisce prima che gli utenti, i regolatori o i giornalisti lo facciano.

L’Intervento È Incerto O Troppo Lento

Anche quando i problemi sono visibili, spesso non c’è un chiaro trigger o autorità per mettere in pausa o fermare il sistema.

Zillow Offers dimostra questo su larga scala. Il sistema utilizzava un algoritmo per fissare i prezzi e acquistare case. Quando il mercato si è raffreddato nel 2021, il sistema ha continuato ad acquistare a prezzi gonfiati. Non c’era meccanismo per rilevare la deriva in tempo, e non c’era un punto di decisione chiaro per fermarlo. Il risultato è stato una perdita di oltre 880 milioni di dollari e la chiusura dell’intera divisione.

Il Monitoraggio Non È La Proprietà

Il monitoraggio è spesso ridotto a dashboard, ma non è questo che previene i fallimenti.

Ciò che importa è la responsabilità definita: chi traccia i segnali, cosa scatena l’escalation, e chi è atteso agire.

Deloitte Australia mostra cosa succede quando questo è assente. Un rapporto del governo includeva citazioni allucinate e riferimenti legali errati perché nessuno era esplicitamente responsabile per la verifica degli output prima della consegna. Il risultato è stato un rimborso parziale e un danno alla reputazione.

Intelligenza Artificiale Agente: Cosa Sta Per Arrivare Sarà Ancora Più Difficile

L’intelligenza artificiale generativa produce output. L’intelligenza artificiale agente prende azioni. Ciò cambia completamente il rischio.

Invece di una singola risposta da valutare, un’unica istruzione può scatenare una catena di decisioni attraverso i sistemi – chiamate API, accesso ai dati, transazioni, aggiornamenti – spesso senza intervento umano a ogni passaggio.

Quando qualcosa va storto, il problema non è più l’accuratezza. È la tracciabilità. Quale passaggio ha causato il problema? Quali dati sono stati utilizzati? Chi ha autorizzato l’azione? In molti casi, quelle domande sono difficili da rispondere dopo il fatto.

È lì che le lacune esistenti diventano critiche. La proprietà incerta, il monitoraggio debole e la mancanza di intervento non solo persistono – si aggravano. Una risposta errata può essere corretta. Un’azione errata può creare conseguenze prima che qualcuno se ne accorga.

I primi segnali già puntano in questa direzione. Gartner stima che oltre il 40% dei progetti di intelligenza artificiale agente saranno cancellati entro il 2027 – non a causa delle limitazioni del modello, ma perché le organizzazioni lottano per controllare i costi, i rischi e i risultati. È lo stesso modello che vediamo con l’intelligenza artificiale generativa dopo il deployment. Solo con poste in gioco più elevate.

I regolatori stanno già rispondendo con un principio semplice: l’automazione non rimuove la responsabilità. Per le organizzazioni, ciò crea un’impressione chiara: se la proprietà e il controllo sono incerti oggi, scalare in sistemi agente non risolverà il problema. Lo amplificherà.

Operare o Perdere

L’intelligenza artificiale non è più il vincolo. I modelli sono ampiamente disponibili, capaci e sempre più commodificati. Il vero differenziatore non è più se un’organizzazione possa costruire l’intelligenza artificiale – ma se possa gestirla in modo affidabile una volta che è attiva.

È lì che la maggior parte dei fallimenti si verificano – nel modo in cui i sistemi vengono eseguiti, non nel modo in cui vengono costruiti. Le organizzazioni che avranno successo non saranno quelle con i modelli più avanzati. Saranno quelle con le strutture operative più chiare intorno.

Ciò può essere testato direttamente. Prendi il tuo sistema di intelligenza artificiale più importante e rispondi a tre domande:

  • Chi può fermarlo?
  • Come sai quando sta fallendo?
  • Cosa succede quando fallisce?

Se quelle risposte sono incerte, il sistema non è pronto per la produzione.

Il modello potrebbe esserlo. L’organizzazione no.

Zuzana Drotárová guidal'analisi aziendale di Avenga, sovraintendendo a ~100 analisti in programmi aziendali in CZ e SK. Si concentra sulle strutture operative e decisionali che determinano se le iniziative aziendali, compreso l'AI, funzionano in produzione.