Leader di pensiero
Perché la cieca fiducia nell’IA potrebbe essere la tua peggiore decisione finora

Nel 1979, un manuale di formazione IBM ha fatto un semplice ma significativo avvertimento: “Un computer non può mai essere ritenuto responsabile; quindi, un computer non deve mai prendere una decisione di gestione”. E più di 45 anni dopo, questa affermazione sembra una profezia ignorata.
Nel 2025, l’IA non solo assiste, ma prende decisioni autonome, e in molti casi, non solo decide, ma guida. In effetti, intorno al 74% dei dirigenti hanno più fiducia nell’IA per consigli aziendali rispetto ai colleghi o agli amici, il 38% si fida dell’IA per prendere decisioni aziendali per loro, e il 44% si affida alla logica della tecnologia più delle proprie intuizioni. Il cambiamento è chiaro; l’IA è il nuovo istinto.
Ma c’è un problema. La fiducia nell’IA è possibile solo se l’algoritmo è degno di fiducia. E quando la fiducia è riposta in modo cieco, specialmente in scatole nere che non possiamo capire o verificare, è un rischio mascherato da progresso. Come per la leadership umana, la fiducia senza responsabilità è pericolosa, e quando l’IA sbaglia, chi ne risponde?
Quando lo strumento diventa il capo
Ciò che è iniziato come uno strumento per semplificare le operazioni di back-office è ora utilizzato nei processi aziendali core. Ma le aziende non utilizzano solo l’IA per sostenere le decisioni umane; si fidano ora dell’IA, in particolare dell’IA generativa (GenAI), per prendere decisioni aziendali, dalla strategia aziendale al servizio clienti, alla modellazione finanziaria e altro.
Questo cambiamento è comprensibile. L’IA non si distrae, non dimentica le istruzioni o lascia che le emozioni offuscano il suo giudizio. Per molte aziende, questo offre un antidoto attraente ai rischi dell’errore umano. Tuttavia, una domanda chiave rimane: possiamo fidarci dell’IA per essere il capo e prendere decisioni in modo indipendente?
Non è una risposta semplice, ma un modo per guardare è come giudichiamo la fiducia delle persone: per la loro competenza, affidabilità e intenti chiari. Gli stessi principi si applicano all’IA.
Per essere degna di fiducia, un sistema di IA deve fornire risultati che siano accurati, tempestivi e appropriati. Ma il livello di fiducia e la tolleranza per l’errore variano a seconda del contesto. Ad esempio, quando si diagnostica il cancro da immagini mediche, la barra per l’insuccesso è estremamente bassa. Al contrario, quando si generano idee per una campagna di marketing, c’è più spazio per la sperimentazione.
Abbiamo visto l’IA utilizzata per prendere decisioni autonome in aree come l’approvazione del credito, con le banche che utilizzano algoritmi per determinare l’idoneità al prestito in pochi secondi. I dettaglianti utilizzano l’IA per gestire l’inventario e i prezzi senza input umano. Ma abbiamo anche visto fallimenti – come auto a guida autonoma che giudicano male le condizioni stradali.
Una storia di cautela mostra i rischi di riporre troppa fiducia nell’IA senza un’adeguata supervisione. Derek Mobley – un uomo nero oltre 40 anni – ha presentato domanda per più di 100 posizioni attraverso il sistema di assunzione basato su IA di Workday dal 2017 e fu rifiutato ogni volta. Ha affermato la discriminazione basata sull’età e sulla razza. A maggio 2025, il tribunale ha concesso un’azione collettiva a livello nazionale. La classe include tutti gli aspiranti di età superiore a 40 anni che hanno presentato domanda attraverso Workday dal settembre 2020 e sono stati negati in base alle raccomandazioni dell’IA.
Questo esempio sottolinea un punto importante: l’IA manca di intelligenza emotiva, ragionamento morale o un senso naturale di equità. E poiché l’IA sta passando da assistente umano a decisione indipendente, c’è ora un vuoto di responsabilità. Quando gli algoritmi sono autorizzati a funzionare senza controlli e bilanciamenti umani, possono e fanno decisioni sbagliate e rafforzano pregiudizi esistenti.
La questione intorno alle scatole nere
Scatole nere – quando un sistema e una logica di IA non sono completamente visibili – sono sempre più comuni. Sebbene abbiano strati visibili, gli sviluppatori e gli utenti non possono ancora vedere cosa succede in ogni strato, rendendoli opachi.
Ad esempio, ChatGPT è una scatola nera, poiché anche i suoi creatori sono incerti su come funziona, poiché è stato addestrato su grandi set di dati. Ma a causa della mancanza di trasparenza, è mai giusto ‘fidarsi’ di un modello di IA senza capire completamente come funziona?
In breve, no: le allucinazioni dell’IA stanno peggiorando. Ciò significa che in scenari ad alto rischio, come decisioni finanziarie, consigli legali e intuizioni mediche, l’IA richiede una rigorosa convalida, un riferimento incrociato e una supervisione umana.
La causa legale di Disney e Universal presentata a giugno 2025 rafforza questo punto. Gli studi affermano che gli strumenti GenAI sono stati addestrati su materiali protetti da copyright per creare nuovi contenuti senza consenso. Questo caso sottolinea una nuova realtà: quando le aziende distribuiscono modelli di IA che non capiscono completamente, potrebbero essere ritenute responsabili per le decisioni prese. E l’ignoranza non è una difesa; è una responsabilità.
Tuttavia, spesso riponiamo fiducia in sistemi complessi che non capiamo. Ad esempio, la maggior parte dei passeggeri di voli non può spiegare la fisica del volo, eppure le persone salgono sugli aerei con fiducia perché abbiamo costruito la fiducia attraverso l’esposizione ripetuta, l’esperienza collettiva e un solido record di sicurezza.
La stessa logica può essere applicata di nuovo all’IA. Non è ragionevole aspettarsi che tutti capiscano come funzionano i LLM. Ma la fiducia non si basa sulla comprensione; richiede familiarità, trasparenza sui limiti e un modello di prestazioni affidabili. Gli ingegneri aerospaziali sanno quali test eseguire e quali errori cercare, e dobbiamo esigere lo stesso dai fornitori di GenAI. Il principio fondamentale dell’IA dovrebbe essere la fiducia, ma verificare.
Inoltre, i leader aziendali spesso credono che l’IA sarà la soluzione magica che risolverà tutti i loro problemi aziendali. Tuttavia, questo mito affligge molte aziende quando integrano l’IA. I leader potrebbero preferire modelli complessi e sofisticati, ma una soluzione più semplice potrebbe essere più adatta se eseguivano un’analisi costi-benefici. L’IA è uno strumento potente, ma non è adatto a ogni compito. Le aziende devono riconoscere il problema prima di selezionare uno strumento.
Ricostruire la fiducia nell’IA
Mentre è chiaro che la fiducia cieca nell’IA è un problema, i sistemi e gli algoritmi di IA possono essere lo strumento più grande che un’azienda possiede – quando utilizzato in modo sicuro.
Per le aziende che desiderano sfruttare gli strumenti di IA, la prima cosa da ricercare è la dovuta diligenza del fornitore. Quando un’azienda ha identificato un’area che potrebbe trarre beneficio dall’efficienza dell’IA, i leader aziendali dovrebbero valutare i fornitori non solo per le prestazioni, ma anche per i controlli di governance. Ciò include la revisione di come vengono sviluppati i modelli, se sono presenti strumenti di spiegabilità, come viene monitorato il pregiudizio e se sono disponibili tracce di audit. Scegliere un fornitore con processi trasparenti è essenziale per mitigare il rischio fin dall’inizio.
Forse il punto più importante quando si costruisce la fiducia nei sistemi di IA è assicurare la governance dei dati con set di dati puliti, rappresentativi e ben documentati. Come dice il detto: spazzatura dentro, spazzatura fuori. Quindi, se i dati sono incompleti, distorti o inaccurati, anche il modello più avanzato produrrà risultati inaffidabili.
Per assicurarsi che i dati siano pronti per l’IA, le aziende dovrebbero:
-
Verificare i set di dati esistenti per lacune e duplicazioni e verificare le fonti di pregiudizio
-
Standardizzare i formati dei dati
-
Implementare politiche di governance dei dati che definiscano la proprietà e i controlli di accesso
Un altro passaggio chiave per i leader aziendali è eseguire test di stress in condizioni diverse. Sebbene un modello possa funzionare bene nei test controllati, è fondamentale capire i limiti del modello quando si confronta con nuovi dati o input che non si aspettava. È per questo che è importante testare l’IA in una varietà di situazioni, con diversi tipi di utenti, casi d’uso vari e dati di diversi periodi di tempo.
La convalida dell’IA è anche un compito in corso. Poiché i dati cambiano nel tempo, anche i modelli di IA affidabili possono perdere accuratezza. È per questo che la sorveglianza regolare è importante. Le aziende devono monitorare come il modello si sta comportando giorno per giorno: è ancora accurato? O i falsi positivi stanno aumentando? E come qualsiasi sistema che richiede manutenzione, i modelli dovrebbero essere riaddestrati regolarmente con dati freschi per rimanere rilevanti.
L’IA non è degna di fiducia o non degna di fiducia; è plasmata dai dati che apprende, dalle persone che la creano e dalle regole che la governano. Mentre l’IA si evolve da uno strumento utile a un consigliere aziendale, i leader hanno la possibilità di non solo utilizzarla, ma di farlo in modo pensato ed etico. Se facciamo le cose giuste, l’IA non sarà solo potente nel futuro, ma anche responsabile, con la responsabilità chiaramente attribuita al suo sviluppatore e ai suoi supervisori.












