Seguici sui social

Quando l'intelligenza artificiale ci rende più veloci ma non più intelligenti e cosa devono fare i leader al riguardo

Leader del pensiero

Quando l'intelligenza artificiale ci rende più veloci ma non più intelligenti e cosa devono fare i leader al riguardo

mm

Per molti, l'intelligenza artificiale offre la soluzione a un'ampia gamma di sfide aziendali. Può fungere da copilota per la programmazione, migliorare l'automazione del flusso di lavoro e fungere da assistente analitico. Ma mentre le organizzazioni si muovono più velocemente, pensano anche meno. Quindi il vero rischio rappresentato dall'intelligenza artificiale non è la sostituzione del lavoro, ma l'erosione della conoscenza. 

La ricerca lo ha già dimostrato. La SBS Swiss Business School ha scoperto che una maggiore dipendenza dall'intelligenza artificiale è collegata a pensiero critico diminuito abilità.

Questa erosione ha gravi conseguenze, poiché le competenze che rendono prezioso il giudizio umano si stanno deteriorando, poiché i team si affidano all'output delle macchine senza comprenderne il funzionamento. Un ragionamento indebolito, ipotesi non messe in discussione e una governance dei modelli degradata non equivalgono all'efficienza dell'IA, ma aumentano la fragilità aziendale.

L'incomprensione della competenza dell'IA

Le organizzazioni celebrano risultati più rapidi come prova del successo dell'adozione dell'IA. Ma la velocità è un parametro fuorviante. Ciò che molti team chiamano competenza nell'IA viene sempre più spesso confuso con rapidità e fluidità. Ma i lavoratori devono potersi fidare delle risposte che ricevono. 

Se un risultato sembra corretto, molti danno per scontato che lo sia. Le verifiche dei modelli vengono dimenticate e le ipotesi non vengono verificate. La forza lavoro inizia quindi ad affidarsi all'intelligenza artificiale per trarre conclusioni che prima richiedevano ragionamento. 

A Studio di ricerca 2025 Lo studio supporta questo modello. Ha rilevato "una significativa correlazione negativa tra l'uso frequente di strumenti di intelligenza artificiale e le capacità di pensiero critico, mediata da un maggiore scarico cognitivo". E i partecipanti più giovani, che hanno maggiore dimestichezza con le interfacce di intelligenza artificiale, hanno mostrato punteggi di pensiero critico inferiori rispetto ai partecipanti più anziani. 

Questo punto è supportato anche dai risultati di The Tempi economici, che ha scoperto che la competenza fondamentale nell'intelligenza artificiale non deriva dalla padronanza di prompt. Deriva dalle capacità umane di interpretare, mettere in discussione e contestualizzare l'output della macchina, e la competenza nell'intelligenza artificiale deriva dal pensiero critico, dal ragionamento analitico, dalla risoluzione creativa dei problemi e dall'intelligenza emotiva. Senza questi, gli utenti diventano consumatori passivi di contenuti di intelligenza artificiale piuttosto che decisori attivi. 

È preoccupante che questo scarico cognitivo sia stato osservato a livello neurale. L'Economic Times ha riportato uno studio del MIT Media Lab e ha scoperto che i partecipanti che utilizzavano frequentemente ChatGPT mostravano una ridotta ritenzione mnemonica, punteggi di prestazione più bassi e una ridotta attività cerebrale quando tentavano di farlo senza l'assistenza dell'IA. Come hanno affermato i ricercatori, "Questa comodità ha avuto un costo cognitivo". Gli studenti che utilizzavano l'IA hanno ottenuto risultati peggiori "a tutti i livelli: neurale, linguistico e di punteggio".

Questi risultati aiutano a chiarire cosa compromettono le scorciatoie dell'IA. Indeboliscono le capacità cognitive su cui i professionisti fanno affidamento ogni giorno: 

  • Ragionamento analitico
  • Verifica di ipotesi
  • Istinto di debug
  • Intuizione del dominio

Questa recente ricerca sta finalmente mettendo in luce gli svantaggi trascurati dell'IA a livello umano. E questo sta diventando un problema sempre più grande nelle decisioni ad alto rischio, come il rischio, le previsioni e l'allocazione delle risorse, che richiedono tutte una comprensione contestuale. Meno si comprende la logica alla base della progettazione di un modello, più incerto diventa il processo decisionale. 

Perché le scarse competenze umane creano rischi a livello aziendale

Il nuovo divario di competenze indebolisce la governance

Con la diffusione dell'intelligenza artificiale, si sta delineando una divisione in molte organizzazioni. Da una parte ci sono gli ispettori, che possono mettere in discussione, contestare, interpretare e perfezionare i risultati. Dall'altra ci sono gli operatori che accettano i risultati per quello che sono e passano oltre.

Questa divisione è molto più importante di quanto la maggior parte dei leader creda. La governance dipende da team in grado di mettere in discussione i presupposti di un modello, non solo le risposte. Quando meno persone comprendono il funzionamento di un sistema, piccoli cambiamenti possono passare inosservati, come i primi segnali di deriva del modello e le variazioni nella qualità dei dati. 

Quando i team accettano i risultati dell'IA senza metterli in discussione, gli errori minori si propagano a valle e si accumulano rapidamente. L'eccessivo affidamento diventa un singolo punto di errore. Questo solleva la domanda: cosa succede quando un'organizzazione esternalizza il giudizio più velocemente di quanto non sviluppi la comprensione? 

Questo divario di governance ostacola anche l'innovazione. I team che non riescono a interrogare l'IA non riescono a perfezionare i prompt o a riconoscere quando un'intuizione è nuova e originale. L'innovazione si concentra su un pool di esperti in calo, rallentando la capacità di adattamento dell'organizzazione. 

L'innovazione si blocca quando la curiosità umana diminuisce

L'intelligenza artificiale può accelerare e automatizzare molti compiti, ma non può sostituire l'istinto umano di mettere in discussione e andare oltre le risposte ovvie. Eppure, questo istinto innato dell'uomo si sta erodendo. Questo fenomeno è noto come decadimento dell'agenzia. quattro stadi progressi nel modo in cui gli esseri umani delegano il pensiero alle macchine:

  1. Sperimentazione: per curiosità e comodità, le persone iniziano a delegare piccoli compiti all'intelligenza artificiale. È stimolante ed efficiente. 
  2. Integrazione: l'intelligenza artificiale diventa parte integrante delle attività quotidiane. Le persone possiedono ancora competenze di base, ma si sentono un po' a disagio a lavorare con l'assistenza. 
  3. Affidamento: l'intelligenza artificiale inizia a prendere decisioni complesse. Gli utenti diventano compiacenti e le capacità cognitive iniziano ad atrofizzarsi, spesso inosservate. 
  4. Dipendenza: nota anche come cecità volontaria. Le persone non possono funzionare efficacemente senza l'intelligenza artificiale, ma rimangono convinte della propria autonomia. 

Questa progressione è importante perché l'intelligenza artificiale erode la capacità di riconoscere quando le nostre conoscenze sono carenti e di pensare a soluzioni innovative per nuovi problemi. Queste competenze di ordine superiore richiedono un esercizio costante. Eppure, la praticità dell'intelligenza artificiale rende facile trascurarle. 

Le organizzazioni diventano quindi efficienti ma poco creative. La ricerca e lo sviluppo dipendono dalla curiosità e dallo scetticismo umani, poiché entrambi declinano quando i risultati non vengono messi in discussione. Questa perdita di curiosità e capacità di azione rappresenta un rischio strategico. 

La perdita di conoscenza tacita rende l'organizzazione fragile

Nei team sani e funzionali, le competenze fluiscono orizzontalmente attraverso connessioni peer-to-peer e verticalmente da senior a junior. Ma quando i lavoratori rivolgono le domande all'IA anziché agli esseri umani, questi cicli di mentoring si indeboliscono. I junior smettono di imparare e di assorbire le decisioni degli esperti, e i senior smettono gradualmente di documentare le conoscenze perché l'IA colma le lacune di routine. 

Col tempo, il know-how di base si esaurisce. Ma questo rischio richiede tempo per manifestarsi, quindi le aziende sembrano produttive, ma le loro fondamenta diventano fragili. Quando un modello fallisce o emergono anomalie, i team non hanno più la profondità di dominio necessaria per reagire con sicurezza.

Un caso di studio di uno studio di contabilità pubblicato in I circoli viziosi dell'erosione delle competenze hanno scoperto che l'affidamento a lungo termine all'automazione cognitiva determina un calo significativo delle competenze umane. Man mano che i lavoratori si affidavano maggiormente alle funzioni automatizzate, la loro consapevolezza delle proprie attività, il mantenimento delle competenze e la valutazione dei risultati si indebolivano. I ricercatori osservano che questa erosione delle competenze passa inosservata a dipendenti e manager, lasciando i team impreparati in caso di guasti dei sistemi. 

Cosa devono fare i leader per ripristinare la profondità e proteggersi dall’eccessiva dipendenza

Le aziende non possono rallentare l'adozione dell'IA, ma possono rafforzare il giudizio umano dei propri dipendenti, rendendo l'IA più affidabile. Questo inizia con la ridefinizione delle competenze in materia di IA in tutta l'organizzazione, perché la fluidità immediata non è sinonimo di competenza. La vera capacità include la comprensione del ragionamento di un modello e la capacità di ignorare l'output della macchina.  

Per comprendere questo, i dipendenti devono essere formati su come il modello semplifica il contesto, su come la deriva si manifesta nel lavoro quotidiano e sulla differenza tra un output che sembra affidabile e uno ben ragionato. Una volta gettate queste basi, i leader possono reintegrare il pensiero critico nei flussi di lavoro quotidiani normalizzando i controlli di verifica, ad esempio:

  • Su quale presupposto si basa questo modello?
  • Cosa renderebbe questo risultato errato?
  • Ciò contraddice qualcosa che sappiamo per esperienza? 

Questa analisi critica richiede solo pochi minuti, ma contrasta la crisi di offload cognitivo, aiutando a tenere sotto controllo i dipendenti e i risultati del modello di intelligenza artificiale. 

Il modo migliore per le aziende di formare i propri dipendenti è tramite sistemi reali. Troppo spesso, la formazione si concentra su scenari ideali. Ma le aziende non li hanno; hanno sistemi in cui i dati sono incompleti, il contesto è ambiguo e il giudizio umano conta. 

Ad esempio, se un'azienda di logistica avesse formato il proprio team di routing solo su set di dati puliti in cui l'intelligenza artificiale funzionava perfettamente, i lavoratori sarebbero stati ampiamente impreparati. Condizioni del mondo reale, come le perturbazioni meteorologiche, possono far sì che i modelli di intelligenza artificiale producano istruzioni errate. Se i dipendenti non avessero mai visto il sistema comportarsi in modo incerto, non riconoscerebbero i primi segnali di deriva o non saprebbero quando intervenire. In questo caso, il problema non è il modello, ma la formazione inadeguata. È essenziale formare i dipendenti sull'intelligenza artificiale di cui dispongono, inclusi scenari di deriva, output ambigui, dati parziali ed errori. È qui che si ricostruisce la capacità umana. 

Per garantire che la formazione sia pratica, i leader aziendali devono misurare le capacità umane, non solo i risultati del sistema. Le organizzazioni in genere monitorano l'accuratezza dei modelli o le metriche di risparmio sui costi, ma raramente monitorano i comportamenti che indicano una forte supervisione umana. I dipendenti documentano perché si fidano dei risultati di un modello? Stanno intensificando i risultati insoliti? Queste azioni osservabili mostrano se il ragionamento si sta rafforzando o sta peggiorando. Quando i leader riconoscono e premiano le persone che migliorano i suggerimenti attraverso ragionamenti approfonditi o sollevano dubbi fondati sui risultati dell'IA, rafforzano le abitudini che rendono l'implementazione dell'IA resiliente. 

L'intelligenza artificiale continuerà a diventare più veloce. Questo è fuori discussione. La domanda è se i team manterranno le competenze necessarie per mettere in discussione, correggere e reindirizzare l'intelligenza artificiale quando le cose vanno male. È qui che si vedrà la differenza. Le organizzazioni che investono nel giudizio umano ora saranno quelle che trarranno un valore reale dall'intelligenza artificiale, non un'efficienza fragile. Tutti gli altri stanno costruendo sulla sabbia.

Con oltre 25 anni di esperienza in biochimica, intelligenza artificiale, biologia spaziale e imprenditorialità, Guillermo sviluppa soluzioni innovative per il benessere umano sulla Terra e nello spazio. È co-fondatore e COO di Deep Space Biology, focalizzato sulla creazione di una piattaforma di intelligenza artificiale biospaziale multi-omica per l'esplorazione spaziale sicura, e guida la strategia di intelligenza artificiale presso NisumIn qualità di consulente strategico aziendale, ha contribuito alla visione dell'intelligenza artificiale della NASA per la biologia spaziale e ha ricevuto premi per l'innovazione. Ha conseguito un Master in Intelligenza Artificiale con lode presso il Georgia Tech. Inoltre, come professore universitario, ha tenuto corsi su apprendimento automatico, big data e genomica.