Connect with us

Come l’uso dell’IA influenza il pensiero critico?

Intelligenza artificiale

Come l’uso dell’IA influenza il pensiero critico?

mm

L’intelligenza artificiale (AI) può elaborare centinaia di documenti in pochi secondi, identificare modelli impercettibili in vasti set di dati e fornire risposte approfondite a quasi tutte le domande. Ha il potenziale per risolvere problemi comuni, aumentare l’efficienza in molti settori e persino liberare tempo per gli individui per trascorrerlo con i loro cari delegando compiti ripetitivi alle macchine.

Tuttavia, il pensiero critico richiede tempo e pratica per svilupparsi correttamente. Più le persone si affidano alla tecnologia automatizzata, più velocemente le loro capacità metacognitive potrebbero declinare. Quali sono le conseguenze dell’affidarsi all’IA per il pensiero critico?

Uno studio scopre che l’IA degrada le capacità di pensiero critico degli utenti

La preoccupazione che l’IA degradi le capacità metacognitive degli utenti non è più ipotetica. Diversi studi suggeriscono che diminuisce la capacità delle persone di pensare criticamente, influenzando la loro capacità di mettere in discussione le informazioni, prendere decisioni, analizzare i dati o formulare argomentazioni contrarie.

Uno studio Microsoft del 2025 ha intervistato 319 lavoratori della conoscenza su 936 casi di utilizzo dell’IA per determinare come percepiscono la loro capacità di pensiero critico quando utilizzano la tecnologia generativa. I rispondenti hanno riferito una diminuzione dello sforzo quando utilizzavano la tecnologia AI rispetto all’affidarsi alla loro mente. Microsoft ha riferito che nella maggior parte dei casi, i rispondenti hanno riferito di utilizzare “molto meno sforzo” o “meno sforzo” quando utilizzavano l’IA generativa.

La conoscenza, la comprensione, l’analisi, la sintesi e la valutazione sono state tutte influenzate negativamente dall’uso dell’IA. Sebbene una frazione dei rispondenti abbia riferito di utilizzare uno o molto più sforzo, la stragrande maggioranza ha riferito che i compiti sono diventati più facili e richiedevano meno lavoro.

Se lo scopo dell’IA è quello di semplificare i compiti, c’è qualche danno nel lasciare che faccia il suo lavoro? È una china scivolosa. Molti algoritmi non possono pensare criticamente, ragionare o capire il contesto. Sono spesso soggetti a allucinazioni e pregiudizi. Gli utenti che non sono consapevoli dei rischi dell’affidarsi all’IA possono contribuire a risultati distorti e inaccurati.

Come l’IA influenza negativamente le capacità di pensiero critico

L’eccessiva dipendenza dall’IA può diminuire la capacità di un individuo di risolvere problemi e pensare criticamente in modo indipendente. Se qualcuno sta sostenendo un test e si imbatte in una domanda complessa. Invece di prendersi il tempo per considerarla, la inserisce in un modello generativo e inserisce la risposta dell’algoritmo nel campo di risposta.

In questo scenario, il candidato non ha imparato nulla. Non ha migliorato le sue capacità di ricerca o le sue capacità analitiche. Se supera il test, passa al prossimo capitolo. E se dovesse fare questo per tutto ciò che i suoi insegnanti assegnano? Potrebbe diplomarsi alle scuole superiori o persino al college senza raffinare le capacità cognitive fondamentali.

Questo esito è cupo. Tuttavia, gli studenti potrebbero non sentire alcun effetto negativo immediato. Se l’uso dei modelli linguistici viene ricompensato con voti migliori, potrebbero perdere la motivazione per pensare criticamente. Perché dovrebbero preoccuparsi di giustificare i loro argomenti o valutare le affermazioni degli altri quando è più facile affidarsi all’IA?

L’impatto dell’uso dell’IA sulle capacità di pensiero critico

Un algoritmo avanzato può aggregare e analizzare automaticamente grandi set di dati, semplificando la risoluzione dei problemi e l’esecuzione dei compiti. Dal momento che la sua velocità e precisione spesso superano quelle umane, gli utenti sono solitamente inclini a credere che sia migliore di loro in questi compiti. Quando presenta loro risposte e informazioni, le accettano come vere.L’accettazione incondizionata dell’output di un modello generativo porta a difficoltà nel distinguere tra fatti e falsità. Gli algoritmi sono stati addestrati a prevedere la prossima parola in una stringa di parole. Indipendentemente da quanto siano bravi in questo compito, non stanno realmente ragionando. Anche se una macchina fa un errore, non sarà in grado di correggerlo senza contesto e memoria, entrambi dei quali mancano.

Più gli utenti accettano la risposta di un algoritmo come un fatto, più la loro valutazione e giudizio sono distorti. I modelli algoritmici spesso lottano con il sovrapprendimento. Quando si adattano troppo strettamente alle informazioni nel loro set di dati di addestramento, la loro precisione può precipitare quando vengono presentati con nuove informazioni per l’analisi.

Popolazioni più colpite dalla dipendenza eccessiva dall’IA

In generale, la dipendenza eccessiva dalla tecnologia generativa può influenzare negativamente la capacità degli esseri umani di pensare criticamente. Tuttavia, la scarsa fiducia nell’output generato dall’IA è correlata a una maggiore capacità di pensiero critico, quindi gli utenti strategici potrebbero essere in grado di utilizzare l’IA senza danneggiare queste capacità.

Nel 2023, circa il 27% degli adulti ha detto al Pew Research Center di utilizzare la tecnologia AI più volte al giorno. Alcuni degli individui in questa popolazione potrebbero conservare le loro capacità di pensiero critico se hanno una sana sfiducia negli strumenti di apprendimento automatico. I dati devono concentrarsi sulle popolazioni con un utilizzo dell’IA sproporzionatamente alto e devono essere più granulari per determinare l’impatto reale dell’apprendimento automatico sul pensiero critico.

Il pensiero critico spesso non viene insegnato fino alle scuole superiori o al college. Può essere coltivato durante lo sviluppo della prima infanzia, ma di solito richiede anni per essere compreso. Per questo motivo, il dispiegamento della tecnologia generativa nelle scuole è particolarmente rischioso — anche se è comune.

Oggi, la maggior parte degli studenti utilizza modelli generativi. Uno studio ha rivelato che il 90% ha utilizzato ChatGPT per completare i compiti. Questo utilizzo diffuso non è limitato alle scuole superiori. Circa il 75% degli studenti universitari afferma che continuerebbe a utilizzare la tecnologia generativa anche se i loro professori lo proibissero. Gli studenti delle scuole medie, gli adolescenti e i giovani adulti sono in un’età in cui lo sviluppo del pensiero critico è cruciale. Perdere questa finestra potrebbe causare problemi.

Le implicazioni della diminuzione del pensiero critico

Già, il 60% degli educatori utilizza l’IA in classe. Se questa tendenza continua, potrebbe diventare una parte standard dell’istruzione. Cosa succede quando gli studenti iniziano a fidarsi di questi strumenti più di se stessi? Man mano che le loro capacità di pensiero critico diminuiscono, potrebbero diventare sempre più suscettibili alle informazioni false e alla manipolazione. L’efficacia degli schemi di truffa, phishing e attacchi di ingegneria sociale potrebbe aumentare.

Una generazione che si affida all’IA potrebbe dover competere con la tecnologia di automazione nel mercato del lavoro. Le competenze morbide come la risoluzione dei problemi, il giudizio e la comunicazione sono importanti per molte carriere. Mancare di queste competenze o affidarsi agli strumenti generativi per ottenere voti migliori potrebbe rendere difficile trovare un lavoro.

L’innovazione e l’adattamento vanno di pari passo con la presa di decisioni. Sapere come ragionare in modo oggettivo senza l’uso dell’IA è cruciale quando si è di fronte a situazioni ad alto rischio o inattese. Inclinarsi verso supposizioni e dati inaccurati potrebbe influenzare negativamente la vita personale o professionale di un individuo.

Il pensiero critico fa parte dell’elaborazione e dell’analisi di informazioni complesse e persino contraddittorie. Una comunità composta da pensatori critici può contrastare punti di vista estremi o distorti considerando attentamente diverse prospettive e valori.

Gli utenti dell’IA devono valutare attentamente l’output degli algoritmi

I modelli generativi sono strumenti, quindi se il loro impatto è positivo o negativo dipende dagli utenti e dagli sviluppatori. Esistono così tante variabili. Sia che siate uno sviluppatore di IA o un utente, progettare e interagire strategicamente con le tecnologie generative è una parte importante per assicurarsi che aprano la strada ai progressi sociali piuttosto che ostacolare la cognizione critica.

Zac Amos è uno scrittore di tecnologia che si concentra sull'intelligenza artificiale. È anche il caporedattore delle funzionalità di ReHack, dove puoi leggere altro del suo lavoro.