mozzicone Bias dell'intelligenza artificiale e stereotipi culturali: effetti, limitazioni e mitigazione - Unite.AI
Seguici sui social

Intelligenza Artificiale

Bias dell'intelligenza artificiale e stereotipi culturali: effetti, limitazioni e mitigazione

mm

Pubblicato il

 on

Bias dell'intelligenza artificiale e stereotipi culturali: effetti, limitazioni e mitigazione

Intelligenza Artificiale (AI), in particolare AI generativa, continua a superare le aspettative con la sua capacità di comprendere e imitare la cognizione e l'intelligenza umana. Tuttavia, in molti casi, i risultati o le previsioni dei sistemi di intelligenza artificiale possono riflettere vari tipi di pregiudizi dell’intelligenza artificiale, come quelli culturali e razziali.

Buzzfeed "Barbie del mondoIl blog (che ora è stato cancellato) manifesta chiaramente questi pregiudizi e imprecisioni culturali. Queste "barbie" sono state create utilizzando Metà viaggio – un generatore di immagini AI leader, per scoprire come sarebbero le barbie in ogni parte del mondo. Ne parleremo più approfonditamente più avanti.

Ma questa non è la prima volta che l’intelligenza artificiale è “razzista” o produce risultati imprecisi. Ad esempio, nel 2022, Apple lo era citato in giudizio per le accuse secondo cui il sensore di ossigeno nel sangue dell'Apple Watch era prevenuto nei confronti delle persone di colore. In un altro caso segnalato, gli utenti di Twitter lo hanno scoperto L'intelligenza artificiale per il ritaglio automatico delle immagini di Twitter preferiva i volti dei bianchi rispetto agli individui neri e le donne rispetto agli uomini. Queste sono sfide cruciali e affrontarle è molto impegnativo.

In questo articolo esamineremo cos'è il bias dell'intelligenza artificiale, come influisce sulla nostra società e discuteremo brevemente di come i professionisti possono mitigare per affrontare sfide come gli stereotipi culturali.

Cos'è il bias dell'IA?

Il bias dell’intelligenza artificiale si verifica quando i modelli di intelligenza artificiale producono risultati discriminatori nei confronti di determinati dati demografici. Diversi tipi di pregiudizi possono entrare nei sistemi di intelligenza artificiale e produrre risultati errati. Alcuni di questi pregiudizi dell’IA sono:

  • Bias stereotipati: Il pregiudizio stereotipato si riferisce al fenomeno in cui i risultati di un modello di intelligenza artificiale consistono in stereotipi o nozioni percepite su un determinato gruppo demografico.
  • Pregiudizio razziale: I pregiudizi razziali nell’intelligenza artificiale si verificano quando il risultato di un modello di intelligenza artificiale è discriminatorio e ingiusto nei confronti di un individuo o di un gruppo in base alla sua etnia o razza.
  • Bias culturale: I pregiudizi culturali entrano in gioco quando i risultati di un modello di intelligenza artificiale favoriscono una determinata cultura rispetto a un’altra.

Oltre ai pregiudizi, anche altri problemi possono ostacolare i risultati di un sistema di intelligenza artificiale, come ad esempio:

  • Inesattezze: Le imprecisioni si verificano quando i risultati prodotti da un modello di intelligenza artificiale non sono corretti a causa di dati di addestramento incoerenti.
  • Allucinazioni: Le allucinazioni si verificano quando i modelli di intelligenza artificiale producono risultati fittizi e falsi che non si basano su dati reali.

L’impatto dei pregiudizi dell’intelligenza artificiale sulla società

L’impatto dei bias dell’IA sulla società può essere dannoso. I sistemi di intelligenza artificiale distorti possono produrre risultati imprecisi che amplificano i pregiudizi già esistenti nella società. Questi risultati possono aumentare la discriminazione e le violazioni dei diritti, influenzare i processi di assunzione e ridurre la fiducia nella tecnologia dell’intelligenza artificiale.

Inoltre, i risultati distorti dell’intelligenza artificiale spesso portano a previsioni imprecise che possono avere gravi conseguenze per individui innocenti. Ad esempio, nell'agosto 2020, Roberto McDaniel è diventato il bersaglio di un atto criminale a causa dell'algoritmo di polizia predittiva del Dipartimento di Polizia di Chicago che lo etichettava come una "persona di interesse".

Allo stesso modo, i sistemi di intelligenza artificiale sanitaria distorti possono avere esiti acuti per i pazienti. Nel 2019, Scienze scoperto che è ampiamente utilizzato Algoritmo medico statunitense era razzialmente prevenuto nei confronti delle persone di colore, il che ha portato i pazienti neri a ricevere una gestione delle cure meno ad alto rischio.

Barbie del mondo

Nel mese di luglio 2023, Buzzfeed ha pubblicato un blog comprendente 194 barbie generate dall'intelligenza artificiale provenienti da tutto il mondo. Il post è diventato virale su Twitter. Sebbene Buzzfeed abbia scritto una dichiarazione di esclusione della responsabilità, ciò non ha impedito agli utenti della rete di sottolineare le inesattezze razziali e culturali. Ad esempio, l'immagine generata dall'intelligenza artificiale della Barbie tedesca indossava l'uniforme di a nazista delle SS generale.

Barbie del mondo-immagine5

Allo stesso modo, l’immagine generata dall’intelligenza artificiale di una Barbie del Sud Sudan è stata mostrata con una pistola al fianco, riflettendo i pregiudizi profondamente radicati negli algoritmi dell’intelligenza artificiale.

Barbie del mondo-immagine4

Oltre a questo, molte altre immagini mostravano inesattezze culturali, come la Barbie del Qatar che indossava un Gutra, un copricapo tradizionale indossato dagli uomini arabi.

Barbie del mondo-immagine3

Questo post sul blog ha ricevuto una massiccia reazione a causa di stereotipi e pregiudizi culturali. IL Scuola interdisciplinare di Londra (LIS) chiamato questo danno rappresentazionale che devono essere tenuti sotto controllo imponendo standard di qualità e istituendo organismi di controllo dell’IA.

Limitazioni dei modelli di intelligenza artificiale

L'IA ha il potenziale per farlo rivoluzionare molti settori. Tuttavia, se scenari come quelli sopra menzionati dovessero proliferare, ciò potrebbe portare a un calo nell’adozione generale dell’IA, con conseguente perdita di opportunità. Tali casi si verificano in genere a causa di limitazioni significative nei sistemi di intelligenza artificiale, come ad esempio:

  • Mancanza di creatività: Poiché l’intelligenza artificiale può prendere decisioni solo sulla base dei dati di addestramento forniti, non ha la creatività per pensare fuori dagli schemi, il che ostacola la risoluzione creativa dei problemi.
  • Mancanza di comprensione contestuale: I sistemi di intelligenza artificiale incontrano difficoltà nel comprendere le sfumature contestuali o le espressioni linguistiche di una regione, il che spesso porta a errori nei risultati.
  • Bias di formazione: L’intelligenza artificiale si basa su dati storici che possono contenere tutti i tipi di campioni discriminatori. Durante l'addestramento, il modello può facilmente apprendere modelli discriminatori per produrre risultati ingiusti e distorti.

Come ridurre i bias nei modelli di intelligenza artificiale

Esperti stima che entro il 2026 il 90% dei contenuti online potrebbe essere generato sinteticamente. Pertanto, è fondamentale ridurre rapidamente al minimo i problemi presenti nelle tecnologie di intelligenza artificiale generativa.

È possibile implementare diverse strategie chiave per ridurre i bias nei modelli di intelligenza artificiale. Alcuni di questi sono:

  • Garantire la qualità dei dati: L'inserimento di dati completi, accurati e puliti in un modello di intelligenza artificiale può aiutare a ridurre i bias e produrre risultati più accurati.
  • Diversi set di dati: L’introduzione di set di dati diversi in un sistema di intelligenza artificiale può aiutare a mitigare i pregiudizi man mano che il sistema di intelligenza artificiale diventa più inclusivo nel tempo.
  • Regolamenti aumentati: Le normative globali sull’IA sono cruciali per mantenere la qualità dei sistemi di IA a livello transfrontaliero. Pertanto, le organizzazioni internazionali devono collaborare per garantire la standardizzazione dell’intelligenza artificiale.
  • Maggiore adozione dell’IA responsabile: Le strategie di intelligenza artificiale responsabile contribuiscono positivamente a mitigare i pregiudizi dell’intelligenza artificiale, a coltivare l’equità e l’accuratezza nei sistemi di intelligenza artificiale e a garantire che servano una base di utenti diversificata, puntando al miglioramento continuo.

Incorporando diversi set di dati, responsabilità etica e mezzi di comunicazione aperti, possiamo garantire che l’intelligenza artificiale sia una fonte di cambiamento positivo in tutto il mondo.

Se vuoi saperne di più sui pregiudizi e sul ruolo dell’Intelligenza Artificiale nella nostra società, leggi i seguenti blog.