Connect with us

Intelligenza artificiale

Bias di intelligenza artificiale e stereotipi culturali: effetti, limitazioni e mitigazione

mm
AI Bias & Cultural Stereotypes: Effects, Limitations, & Mitigation

L’intelligenza artificiale (AI), in particolare l’intelligenza artificiale generativa, continua a superare le aspettative con la sua capacità di comprendere e mimare la cognizione e l’intelligenza umana. Tuttavia, in molti casi, i risultati o le previsioni dei sistemi di intelligenza artificiale possono riflettere vari tipi di bias di intelligenza artificiale, come ad esempio quelli culturali e razziali.

Il blog ” Barbies of the World” di Buzzfeed (che ora è stato rimosso) manifesta chiaramente questi pregiudizi e inesattezze culturali. Queste “barbies” sono state create utilizzando Midjourney – un generatore di immagini di intelligenza artificiale leader, per scoprire come sarebbero apparse le barbies in ogni parte del mondo. Ne parleremo più tardi.

Ma questo non è il primo caso in cui l’intelligenza artificiale è stata “razzista” o ha prodotto risultati inaccurati. Ad esempio, nel 2022, Apple è stata citata in giudizio per presunte accuse che il sensore di ossigeno nel sangue dell’Apple Watch era prevenuto contro le persone di colore. In un altro caso segnalato, gli utenti di Twitter hanno scoperto che l’algoritmo di ritaglio automatico delle immagini di Twitter favoriva i volti delle persone bianche rispetto a quelli neri e le donne rispetto agli uomini. Questi sono sfide critiche e affrontarle è estremamente difficile.

In questo articolo, esamineremo cosa sia il bias di intelligenza artificiale, come impatta sulla nostra società e discuteremo brevemente come i pratici possono mitigarli per affrontare sfide come gli stereotipi culturali.

Cosa è il bias di intelligenza artificiale?

Il bias di intelligenza artificiale si verifica quando i modelli di intelligenza artificiale producono risultati discriminatori contro determinate demografie. Esistono diversi tipi di pregiudizi che possono entrare nei sistemi di intelligenza artificiale e produrre risultati errati. Alcuni di questi pregiudizi di intelligenza artificiale sono:

  • Pregiudizio stereotipico: Il pregiudizio stereotipico si riferisce al fenomeno in cui i risultati di un modello di intelligenza artificiale consistono in stereotipi o nozioni percepite su una determinata demografia.
  • Pregiudizio razziale: Il pregiudizio razziale nell’intelligenza artificiale si verifica quando il risultato di un modello di intelligenza artificiale è discriminatorio e ingiusto nei confronti di un individuo o gruppo in base alla loro etnia o razza.
  • Pregiudizio culturale: Il pregiudizio culturale si verifica quando i risultati di un modello di intelligenza artificiale favoriscono una cultura rispetto a un’altra.

Oltre ai pregiudizi, altri problemi possono anche ostacolare i risultati di un sistema di intelligenza artificiale, come ad esempio:

  • Inesattezze: Le inesattezze si verificano quando i risultati prodotti da un modello di intelligenza artificiale sono errati a causa di dati di formazione inconsistenti.
  • Allucinazioni: Le allucinazioni si verificano quando i modelli di intelligenza artificiale producono risultati fittizi e falsi che non sono basati su dati fattuali.

L’impatto del bias di intelligenza artificiale sulla società

L’impatto del bias di intelligenza artificiale sulla società può essere devastante. I sistemi di intelligenza artificiale prevenuti possono produrre risultati inaccurati che amplificano i pregiudizi già esistenti nella società. Questi risultati possono aumentare la discriminazione e le violazioni dei diritti, influenzare i processi di assunzione e ridurre la fiducia nella tecnologia di intelligenza artificiale.

Inoltre, i risultati prevenuti dell’intelligenza artificiale spesso portano a previsioni inaccurate che possono avere gravi conseguenze per gli individui innocenti. Ad esempio, nell’agosto 2020, Robert McDaniel è diventato il bersaglio di un atto criminale a causa dell’algoritmo di polizia predittiva del dipartimento di polizia di Chicago che lo aveva etichettato come “persona di interesse”.

Allo stesso modo, i sistemi di intelligenza artificiale sanitaria prevenuti possono avere esiti acuti per i pazienti. Nel 2019, Science ha scoperto che un algoritmo medico ampiamente utilizzato negli Stati Uniti era prevenuto contro le persone di colore, il che ha portato a una gestione inferiore per i pazienti neri.

Barbies of the World

Nel luglio 2023, Buzzfeed ha pubblicato un blog composto da 194 barbies generate da intelligenza artificiale da tutto il mondo. Il post è diventato virale su Twitter. Sebbene Buzzfeed abbia scritto una dichiarazione di disclaimer, non ha impedito ai netizen di sottolineare le inesattezze razziali e culturali. Ad esempio, l’immagine di Barbie generata da intelligenza artificiale della Germania indossava l’uniforme di un generale delle SS naziste.

Barbies of the World-image5

Allo stesso modo, l’immagine di Barbie generata da intelligenza artificiale del Sud Sudan era rappresentata con una pistola al suo fianco, riflettendo il pregiudizio profondamente radicato negli algoritmi di intelligenza artificiale.

Barbies of the World-image4

Oltre a questo, diverse altre immagini hanno mostrato inesattezze culturali, come la Barbie del Qatar che indossava un Ghutra, un copricapo tradizionale indossato dagli uomini arabi.

Barbies of the World-image3

Questo post del blog ha ricevuto una forte reazione per stereotipi culturali e pregiudizi. La London Interdisciplinary School (LIS) ha definito questo danno rappresentazionale che deve essere tenuto sotto controllo imponendo standard di qualità e stabilendo organismi di vigilanza sull’intelligenza artificiale.

Limitazioni dei modelli di intelligenza artificiale

L’intelligenza artificiale ha il potenziale per rivoluzionare molte industrie. Tuttavia, se scenari come quelli menzionati sopra si moltiplicano, può portare a una riduzione dell’adozione generale dell’intelligenza artificiale, risultando in opportunità mancate. Tali casi si verificano tipicamente a causa di limitazioni significative nei sistemi di intelligenza artificiale, come ad esempio:

  • Mancanza di creatività: Poiché l’intelligenza artificiale può prendere decisioni solo in base ai dati di formazione forniti, le manca la creatività per pensare fuori dagli schemi, il che ostacola la risoluzione creativa dei problemi.
  • Mancanza di comprensione del contesto: I sistemi di intelligenza artificiale hanno difficoltà a comprendere le sfumature contestuali o le espressioni linguistiche di una regione, il che spesso porta a errori nei risultati.
  • Pregiudizio di formazione: L’intelligenza artificiale si basa su dati storici che possono contenere tutti i tipi di campioni discriminatori. Durante la formazione, il modello può facilmente apprendere modelli discriminatori per produrre risultati ingiusti e prevenuti.

Come ridurre il bias nei modelli di intelligenza artificiale

Gli esperti stima che entro il 2026, il 90% del contenuto online potrebbe essere generato sinteticamente. Pertanto, è fondamentale ridurre rapidamente i problemi presenti nelle tecnologie di intelligenza artificiale generativa.

Esistono diverse strategie chiave che possono essere implementate per ridurre il bias nei modelli di intelligenza artificiale. Alcune di queste sono:

  • Garantire la qualità dei dati: Inserire dati completi, accurati e puliti in un modello di intelligenza artificiale può aiutare a ridurre il bias e produrre risultati più precisi.
  • Set di dati diversificati: Introdurre set di dati diversificati in un sistema di intelligenza artificiale può aiutare a mitigare il bias poiché il sistema di intelligenza artificiale diventa più inclusivo nel tempo.
  • Aumento della regolamentazione: Le regolamentazioni globali sull’intelligenza artificiale sono fondamentali per mantenere la qualità dei sistemi di intelligenza artificiale attraverso i confini. Pertanto, le organizzazioni internazionali devono lavorare insieme per garantire la standardizzazione dell’intelligenza artificiale.
  • Aumento dell’adozione di intelligenza artificiale responsabile: Le strategie di intelligenza artificiale responsabile contribuiscono positivamente a mitigare il bias di intelligenza artificiale, coltivando l’equità e la precisione nei sistemi di intelligenza artificiale e garantendo che servano una base di utenti diversificata mentre si impegnano nel miglioramento continuo.

Incorporando set di dati diversificati, responsabilità etica e mezzi di comunicazione aperti, possiamo garantire che l’intelligenza artificiale sia una fonte di cambiamento positivo in tutto il mondo.

Se desideri saperne di più sul bias e il ruolo dell’intelligenza artificiale nella nostra società, leggi i seguenti blog.

Haziqa è uno scienziato dei dati con una vasta esperienza nella scrittura di contenuti tecnici per aziende di intelligenza artificiale e SaaS.