taló Biaix de l'IA i estereotips culturals: efectes, limitacions i mitigació - Unite.AI
Connecteu-vos amb nosaltres

Intel·ligència Artificial

Biaix de l'IA i estereotips culturals: efectes, limitacions i mitigació

mm

publicat

 on

Biaix de l'IA i estereotips culturals: efectes, limitacions i mitigació

En particular, la intel·ligència artificial (IA). IA generativa, continua superant les expectatives amb la seva capacitat d'entendre i imitar la cognició i la intel·ligència humanes. No obstant això, en molts casos, els resultats o les prediccions dels sistemes d'IA poden reflectir diversos tipus de biaix d'IA, com ara el cultural i la raça.

" de BuzzfeedBarbies del món” el bloc (que ara s'esborra) manifesta clarament aquests biaixos i imprecisions culturals. Aquestes 'barbies' es van crear utilitzant A mig camí - un generador d'imatges d'IA líder, per esbrinar com serien les barbies a totes les parts del món. Més endavant parlarem d'això.

Però aquesta no és la primera vegada que la IA és "racista" o produeix resultats inexactes. Per exemple, el 2022, Apple ho va ser demandat sobre les acusacions que el sensor d'oxigen en sang de l'Apple Watch estava esbiaixat contra les persones de color. En un altre cas denunciat, els usuaris de Twitter ho van trobar AI de retall automàtic d'imatges de Twitter afavoria els rostres dels blancs sobre els negres i les dones sobre els homes. Aquests són reptes crítics i abordar-los és molt difícil.

En aquest article, veurem què és el biaix de la IA, com afecta la nostra societat i parlarem breument de com poden els professionals mitigar per abordar reptes com els estereotips culturals.

Què és AI Bias?

El biaix de la IA es produeix quan els models d'IA produeixen resultats discriminatoris contra determinades dades demogràfiques. Diversos tipus de biaixos poden entrar en sistemes d'IA i produir resultats incorrectes. Alguns d'aquests biaixos de la IA són:

  • Biaix estereotípic: El biaix estereotípic fa referència al fenomen en què els resultats d'un model d'IA consisteixen en estereotips o nocions percebudes sobre un determinat grup demogràfic.
  • Biaix racial: El biaix racial en IA es produeix quan el resultat d'un model d'IA és discriminatori i injust per a un individu o grup en funció de la seva ètnia o raça.
  • Biaix cultural: El biaix cultural entra en joc quan els resultats d'un model d'IA afavoreixen una cultura determinada per sobre d'una altra.

A part dels biaixos, altres problemes també poden dificultar els resultats d'un sistema d'IA, com ara:

  • Incorreccions: Les imprecisions es produeixen quan els resultats produïts per un model d'IA són incorrectes a causa de dades d'entrenament inconsistents.
  • Al·lucinacions: Les al·lucinacions es produeixen quan els models d'IA produeixen resultats ficticis i falsos que no es basen en dades reals.

L'impacte del biaix de la IA en la societat

L'impacte del biaix de la IA en la societat pot ser perjudicial. Els sistemes d'IA esbiaixats poden produir resultats inexactes que amplifiquen els prejudicis que ja existeixen a la societat. Aquests resultats poden augmentar la discriminació i les violacions de drets, afectar els processos de contractació i reduir la confiança en la tecnologia d'IA.

A més, els resultats esbiaixats de la IA sovint condueixen a prediccions inexactes que poden tenir conseqüències greus per a persones innocents. Per exemple, a l'agost de 2020, Robert McDaniel es va convertir en l'objectiu d'un acte criminal a causa de l'algoritme de policia predictiu del Departament de Policia de Chicago que l'etiquetava com a "persona d'interès".

De la mateixa manera, els sistemes d'IA d'atenció sanitària esbiaixats poden tenir resultats aguts per als pacients. El 2019, ciència va descobrir que un ús àmpliament algorisme mèdic dels EUA estava esbiaixat racialment contra les persones de color, cosa que va fer que els pacients negres tinguessin menys gestió de l'atenció d'alt risc.

Barbies del món

Al juliol, 2023, Buzzfeed va publicar un bloc que inclou 194 barbies generades per IA d'arreu del món. La publicació es va fer viral a Twitter. Tot i que Buzzfeed va escriure una declaració d'exempció de responsabilitat, no va impedir que els internautes assenyalaven les incorreccions racials i culturals. Per exemple, la imatge generada per IA de la Barbie alemanya portava l'uniforme d'un SS nazi general.

Barbies del món-imatge5

De la mateixa manera, es va mostrar la imatge generada per IA d'una Barbie del Sudan del Sud sostenint una pistola al seu costat, reflectint el biaix profundament arrelat en els algorismes d'IA.

Barbies del món-imatge4

A part d'això, diverses altres imatges mostraven imprecisions culturals, com ara la Barbie de Qatar que portava un Ghutra, un tocat tradicional que porten els homes àrabs.

Barbies del món-imatge3

Aquesta publicació del blog va rebre una reacció massiva pels estereotips i els biaixos culturals. El Escola interdisciplinària de Londres (LIS) ho va cridar dany de representació que s'han de mantenir sota control imposant estàndards de qualitat i establint òrgans de supervisió de la IA.

Limitacions dels models d'IA

La IA té el potencial revolucionar moltes indústries. Però, si proliferen escenaris com els esmentats anteriorment, pot provocar una caiguda de l'adopció general de la IA, donant lloc a oportunitats perdudes. Aquests casos solen produir-se a causa de limitacions importants en els sistemes d'IA, com ara:

  • Falta de creativitat: Com que la IA només pot prendre decisions basant-se en les dades d'entrenament donades, no té la creativitat per pensar fora de la caixa, cosa que dificulta la resolució creativa de problemes.
  • Falta de comprensió del context: Els sistemes d'IA tenen dificultats per entendre els matisos contextuals o les expressions lingüístiques d'una regió, cosa que sovint condueix a errors en els resultats.
  • Biaix d'entrenament: La IA es basa en dades històriques que poden contenir tot tipus de mostres discriminatòries. Durant la formació, el model pot aprendre fàcilment patrons discriminatoris per produir resultats injusts i esbiaixats.

Com reduir el biaix en els models d'IA

Experts estimació que l'any 2026 el 90% del contingut en línia es podria generar sintèticament. Per tant, és vital minimitzar ràpidament els problemes presents a les tecnologies d'IA generativa.

Es poden implementar diverses estratègies clau per reduir el biaix en els models d'IA. Alguns d'aquests són:

  • Assegureu-vos la qualitat de les dades: Ingerir dades completes, precises i netes en un model d'IA pot ajudar a reduir el biaix i produir resultats més precisos.
  • Conjunts de dades diversos: Introduir diversos conjunts de dades en un sistema d'IA pot ajudar a mitigar el biaix a mesura que el sistema d'IA esdevé més inclusiu amb el temps.
  • Regulacions augmentades: Les regulacions globals d'IA són crucials per mantenir la qualitat dels sistemes d'IA a través de les fronteres. Per tant, les organitzacions internacionals han de treballar juntes per garantir l'estandardització de la IA.
  • Augment de l'adopció d'IA responsable: Les estratègies responsables d'IA contribueixen positivament a mitigar el biaix de la IA, a conrear l'equitat i la precisió en els sistemes d'IA i a garantir que serveixin a una base d'usuaris diversa mentre s'esforcen per millorar contínuament.

En incorporar diversos conjunts de dades, responsabilitat ètica i mitjans de comunicació oberts, podem garantir que la IA sigui una font de canvi positiu a tot el món.

Si voleu saber més sobre el biaix i el paper de la Intel·ligència Artificial a la nostra societat, llegiu els següents blocs.