stomp AI-vooroordelen en culturele stereotypen: effecten, beperkingen en mitigatie - Unite.AI
Verbind je met ons

Artificial Intelligence

AI-vooroordelen en culturele stereotypen: effecten, beperkingen en mitigatie

mm

gepubliceerd

 on

AI-vooroordelen en culturele stereotypen: effecten, beperkingen en mitigatie

Vooral kunstmatige intelligentie (AI). generatieve AI, blijft de verwachtingen overtreffen met zijn vermogen om menselijke cognitie en intelligentie te begrijpen en na te bootsen. In veel gevallen kunnen de uitkomsten of voorspellingen van AI-systemen echter verschillende soorten AI-vooroordelen weerspiegelen, zoals culturele en raciale.

Buzzfeeds “Barbie's van de wereld'-blog (die nu is verwijderd) manifesteert deze culturele vooroordelen en onnauwkeurigheden duidelijk. Deze 'barbies' zijn gemaakt met behulp van halverwege de reis – een toonaangevende AI-beeldgenerator, om erachter te komen hoe Barbies er in elk deel van de wereld uit zouden zien. We zullen hier later meer over praten.

Maar dit is niet de eerste keer dat AI ‘racistisch’ is of onnauwkeurige resultaten oplevert. In 2022 was Apple dat bijvoorbeeld aangeklaagd vanwege beschuldigingen dat de bloedzuurstofsensor van de Apple Watch bevooroordeeld was tegen gekleurde mensen. In een ander gemeld geval ontdekten Twitter-gebruikers dat Twitter's automatische AI ​​voor het bijsnijden van afbeeldingen gaf de voorkeur aan de gezichten van blanke mensen boven zwarte individuen en aan vrouwen boven mannen. Dit zijn cruciale uitdagingen, en het aanpakken ervan is een grote uitdaging.

In dit artikel kijken we naar wat AI-vooroordelen zijn, welke invloed dit heeft op onze samenleving, en bespreken we kort hoe beoefenaars dit kunnen doen. verzachten om uitdagingen zoals culturele stereotypen aan te pakken.

Wat is AI-bias?

AI-vooroordeel ontstaat wanneer AI-modellen discriminerende resultaten opleveren tegen bepaalde demografische groepen. Verschillende soorten vooroordelen kunnen in AI-systemen terechtkomen en onjuiste resultaten opleveren. Enkele van deze AI-vooroordelen zijn:

  • Stereotiepe vooroordelen: Stereotiepe vooroordelen verwijzen naar het fenomeen waarbij de resultaten van een AI-model bestaan ​​uit stereotypen of waargenomen opvattingen over een bepaalde demografische groep.
  • Vooroordelen op basis van huidskleur: Raciale vooroordelen bij AI vinden plaats wanneer de uitkomst van een AI-model discriminerend en oneerlijk is voor een individu of groep op basis van hun etniciteit of ras.
  • Culturele vooroordelen: Culturele vooroordelen spelen een rol wanneer de resultaten van een AI-model de voorkeur geven aan een bepaalde cultuur boven een andere.

Naast vooroordelen kunnen ook andere zaken de resultaten van een AI-systeem belemmeren, zoals:

  • Onnauwkeurigheden: Onnauwkeurigheden treden op wanneer de resultaten van een AI-model onjuist zijn vanwege inconsistente trainingsgegevens.
  • hallucinaties: Hallucinaties doen zich voor wanneer AI-modellen fictieve en valse resultaten opleveren die niet op feitelijke gegevens zijn gebaseerd.

De impact van AI-bias op de samenleving

De impact van AI-vooroordelen op de samenleving kan schadelijk zijn. Vooringenomen AI-systemen kunnen onnauwkeurige resultaten opleveren die de vooroordelen die al in de samenleving bestaan ​​versterken. Deze resultaten kunnen de discriminatie en schendingen van rechten vergroten, de wervingsprocessen beïnvloeden en het vertrouwen in AI-technologie verminderen.

Bovendien leiden bevooroordeelde AI-resultaten vaak tot onnauwkeurige voorspellingen die ernstige gevolgen kunnen hebben voor onschuldige individuen. In augustus 2020 bijvoorbeeld Robert McDaniel werd het doelwit van een criminele daad omdat het voorspellende politie-algoritme van de politie van Chicago hem bestempelde als een ‘persoon van belang’.

Op dezelfde manier kunnen bevooroordeelde AI-systemen in de gezondheidszorg acute gevolgen voor de patiënt hebben. In 2019, Wetenschap ontdekte dat een veelgebruikte Amerikaans medisch algoritme was racistisch bevooroordeeld tegenover gekleurde mensen, wat ertoe leidde dat zwarte patiënten minder risicovolle zorg kregen.

Barbie's van de wereld

In juli 2023, Buzzfeed heeft een blog gepubliceerd bestaande uit 194 AI-gegenereerde barbies van over de hele wereld. Het bericht ging viraal op Twitter. Hoewel Buzzfeed een disclaimerverklaring schreef, weerhield dit de internetgebruikers er niet van om te wijzen op de raciale en culturele onnauwkeurigheden. Het door AI gegenereerde beeld van de Duitse Barbie droeg bijvoorbeeld het uniform van een SS-nazi algemeen.

Barbies van de Wereld-image5

Op dezelfde manier werd het door AI gegenereerde beeld van een Zuid-Soedanese Barbie getoond met een pistool aan haar zijde, wat de diepgewortelde vooroordelen in AI-algoritmen weerspiegelt.

Barbies van de Wereld-image4

Afgezien hiervan vertoonden verschillende andere afbeeldingen culturele onnauwkeurigheden, zoals de Qatar Barbie die een Ghutra, een traditionele hoofdtooi gedragen door Arabische mannen.

Barbies van de Wereld-image3

Deze blogpost kreeg veel kritiek vanwege culturele stereotypering en vooringenomenheid. De Londen Interdisciplinaire School (LIS) noemde dit representatieve schade die onder controle moeten worden gehouden door het opleggen van kwaliteitsnormen en het oprichten van AI-toezichtsorganen.

Beperkingen van AI-modellen

AI heeft de potentie om dat te doen een revolutie teweegbrengen in vele industrieën. Maar als scenario’s zoals de hierboven genoemde zich verspreiden, kan dit leiden tot een daling van de algemene adoptie van AI, wat resulteert in gemiste kansen. Dergelijke gevallen doen zich doorgaans voor als gevolg van aanzienlijke beperkingen in AI-systemen, zoals:

  • Gebrek aan creativiteit: Omdat AI alleen beslissingen kan nemen op basis van de gegeven trainingsgegevens, mist het de creativiteit om buiten de gebaande paden te denken, wat het creatief oplossen van problemen belemmert.
  • Gebrek aan contextueel begrip: AI-systemen hebben moeite met het begrijpen van contextuele nuances of taaluitdrukkingen van een regio, wat vaak tot fouten in de resultaten leidt.
  • Trainingsbias: AI vertrouwt op historische gegevens die allerlei discriminerende steekproeven kunnen bevatten. Tijdens de training kan het model gemakkelijk discriminerende patronen leren die oneerlijke en bevooroordeelde resultaten opleveren.

Hoe u vooringenomenheid in AI-modellen kunt verminderen

Experts schatting dat tegen 2026 90% van de online-inhoud synthetisch gegenereerd zou kunnen zijn. Daarom is het van cruciaal belang om de problemen die aanwezig zijn in generatieve AI-technologieën snel tot een minimum te beperken.

Er kunnen verschillende belangrijke strategieën worden geïmplementeerd om vooroordelen in AI-modellen te verminderen. Sommige hiervan zijn:

  • Zorg voor gegevenskwaliteit: Het opnemen van volledige, nauwkeurige en schone gegevens in een AI-model kan vertekening helpen verminderen en nauwkeurigere resultaten opleveren.
  • Diverse datasets: Het introduceren van diverse datasets in een AI-systeem kan vooroordelen helpen verminderen naarmate het AI-systeem in de loop van de tijd inclusiever wordt.
  • Feedbacklussen: Met een constante feedback en leerluskunnen AI-modellen hun resultaten geleidelijk verbeteren
  • Verhoogde regelgeving: Mondiale AI-regelgeving is van cruciaal belang voor het behoud van de kwaliteit van AI-systemen over de grenzen heen. Daarom moeten internationale organisaties samenwerken om de standaardisatie van AI te garanderen.
  • Verhoogde adoptie van verantwoorde AI: Verantwoorde AI-strategieën dragen positief bij aan het verminderen van AI-vooroordelen, het cultiveren van eerlijkheid en nauwkeurigheid in AI-systemen, en zorgen ervoor dat ze een diverse gebruikersbasis bedienen, terwijl ze streven naar voortdurende verbetering.

Door diverse datasets, ethische verantwoordelijkheid en open communicatiemedia te integreren, kunnen we ervoor zorgen dat AI wereldwijd een bron van positieve verandering is.

Als je meer wilt weten over vooroordelen en de rol van kunstmatige intelligentie in onze samenleving, lees dan de volgende blogs.