stub AI Bias & Cultural Stereotypes: Effects, Limitations, & Mitigation - Unite.AI
Følg os

Kunstig intelligens

AI Bias & kulturelle stereotyper: effekter, begrænsninger og afbødning

mm

Udgivet

 on

AI Bias & kulturelle stereotyper: effekter, begrænsninger og afbødning

Især kunstig intelligens (AI). Generativ AI, fortsætter med at overgå forventningerne med sin evne til at forstå og efterligne menneskelig kognition og intelligens. Men i mange tilfælde kan resultaterne eller forudsigelserne af AI-systemer afspejle forskellige typer AI-bias, såsom kulturel og racemæssig.

Buzzfeeds "Verdens Barbies” blog (som nu er slettet) viser tydeligt disse kulturelle skævheder og unøjagtigheder. Disse 'barbies' blev skabt vha midt på rejsen – en førende AI-billedgenerator for at finde ud af, hvordan barbies ville se ud i alle dele af verden. Vi taler mere om dette senere.

Men det er ikke første gang AI har været "racistisk" eller produceret unøjagtige resultater. For eksempel var Apple i 2022 sagsøges over påstande om, at Apple Watchs blodiltsensor var forudindtaget mod farvede mennesker. I et andet rapporteret tilfælde fandt Twitter-brugere det Twitters automatiske billedbeskærings-AI favoriserede hvide menneskers ansigter frem for sorte individer og kvinder frem for mænd. Det er kritiske udfordringer, og det er betydeligt udfordrende at løse dem.

I denne artikel vil vi se på, hvad AI-bias er, hvordan det påvirker vores samfund og kort diskutere, hvordan praktikere kan afbøde det for at løse udfordringer som kulturelle stereotyper.

Hvad er AI Bias?

AI-bias opstår, når AI-modeller producerer diskriminerende resultater i forhold til visse demografiske grupper. Flere typer af skævheder kan komme ind i AI-systemer og producere forkerte resultater. Nogle af disse AI-fordomme er:

  • Stereotypisk skævhed: Stereotypisk bias refererer til det fænomen, hvor resultaterne af en AI-model består af stereotyper eller opfattede forestillinger om en bestemt demografi.
  • Race-bias: Racebias i AI opstår, når resultatet af en AI-model er diskriminerende og uretfærdigt over for et individ eller en gruppe baseret på deres etnicitet eller race.
  • Kulturel skævhed: Kulturel skævhed kommer i spil, når resultaterne af en AI-model favoriserer en bestemt kultur frem for en anden.

Bortset fra skævheder kan andre problemer også hindre resultaterne af et AI-system, såsom:

  • Unøjagtigheder: Unøjagtigheder opstår, når resultaterne produceret af en AI-model er forkerte på grund af inkonsistente træningsdata.
  • Hallucinationer: Hallucinationer opstår, når AI-modeller producerer fiktive og falske resultater, der ikke er baseret på faktuelle data.

Indvirkningen af ​​AI Bias på samfundet

Indvirkningen af ​​AI-bias på samfundet kan være skadelig. Biased AI-systemer kan producere unøjagtige resultater, der forstærker de fordomme, der allerede eksisterer i samfundet. Disse resultater kan øge diskrimination og krænkelser af rettigheder, påvirke ansættelsesprocesser og reducere tilliden til AI-teknologi.

Desuden fører forudindtaget AI-resultater ofte til unøjagtige forudsigelser, der kan have alvorlige konsekvenser for uskyldige individer. For eksempel i august 2020, Robert McDaniel blev mål for en kriminel handling på grund af Chicago Police Departments prædiktive politialgoritme, der mærkede ham som en "interesseperson."

Tilsvarende kan forudindtaget sundheds-AI-systemer have akutte patientudfald. I 2019, Videnskab opdagede, at en meget brugt amerikansk medicinsk algoritme var racemæssigt forudindtaget mod mennesker af farve, hvilket førte til, at sorte patienter fik mindre højrisikobehandling.

Verdens Barbies

I juli 2023, Buzzfeed udgav en blog bestående af 194 AI-genererede barbies fra hele verden. Opslaget gik viralt på Twitter. Selvom Buzzfeed skrev en ansvarsfraskrivelse, forhindrede det ikke netbrugerne i at påpege de racemæssige og kulturelle unøjagtigheder. For eksempel var det AI-genererede billede af tysk Barbie iført uniformen af ​​en SS nazist almindelighed.

Barbies of the World-billede 5

På samme måde blev det AI-genererede billede af en sydsudansk Barbie vist med en pistol ved sin side, hvilket afspejler den dybt rodfæstede skævhed i AI-algoritmer.

Barbies of the World-billede 4

Bortset fra dette viste flere andre billeder kulturelle unøjagtigheder, såsom Qatar Barbie iført en Ghutra, en traditionel hovedbeklædning båret af arabiske mænd.

Barbies of the World-billede 3

Dette blogindlæg fik en massiv modreaktion for kulturelle stereotyper og bias. Det London Interdisciplinary School (LIS) kaldte dette repræsentativ skade der skal holdes i skak ved at indføre kvalitetsstandarder og etablere AI-tilsynsorganer.

Begrænsninger af AI-modeller

AI har potentialet til revolutionere mange industrier. Men hvis scenarier som de nævnt ovenfor spreder sig, kan det føre til et fald i den generelle AI-adoption, hvilket resulterer i forpassede muligheder. Sådanne tilfælde opstår typisk på grund af betydelige begrænsninger i AI-systemer, såsom:

  • Mangel på kreativitet: Da AI kun kan træffe beslutninger baseret på de givne træningsdata, mangler den kreativiteten til at tænke ud af boksen, hvilket hindrer kreativ problemløsning.
  • Mangel på kontekstforståelse: AI-systemer har svært ved at forstå kontekstuelle nuancer eller sprogudtryk i en region, hvilket ofte fører til fejl i resultater.
  • Træningsbias: AI er afhængig af historiske data, der kan indeholde alle slags diskriminerende prøver. Under træningen kan modellen nemt lære diskriminerende mønstre for at producere uretfærdige og partiske resultater.

Sådan reduceres bias i AI-modeller

Eksperter skøn at i 2026 kunne 90 % af onlineindholdet være syntetisk genereret. Derfor er det vigtigt hurtigt at minimere problemer, der findes i Generative AI-teknologier.

Flere nøglestrategier kan implementeres for at reducere bias i AI-modeller. Nogle af disse er:

  • Sikre datakvalitet: Indlæsning af komplette, nøjagtige og rene data i en AI-model kan hjælpe med at reducere bias og producere mere nøjagtige resultater.
  • Forskellige datasæt: Introduktion af forskellige datasæt i et AI-system kan hjælpe med at afbøde skævhed, da AI-systemet bliver mere inkluderende over tid.
  • Øget regulering: Globale AI-regler er afgørende for at opretholde kvaliteten af ​​AI-systemer på tværs af grænser. Derfor skal internationale organisationer arbejde sammen for at sikre AI-standardisering.
  • Øget anvendelse af ansvarlig AI: Ansvarlige AI-strategier bidrager positivt til at afbøde AI-bias, dyrke retfærdighed og nøjagtighed i AI-systemer og sikre, at de tjener en mangfoldig brugerbase, mens de stræber efter løbende forbedringer.

Ved at inkorporere forskellige datasæt, etisk ansvar og åbne kommunikationsmedier kan vi sikre, at AI er en kilde til positiv forandring på verdensplan.

Hvis du vil lære mere om bias og kunstig intelligenss rolle i vores samfund, kan du læse følgende blogs.