Connect with us

Kunstig intelligens

AI-forudsel og kulturelle stereotyper: Effekter, begrænsninger og afværge

mm
AI Bias & Cultural Stereotypes: Effects, Limitations, & Mitigation

Kunstig intelligens (AI), især Generative AI, fortsætter med at overgå forventningerne med sin evne til at forstå og efterligne menneskelig kognition og intelligens. Dog kan resultaterne eller forudsigelserne fra AI-systemer i mange tilfælde afspejle forskellige typer af AI-forudsel, såsom kulturelle og racemæssige.

Buzzfeed’s “Barbies of the World”-blog (som nu er slettet) manifestere tydeligt disse kulturelle forudsel og urealistiske billeder. Disse ‘barbies’ blev skabt ved hjælp af Midjourney – en førende AI-billedegenerator, for at se, hvordan barbies ville se ud i hver del af verden. Vi vil tale mere om dette senere.

Men dette er ikke første gang, AI har været “racistisk” eller produceret urealistiske resultater. For eksempel blev Apple i 2022 sagt for at have en Apple Watch-blod-ilt-sensor, der var forudsel mod mennesker af farve. I et andet tilfælde fandt Twitter-brugere ud af, at Twitter’s automatiske billedbeskæring AI favoriserede hvide menneskers ansigter over sorte individer og kvinder over mænd. Disse er kritiske udfordringer, og at løse dem er betydeligt udfordrende.

I denne artikel vil vi se på, hvad AI-forudsel er, hvordan det påvirker vores samfund, og kort diskutere, hvordan praktikere kan afværge det for at løse udfordringer som kulturelle stereotyper.

Hvad er AI-forudsel?

AI-forudsel opstår, når AI-modeller producerer diskriminerende resultater mod bestemte demografiske grupper. Der er flere typer forudsel, der kan trænge ind i AI-systemer og producere forkerte resultater. Nogle af disse AI-forudsel er:

  • Stereotyp-forudsel: Stereotyp-forudsel refererer til fænomenet, hvor resultaterne af en AI-model består af stereotyper eller opfattede forestillinger om en bestemt demografisk gruppe.
  • Racemæssig forudsel: Racemæssig forudsel i AI sker, når resultaterne af en AI-model er diskriminerende og uretfærdige over for en person eller gruppe baseret på deres etnicitet eller race.
  • Kulturel forudsel: Kulturel forudsel kommer til syne, når resultaterne af en AI-model favoriserer en bestemt kultur over en anden.

Ud over forudsel kan andre problemer også hindre resultaterne af et AI-system, såsom:

  • <strong,Uréalistiske billeder: Uréalistiche billeder opstår, når resultaterne produceret af en AI-model er forkerte på grund af inkonsistente træningsdata.
  • Hallucinationer: Hallucinationer opstår, når AI-modeller producerer fiktive og forkerte resultater, der ikke er baseret på faktuelle data.

AI-forudselens indvirkning på samfundet

AI-forudselens indvirkning på samfundet kan være skadelig. Forudselte AI-systemer kan producere urealistiske resultater, der forstærker fordommene, der allerede findes i samfundet. Disse resultater kan øge diskrimination og krænke rettigheder, påvirke rekrutteringsprocesser og reducere tilliden til AI-teknologi.

Desuden kan forudselte AI-resultater ofte føre til urealistiske forudsigelser, der kan have alvorlige konsekvenser for uskyldige individer. For eksempel blev Robert McDaniel i august 2020 mål for en kriminel handling på grund af Chicago Politiets prædiktive politi-algoritme, der havde markeret ham som en “person af interesse”.

Ligesom kan forudselte sundheds-AI-systemer have alvorlige patient-resultater. I 2019 opdagede Science, at en bredt anvendt amerikansk medicinsk algoritme var racemæssigt forudsel mod mennesker af farve, hvilket førte til, at sorte patienter fik mindre højrisiko-sygepleje.

Barbies of the World

I juli 2023 offentliggjorde Buzzfeed en blog med 194 AI-genererede barbies fra hele verden. Indlægget blev viralt på Twitter. Selv om Buzzfeed skrev en disclaimer-erklæring, stoppede det ikke netbrugerne fra at pege på de racemæssige og kulturelle urealistiske billeder. For eksempel var den AI-genererede billed af en tysk Barbie iført uniformen af en SS-nazistisk general.

Barbies of the World-image5

Ligesom var den AI-genererede billed af en sydsudanesisk Barbie vist med en pistol ved sin side, hvilket afspejler den dybt rodende forudsel i AI-algoritmer.

Barbies of the World-image4

Ud over dette viste flere billeder kulturelle urealistiske billeder, såsom den qatarske Barbie iført en Ghutra, en traditionel hovedbeklædning båret af arabiske mænd.

Barbies of the World-image3

Dette blogindlæg fik en massiv tilbageslag for kulturel stereotypisering og forudsel. London Interdisciplinary School (LIS) kaldte dette repræsentations-skade, der skal holdes under kontrol ved at pålægge kvalitetsstandarder og etablere AI-tilsynsorganer.

Begrænsninger af AI-modeller

AI har potentialet til at revolutionere mange industrier. Men hvis scenarier som de ovennævnte bliver mere almindelige, kan det føre til en nedgang i den generelle AI-adopteringsgrad, hvilket kan føre til manglende muligheder. Sådanne tilfælde opstår typisk på grund af betydelige begrænsninger i AI-systemer, såsom:

  • Manglende kreativitet: Da AI kun kan træffe beslutninger baseret på de givne træningsdata, mangler det kreativitet til at tænke uden for rammerne, hvilket hindrer kreativ problemløsning.
  • Manglende kontekstuel forståelse: AI-systemer har svært ved at forstå kontekstuelle nuancer eller sprogudtryk fra en region, hvilket ofte fører til fejl i resultaterne.
  • Trænings-forudsel: AI afhænger af historiske data, der kan indeholde alle mulige diskriminerende eksempler. Under træning kan modellen let lære diskriminerende mønstre for at producere uretfærdige og forudselte resultater.

Hvordan reducerer man forudsel i AI-modeller

Eksperter estimerer, at i 2026 kan 90% af det online-indhold være syntetisk genereret. Derfor er det vigtigt at reducere problemerne i Generative AI-teknologier hurtigt.

Flere nøglestrategier kan implementeres for at reducere forudsel i AI-modeller. Nogle af disse er:

  • Sikre datakvalitet: At indtage komplette, nøjagtige og rene data i en AI-model kan hjælpe med at reducere forudsel og producere mere nøjagtige resultater.
  • Diverse datasæt: At introducere diverse datasæt i et AI-system kan hjælpe med at afværge forudsel, da AI-systemet bliver mere inklusiv over tid.
  • Feedback-løkker: Med en konstant feedback- og læringsløkke kan AI-modeller gradvist forbedre deres resultater
  • Øgede reguleringer: Globale AI-reguleringer er afgørende for at opretholde kvaliteten af AI-systemer på tværs af grænser. Derfor skal internationale organisationer arbejde sammen for at sikre AI-standardisering.
  • Øget adoption af ansvarlig AI: Ansvarlige AI-strategier bidrager positivt til at afværge AI-forudsel, kultivere retfærdighed og nøjagtighed i AI-systemer og sikre, at de tjener en divers brugerbase, mens de stræber efter kontinuerlig forbedring.

Ved at inkorporere diverse datasæt, etisk ansvar og åbne kommunikationsmidler kan vi sikre, at AI er en kilde til positiv forandring verden over.

Hvis du ønsker at lære mere om forudsel og AI’s rolle i vores samfund, læs følgende blogs.

Haziqa er en Data Scientist med omfattende erfaring i at skrive teknisk indhold til AI- og SaaS-virksomheder.