Connect with us

Robotikk

Er robot-utnyttelse universell eller kulturelt avhengig?

mm

Folk i Japan behandler samarbeidende kunstige agenter med samme respekt som de gjør overfor mennesker, mens amerikanere er betydelig mer sannsynlige til å utnytte AI for personlig gevinst, ifølge en ny studie publisert i Scientific Reports av forskere fra LMU Munich og Waseda University Tokyo.

Ettersom selvkjørende kjøretøy og andre AI-autonome roboter blir stadig mer integrert i dagliglivet, kan kulturelle holdninger til kunstige agenter bestemme hvor raskt og suksessfullt disse teknologiene blir implementert i forskjellige samfunn.

Kulturell skille i menneske-AI-samarbeid

“Ettersom selvkjørende teknologi blir en realitet, vil disse daglige møtene definere hvordan vi deler veien med intelligente maskiner,” sa Dr. Jurgis Karpus, hovedforsker fra LMU Munich, i studien.

Forskningen representerer en av de første omfattende sammenlignende undersøkelsene av hvordan mennesker samhandler med kunstige agenter i scenarier der interesser ikke alltid stemmer overens. Funndene utfordrer antagelsen om at algoritme-utnyttelse – tendensen til å ta fordelen av samarbeidende AI – er et universelt fenomen.

Resultatene antyder at ettersom autonome teknologier blir mer utbredt, kan samfunn oppleve forskjellige integreringsutfordringer basert på kulturelle holdninger til kunstig intelligens.

Forskningsmetodologi: Spillteori avslører atferdsforskjeller

Forskningsgruppen benyttet klassiske eksperimenter i atferdsøkonomi – Trust Game og Prisoner’s Dilemma – for å sammenligne hvordan deltakere fra Japan og USA samhandler med både menneskelige partnere og AI-systemer.

I disse spillene tok deltakerne valg mellom eget interesse og gjensidig nytte, med reelle monetære incitamenter for å sikre at de tok ekte beslutninger fremfor hypotetiske. Denne eksperimentelle designen tillot forskerne å direkte sammenligne hvordan deltakerne behandlet mennesker versus AI i identiske scenarier.

Spillene var nøye strukturert for å replikere dagliglivssituasjoner, inkludert trafikkscenarier, der mennesker må bestemme om de skal samarbeide med eller utnytte en annen agent. Deltakerne spilte flere runder, noen ganger med menneskelige partnere og noen ganger med AI-systemer, og tillot en direkte sammenligning av deres atferd.

“Våre deltakere i USA samarbeidet med kunstige agenter betydelig mindre enn de gjorde med mennesker, mens deltakere i Japan viste ekvivalente nivåer av samarbeid med begge typer medspillere,” heter det i rapporten.

Karpus, J., Shirai, R., Verba, J.T. et al.

Skyld som en nøkelfaktor i kulturelle forskjeller

Forskerne foreslår at forskjeller i opplevd skyld er en primær driver for de observerte kulturelle variasjonene i hvordan mennesker behandler kunstige agenter.

Studien fant at mennesker i Vesten, spesielt i USA, tenderer til å føle anger når de utnytter en annen menneske, men ikke når de utnytter en maskin. I Japan, derimot, synes mennesker å oppleve skyld på samme måte uansett om de mishandler en person eller en kunstig agent.

Dr. Karpus forklarer at i vestlig tenkning, å kutte av en robot i trafikken ikke skader dens følelser, og understreker en perspektiv som kan bidra til en større villighet til å utnytte maskiner.

Studien inkluderte en utforskende komponent der deltakerne rapporterte sine emosjonelle responser etter at spillresultatene ble avslørt. Disse dataene ga avgjørende innsikt i de psykologiske mekanismene som ligger til grunn for de atferdsmessige forskjellene.

Emosjonelle responser avslører dypere kulturelle mønster

Når deltakerne utnyttet en samarbeidende AI, rapporterte japanske deltakere at de følte betydelig mer negative emosjoner (skyld, sinne, skuffelse) og færre positive emosjoner (lykke, seier, lettelse) sammenlignet med deres amerikanske motparter.

Forskningen fant at de som utnyttet sin AI-medspiller i Japan, rapporterte å føle betydelig mer skyld enn de som gjorde det i USA. Denne sterke emosjonelle responsen kan forklare den større motviljen blant japanske deltakere til å utnytte kunstige agenter.

Omvertningsvis følte amerikanerne mer negative emosjoner når de utnyttet mennesker enn AI, en distinksjon som ikke ble observert blant japanske deltakere. For mennesker i Japan var den emosjonelle responsen lik uansett om de hadde utnyttet en menneske eller en kunstig agent.

Studien påpeker at japanske deltakere følte likt om å utnytte både mennesker og AI-medspillere over alle undersøkte emosjoner, og antyder en grunnleggende annen moralsk persepsjon av kunstige agenter sammenlignet med vestlige holdninger.

Animisme og persepsjon av roboter

Japans kulturelle og historiske bakgrunn kan spille en betydelig rolle i disse funnene, og tilbyr potensielle forklaringer for de observerte forskjellene i atferd overfor kunstige agenter og inkorporert AI.

Rapporten påpeker at Japans historiske affinitet for animisme og troen på at ikke-levende objekter kan besitte sjeler i buddhismen, har ført til antagelsen at japanske mennesker er mer akseptende og omsorgsfulle overfor roboter enn mennesker i andre kulturer.

Denne kulturelle konteksten kan skape en grunnleggende annen utgangspunkt for hvordan kunstige agenter blir oppfattet. I Japan kan det være mindre skarp skille mellom mennesker og ikke-menneskelige enheter som kan samhandle.

Forskningen indikerer at mennesker i Japan er mer sannsynlige enn mennesker i USA til å tro at roboter kan oppleve emosjoner og er mer villige til å akseptere roboter som mål for menneskelig moralsk dømming.

Studier referert i rapporten antyder en større tendens i Japan til å oppfatte kunstige agenter som like mennesker, med roboter og mennesker ofte avbildet som partnere fremfor i hierarkiske forhold. Dette perspektivet kan forklare hvorfor japanske deltakere behandlet kunstige agenter og mennesker med samme omtanke.

Konsekvenser for autonom teknologi-adoptsjon

Disse kulturelle holdningene kan direkte påvirke hvor raskt autonome teknologier blir adoptert i forskjellige regioner, med potensielt langtrekkende økonomiske og samfunnsmessige konsekvenser.

Dr. Karpus antyder at hvis mennesker i Japan behandler roboter med samme respekt som mennesker, kan fullt autonome drosjer bli vanlig i Tokyo raskere enn i vestlige byer som Berlin, London eller New York.

Villigheten til å utnytte selvkjørende kjøretøy i noen kulturer kan skape praktiske utfordringer for deres smidige integrasjon i samfunnet. Hvis sjåfører er mer sannsynlige til å kutte av selvkjørende biler, ta deres rett til veien eller på annen måte utnytte deres programmering, kan det hindre effektiviteten og sikkerheten til disse systemene.

Forskerne foreslår at disse kulturelle forskjellene kan påvirke tidsplanen for omfattende adopsjon av teknologier som leveringsdroner, autonom offentlig transport og selvkjørende personbiler.

Interessant nok fant studien liten forskjell i hvordan japanske og amerikanske deltakere samarbeidet med andre mennesker, i tråd med tidligere forskning i atferdsøkonomi.

Studien observerte begrenset forskjell i villigheten til å samarbeide med andre mennesker blant japanske og amerikanske deltakere. Dette funn understreker at divergensen oppstår spesifikt i konteksten av menneske-AI-interaksjon fremfor å reflektere bredere kulturelle forskjeller i samarbeidsatferd.

Denne konsistensen i menneske-menneske-samarbeid gir en viktig baseline for å måle de kulturelle forskjellene i menneske-AI-interaksjon, og styrker studiens konklusjoner om det unike mønsteret som er observert.

VIDERE IMPILIKASJONER FOR AI-UTVIKLING

Funndene har betydelige implikasjoner for utvikling og implementering av AI-systemer som er designet til å samhandle med mennesker i forskjellige kulturelle kontekster.

Forskningen understreker den kritiske behovet for å vurdere kulturelle faktorer i design og implementering av AI-systemer som samhandler med mennesker. Måten mennesker oppfatter og samhandler med AI er ikke universell og kan variere betydelig over kulturer.

Å ignorere disse kulturelle nyansene kan føre til uforutsette konsekvenser, langsommere adopsjonsrater og potensial for misbruk eller utnyttelse av AI-teknologier i visse regioner. Det understreker viktigheten av sammenlignende studier for å forstå menneske-AI-interaksjon og sikre ansvarlig utvikling og implementering av AI globalt.

Forskerne foreslår at ettersom AI blir mer integrert i dagliglivet, vil det å forstå disse kulturelle forskjellene bli stadig viktigere for suksessfull implementering av teknologier som krever samarbeid mellom mennesker og kunstige agenter.

Begrensninger og fremtidige forskningsretninger

Forskerne anerkjenner visse begrensninger i deres arbeid som peker mot retninger for fremtidig undersøkelse.

Studien fokuserte primært på bare to land – Japan og USA – som, selv om det gir verdifulle innsikter, kan ikke fange hele spekteret av kulturell variasjon i menneske-AI-interaksjon globalt. Fremtidig forskning over en bredere rekke kulturer er nødvendig for å generalisere disse funnene.

I tillegg, mens spillteori-eksperimenter gir kontrollerte scenarier ideelle for sammenlignende forskning, kan de ikke fullt ut fange kompleksiteten i virkelige menneske-AI-interaksjoner. Forskerne foreslår at validering av disse funnene i feltstudier med faktiske autonome teknologier ville være et viktig neste skritt.

Forklaringen basert på skyld og kulturelle overbevisninger om roboter, selv om den støttes av dataene, krever videre empirisk undersøkelse for å etablere årsakssammenheng definitivt. Forskerne oppfordrer til mer rettede studier som undersøker de spesifikke psykologiske mekanismene som ligger til grunn for disse kulturelle forskjellene.

“Våre nåværende funn dæmpende generaliseringen av disse resultater og viser at algoritme-utnyttelse ikke er et sammenlignbart fenomen,” konkluderer forskerne.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.