Connect with us

Etik

AI og surveyforskning: Et overraskende samarbejde

mm

En nylig studie udført af et hold af professorer og studerende i statskundskab og datalogi ved BYU har undersøgt potentialet for at bruge kunstig intelligens (AI) som erstatning for menneskelige respondenter i survey-lignende forskning. Holdet testede nøjagtigheden af programmerede algoritmer i en GPT-3 sprogmodel, som imiterer de komplekse relationer mellem menneskelige ideer, holdninger og sociokulturelle kontekster i forskellige subpopulationer.

Kunstige personligheder og valgmønstre

I et eksperiment oprettede forskerne kunstige personligheder ved at tildele bestemte karakteristika til AI, såsom race, alder, ideologi og religiøsitet. De testede derefter, om disse kunstige personligheder ville stemme på samme måde som mennesker gjorde i præsidentvalgene i 2012, 2016 og 2020 i USA. Ved at bruge American National Election Studies (ANES) som deres comparative menneskelige database, opdagede de en høj korrespondance mellem AI og menneskelige valgmønstre.

David Wingate, en BYU-datalogiprofessor og medforfatter til studiet, udtrykte sin overraskelse over resultaterne:

“Det er særligt interessant, fordi modellen ikke var trænet til at udføre politisk videnskab – den var kun trænet på en hundred milliarder ord af tekst downloadet fra internettet. Men den konsekvente information, vi fik tilbage, var så tæt forbundet med, hvordan mennesker faktisk stemte.”

Interview-lignende undersøgelser og fremtidige anvendelser

I et andet eksperiment konditionerede forskerne kunstige personligheder til at tilbyde svar fra en liste af muligheder i en interview-lignende undersøgelse, igen ved at bruge ANES som deres menneskelige prøve. De fandt en høj lighed mellem de nuancerede mønstre i menneskelige og AI-svar.

Studiets resultater tilbyder spændende perspektiver for forskere, markedsførere og meningsmålingsinstitutter. AI kan bruges til at udvikle bedre spørgsmål til undersøgelser, forfine dem til at være mere tilgængelige og repræsentative, og endda simulere befolkninger, der er svære at nå. Det kan også bruges til at teste undersøgelser, slogans og taglines, før man udfører fokusgrupper.

BYU-statskundskabsprofessor Ethan Busby kommenterede:

“Det er ikke om at erstatte mennesker, men det hjælper os med at studere mennesker mere effektivt. Det handler om at supplere vores evne snarere end at erstatte den. Det kan hjælpe os med at være mere effektive i vores arbejde med mennesker ved at låse vores undersøgelser og vores formidling op.”

Ethiske spørgsmål og fremtidig forskning

Da store sprogmodeller fortsætter med at udvikle sig, opstår der mange spørgsmål om deres anvendelser og implikationer. Hvem vil profitere af denne teknologi, og hvem vil blive negativt påvirket? Hvordan kan vi beskytte os mod svindlere og bedragere, der måske manipulerer AI for at skabe mere sofistikerede phishing-svindel?

Selv om mange af disse spørgsmål endnu ikke er besvaret, giver studiet en sæt af kriterier, som fremtidige forskere kan bruge til at bestemme nøjagtigheden af AI-modeller for forskellige emneområder.

Wingate erkender de potentielle positive og negative konsekvenser af AI-udvikling:

“Vi vil se positive fordele, fordi det vil låse nye muligheder op. Vi vil også se negative ting ske, fordi computermodeller nogle gange er upræcise og nogle gange er de forvrængede. Det vil fortsætte med at omforme samfundet.”

Busby understreger, at survey af kunstige personligheder ikke skal erstatte behovet for at survey virkelige mennesker, og opfordrer akademikere og eksperter til at samarbejde om at definere de etiske grænser for AI-undersøgelse i samfundsvidenskabelig forskning.

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.