stomp Kunstmatige intelligentie en het Tetris-raadsel - Unite.AI
Verbind je met ons

Artificial Intelligence

Kunstmatige intelligentie en het Tetris-raadsel

Bijgewerkt on

In een baanbrekend onderzoek onder leiding van Cornell University begonnen onderzoekers aan een verkennende reis naar de rijken van algoritmische eerlijkheid in een versie voor twee spelers van het klassieke spel Tetris. Het experiment was gebaseerd op een eenvoudig maar diepgaand uitgangspunt: spelers die tijdens het spel minder beurten kregen, ervoeren hun tegenstander als minder sympathiek, ongeacht of een mens of een algoritme verantwoordelijk was voor het toewijzen van de beurten.

Deze aanpak markeerde een belangrijke verschuiving van de traditionele focus van onderzoek naar algoritmische rechtvaardigheid, dat voornamelijk inzoomt op het algoritme of de beslissing zelf. In plaats daarvan besloot de studie van Cornell University om licht te werpen op de relaties tussen de mensen die worden beïnvloed door algoritmische beslissingen. Deze focuskeuze werd ingegeven door de real-world implicaties van AI-besluitvorming.

"We beginnen veel situaties te zien waarin AI beslissingen neemt over hoe middelen onder mensen moeten worden verdeeld", zegt Malte Jung, universitair hoofddocent informatica aan de Cornell University, die het onderzoek leidde. Naarmate AI steeds meer wordt geïntegreerd in verschillende aspecten van het leven, benadrukte Jung de noodzaak om te begrijpen hoe deze door machines gemaakte beslissingen vorm geven aan interpersoonlijke interacties en percepties. "We zien steeds meer bewijs dat machines rotzooien met de manier waarop we met elkaar omgaan", merkte hij op.

Het experiment: een draai aan Tetris

Om de studie uit te voeren, maakte Houston Claure, een postdoctoraal onderzoeker aan de Yale University, gebruik van open-source software om een ​​aangepaste versie van Tetris te ontwikkelen. Met deze nieuwe versie, genaamd Co-Tetris, konden twee spelers afwisselend samenwerken. Het gedeelde doel van de spelers was om vallende geometrische blokken te manipuleren, ze netjes te stapelen zonder gaten achter te laten en te voorkomen dat de blokken zich opstapelen naar de bovenkant van het scherm.

In een variant op het traditionele spel, bepaalde een "allocator" - een mens of een AI - welke speler elke beurt zou nemen. De toewijzing van beurten werd zo verdeeld dat spelers 90%, 10% of 50% van de beurten kregen.

Het concept van machinetoewijzingsgedrag

De onderzoekers veronderstelden dat spelers die minder beurten krijgen, de onbalans zouden herkennen. Wat ze echter niet hadden verwacht, was dat de gevoelens van spelers jegens hun medespeler grotendeels hetzelfde zouden blijven, ongeacht of een mens of een AI de toewijzer was. Dit onverwachte resultaat bracht de onderzoekers ertoe de term 'machinetoewijzingsgedrag' te gebruiken.

Dit concept verwijst naar het waarneembare gedrag van mensen op basis van allocatiebeslissingen van machines. Het is een parallel met het gevestigde fenomeen van 'gedrag bij de toewijzing van middelen', dat beschrijft hoe mensen reageren op beslissingen over de verdeling van middelen. De opkomst van machinetoewijzingsgedrag laat zien hoe algoritmische beslissingen de sociale dynamiek en interpersoonlijke interacties kunnen vormgeven.

Eerlijkheid en prestaties: een verrassende paradox

Het onderzoek stopte echter niet bij het onderzoeken van de perceptie van rechtvaardigheid. Het onderzoekt ook de relatie tussen toewijzing en gameplay-prestaties. Op dit punt waren de bevindingen enigszins paradoxaal: eerlijkheid leidde op zijn beurt niet noodzakelijkerwijs tot betere prestaties. In feite resulteerde een gelijke toewijzing van beurten vaak in slechtere spelscores vergeleken met situaties waarin de toewijzing ongelijk was.

Claure legde dit uit en zei: “Als een sterke speler de meeste blokken krijgt, gaat het team het beter doen. En als één persoon 90% haalt, wordt hij er uiteindelijk beter in dan wanneer twee gemiddelde spelers de blokken splitsen.”

In onze evoluerende wereld, waar AI steeds meer wordt geïntegreerd in besluitvormingsprocessen op verschillende gebieden, biedt deze studie waardevolle inzichten. Het biedt een intrigerende verkenning van hoe algoritmische besluitvorming percepties, relaties en zelfs spelprestaties kan beïnvloeden. Door de complexiteit te benadrukken die ontstaat wanneer AI kruist met menselijk gedrag en interacties, zet de studie ons aan om na te denken over cruciale vragen over hoe we dit dynamische, door technologie gedreven landschap beter kunnen begrijpen en erin kunnen navigeren.

Alex McFarland is een AI-journalist en -schrijver die de nieuwste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met tal van AI-startups en publicaties over de hele wereld.