Connect with us

Umělá inteligence

Umělé inteligence a Tetrisová konunda

mm

V průkopnickém výzkumu vedeném Cornellovou univerzitou se výzkumníci pustili do průzkumné cesty do oblastí algoritmické spravedlnosti ve dvouhráčové verzi klasické hry Tetris. Experiment byl založen na jednoduchém, ale hlubokém předpokladu: Hráči, kteří během hry dostali méně tahů, považovali svého soupeře za méně sympatického, bez ohledu na to, zda za přidělování tahů byl zodpovědný člověk nebo algoritmus.

Tento přístup představoval významný posun od tradičního zaměření výzkumu algoritmické spravedlnosti, který se převážně soustředí na algoritmus nebo rozhodnutí samo o sobě. Místo toho se studie Cornellovy univerzity rozhodla osvětlit vztahy mezi lidmi, kteří jsou ovlivněni algoritmickými rozhodnutími. Tento výběr zaměření byl dán skutečnými důsledky rozhodování AI.

“Začněme vidět spoustu situací, ve kterých AI činí rozhodnutí o tom, jak mají být rozděleny zdroje mezi lidmi,” poznamenal Malte Jung, docent informačních věd na Cornellově univerzitě, který vedl studii. Jak se AI stále více integruje do různých aspektů života, Jung zdůraznil potřebu porozumět, jak tato rozhodnutí strojů formují mezilidské interakce a vnímání. “Vidíme stále více důkazů, že stroje mění způsob, jakým spolu interagujeme,” komentoval.

Experiment: Twistr na Tetris

Aby provedli studii, Houston Claure, postdoktorandský výzkumník na Yaleově univerzitě, využil open-source software k vývoji modifikované verze Tetrisu. Tato nová verze, nazvaná Co-Tetris, umožňovala dvěma hráčům střídavě spolupracovat. Společným cílem hráčů bylo manipulovat s padajícími geometrickými bloky, pečlivě je skládat bez mezery a zabránit tomu, aby bloky narůstaly na horní část obrazovky.

V twistru na tradiční hru rozhodl “allokátor” – buď člověk nebo AI – o tom, který hráč bude hrát každý tah. Rozdělení tahů bylo rozděleno tak, aby hráči dostali buď 90%, 10% nebo 50% tahů.

Koncept chování při přidělování strojů

Výzkumníci předpokládali, že hráči, kteří dostali méně tahů, rozpoznají nerovnováhu. Nicméně, co neočekávali, bylo, že pocity hráčů vůči jejich spoluhráči zůstanou převážně stejné, bez ohledu na to, zda byl allokátorem člověk nebo AI. Tento neočekávaný výsledek vedl výzkumníky k vytvoření termínu “chování při přidělování strojů”.

Tento koncept se týká pozorovatelného chování, které lidé vykazují na základě rozhodnutí o přidělování učiněných stroji. Je to paralela k etablovanému jevu “chování při přidělování zdrojů”, který popisuje, jak lidé reagují na rozhodnutí o distribuci zdrojů. Vznik chování při přidělování strojů demonstruje, jak algoritmická rozhodnutí mohou formovat sociální dynamiku a mezilidské interakce.

Spravedlnost a výkon: Překvapivá paradoxie

Nicméně, studie se nezastavila pouze u zkoumání vnímání spravedlnosti. Také zkoumá vztah mezi přidělováním a herním výkonem. Zde byly výsledky somewhat paradoxní: spravedlnost v přidělování tahů nevyústila nutně v lepší výkon. Ve skutečnosti, rovné přidělování tahů často vedlo k horším herním skóre ve srovnání se situacemi, kde bylo přidělování nerovné.

Claure vysvětlil: “Pokud silný hráč dostane většinu bloků, tým bude hrát lépe. A pokud jeden člověk dostane 90%, nakonec bude lepší v tom než dva průměrní hráči, kteří si bloky rozdělí.”

V našem se vyvíjejícím světě, kde je AI stále více integrována do rozhodovacích procesů v různých oblastech, tato studie nabízí cenné poznatky. Poskytuje zajímavou exploraci toho, jak algoritmická rozhodnutí mohou ovlivňovat vnímání, vztahy a dokonce i herní výkon. Zvýrazňujíc složitosti, které vznikají, když se AI protíná s lidským chováním a interakcemi, studie nás nutí přemýšlet o zásadních otázkách o tom, jak můžeme lépe porozumět a navigovat v tomto dynamickém, technologicky řízeném prostředí.

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s mnoha AI startupy a publikacemi po celém světě.