Connect with us

Искусственный интеллект

Искусственный Интеллект и Тетрис-Парадокс

mm

В пионерском исследовании под руководством Корнелльского университета исследователи отправились в исследовательское путешествие в области алгоритмической справедливости в двухигровой версии классической игры Тетрис. Эксперимент был основан на простой, но глубокой предпосылке: игроки, которые получали меньше ходов во время игры, воспринимали своего оппонента как менее симпатичного, независимо от того, был ли это человек или алгоритм, ответственный за распределение ходов.

Этот подход означал значительный сдвиг от традиционного фокуса исследований алгоритмической справедливости, который в основном сосредоточен на алгоритме или самом решении. Вместо этого исследование Корнелльского университета решило пролить свет на отношения между людьми, затронутыми алгоритмическими решениями. Этот выбор фокуса был обусловлен реальными последствиями принятия решений с помощью ИИ.

“Мы начинаем видеть много ситуаций, в которых ИИ принимает решения о том, как ресурсы должны быть распределены между людьми”, – отметил Малте Юнг, ассоциированный профессор информационных наук в Корнелльском университете, который возглавил исследование. По мере того, как ИИ становится все более интегрированным в различные аспекты жизни, Юнг подчеркнул необходимость понимания того, как эти машино-ориентированные решения формируют межличностные взаимодействия и восприятие. “Мы видим все больше доказательств того, что машины нарушают способ, которым мы взаимодействуем друг с другом”, – прокомментировал он.

Эксперимент: Твист на Тетрис

Чтобы провести исследование, Хьюстон Клауре, постдокторант Йельского университета, использовал программное обеспечение с открытым исходным кодом для разработки модифицированной версии Тетриса. Эта новая версия, получившая название Co-Tetris, позволяла двум игрокам работать вместе по очереди. Общая цель игроков заключалась в том, чтобы манипулировать падающими геометрическими блоками, аккуратно укладывая их без пробелов и предотвращая их накопление в верхней части экрана.

В.twist на традиционную игру “распределитель” – либо человек, либо ИИ – определял, какой игрок будет делать каждый ход. Распределение ходов было распределено таким образом, что игроки получали либо 90%, 10% или 50% ходов.

Концепция Машино-Распределительного Поведения

Исследователи предположили, что игроки, получающие меньше ходов, признают несбалансированность. Однако то, чего они не ожидали, было то, что чувства игроков к своему сопернику останутся в основном неизменными, независимо от того, был ли это человек или ИИ в качестве распределителя. Этот неожиданный результат привел исследователей к созданию термина “машино-распределительное поведение”.

Эта концепция относится к наблюдаемому поведению, проявляемому людьми на основе решений о распределении, принятых машинами. Это параллельно установленному феномену “ресурсно-распределительного поведения”, который описывает, как люди реагируют на решения о распределении ресурсов. Возникновение машино-распределительного поведения демонстрирует, как алгоритмические решения могут формировать социальную динамику и межличностные взаимодействия.

Справедливость и Производительность: Парадокс

Однако исследование не остановилось на изучении восприятия справедливости. Оно также исследует связь между распределением и производительностью игры. Здесь результаты были несколько парадоксальными: справедливость в распределении ходов не обязательно приводила к лучшей производительности. На самом деле, равное распределение ходов часто приводilo к худшим результатам игры по сравнению с ситуациями, когда распределение было неравным.

Объясняя это, Клауре сказал: “Если сильный игрок получает большинство блоков, команда будет играть лучше. И если один человек получает 90%, в конечном итоге он станет лучше в этом, чем если бы два средних игрока разделили блоки”.

В нашем развивающемся мире, где ИИ все больше интегрируется в процессы принятия решений в различных областях, это исследование предлагает ценные идеи. Оно предоставляет интригующее исследование того, как алгоритмическое принятие решений может влиять на восприятие, отношения и даже производительность игры. Подчеркивая сложности, которые возникают, когда ИИ пересекается с человеческим поведением и взаимодействием, исследование заставляет нас задуматься о важных вопросах о том, как мы можем лучше понять и ориентироваться в этом динамичном, технологически-ориентированном ландшафте.

Алекс Макфарленд - журналист и писатель в области искусственного интеллекта, исследующий последние разработки в этой области. Он сотрудничал с многочисленными стартапами и изданиями в области искусственного интеллекта во всем мире.