кочан AI и Survey Research: Изненадващо сътрудничество - Unite.AI
Свържете се с нас

етика

Изкуствен интелект и проучвания: Изненадващо сътрудничество

Публикуван

 on

Едно скорошно проучване проведено от екип от преподаватели по политология и компютърни науки и студенти в BYU проучи потенциала за използване на изкуствен интелект (AI) като заместител на хората, които отговарят в проучвания в стила на проучване. Екипът тества точността на програмирани алгоритми на езиков модел GPT-3, който имитира сложните взаимоотношения между човешките идеи, нагласи и социокултурни контексти на различни субпопулации.

Изкуствени лица и модели на гласуване

В един експеримент изследователите създадоха изкуствени личности, като приписаха специфични характеристики на AI, като раса, възраст, идеология и религиозност. След това тестваха дали тези изкуствени персони ще гласуват по същия начин като хората на президентските избори в САЩ през 2012, 2016 и 2020 г. Използвайки Американските национални изборни проучвания (ANES) като своя сравнителна база данни за хора, те откриха голямо съответствие между AI и моделите на гласуване при хора.

Дейвид Уингейт, професор по компютърни науки в BYU и съавтор на изследването, изрази изненадата си от резултатите:

„Това е особено интересно, защото моделът не е бил обучен да прави политически науки — той просто е бил обучен върху сто милиарда думи текст, изтеглен от интернет. Но последователната информация, която получихме, беше толкова свързана с това как хората наистина гласуваха.

Проучвания в стил интервю и бъдещи приложения

В друг експеримент изследователите обуславят изкуствените личности да предлагат отговори от списък с опции в анкета в стил интервю, като отново използват ANES като своя човешка извадка. Те откриха голямо сходство между нюансираните модели в отговорите на човека и AI.

Резултатите от проучването предлагат вълнуващи перспективи за изследователи, търговци и анкетьори. Изкуственият интелект може да се използва за създаване на по-добри въпроси за анкети, за усъвършенстването им, за да бъдат по-достъпни и представителни, и дори за симулиране на популации, които са трудни за достигане. Може също да се използва за тестване на проучвания, лозунги и надписи преди провеждане на фокус групи.

Професорът по политически науки от BYU Итън Бъзби коментира:

„Това не замества хората, но ни помага по-ефективно да изучаваме хората. Става въпрос за увеличаване на нашата способност, а не за нейното заместване. Може да ни помогне да бъдем по-ефективни в работата си с хората, като ни позволи да тестваме предварително нашите проучвания и нашите съобщения.“

Етични въпроси и бъдещи изследвания

Тъй като големите езикови модели продължават да напредват, възникват множество въпроси относно техните приложения и последици. Кои групи от населението ще се възползват от тази технология и кои ще бъдат повлияни отрицателно? Как можем да се предпазим от измамници и измамници, които могат да манипулират AI, за да създадат по-сложни фишинг измами?

Въпреки че много от тези въпроси остават без отговор, проучването предоставя набор от критерии, които бъдещите изследователи могат да използват, за да определят точността на AI моделите за различни предметни области.

Wingate признава потенциалните положителни и отрицателни последици от развитието на AI:

„Ще видим положителни ползи, защото това ще отключи нови възможности. Ще станем свидетели и на негативни неща, защото понякога компютърните модели са неточни, а понякога са пристрастни. Това ще продължи да вълнува обществото.“

Бъзби подчертава, че анкетирането на изкуствени личности не трябва да замества необходимостта от анкетиране на реални хора и призовава академиците и експертите да си сътрудничат при определянето на етичните граници на анкетирането на ИИ в социалните научни изследвания.

Алекс Макфарланд е AI журналист и писател, изследващ най-новите разработки в областта на изкуствения интелект. Той е сътрудничил с множество стартиращи фирми и публикации в областта на изкуствения интелект по целия свят.