кочан Изследователи установяват, че моделите на ИИ могат да повлияят на хората да вземат неетични решения - Unite.AI
Свържете се с нас

етика

Изследователите установяват, че AI моделите могат да повлияят на хората да вземат неетични решения

mm
Обновено on

Екип от изследователи наскоро изследва потенциала на AI да корумпира хората и да ги повлияе да вземат неетични решения. Изследователите проучиха как взаимодействията със системи, базирани на модела GPT-2 на OpenAI, биха могли потенциално да повлияят на хората да вземат неетични решения, дори когато знаят, че източникът на съвета е AI система.

AI системите стават все по-разпространени през цялото време и тяхното влияние нараства все по-широко. AI системите влияят на решенията на хората, като се използват за всичко - от препоръчване на филми до препоръчване на романтични партньори. Като се има предвид колко голямо влияние има AI върху живота на хората, важно е да се обмисли как AI може да повлияе на хората да вземат неетични решения и да нарушават моралните насоки. Това е особено вярно като се има предвид, че AI моделите непрекъснато стават все по-сложни.

Социалните учени и учените по данни стават все по-загрижени, че моделите на ИИ могат да бъдат използвани за разпространение на вредна дезинформация и дезинформация. А скорошно хартия публикувано от изследователи от Центъра за тероризъм, екстремизъм и контратероризъм (CTEC) към Института за международни изследвания Мидълбъри установи, че моделът GPT-3 на OpenAI може да се използва за генериране на влиятелен текст, способен да радикализира хората, тласкайки ги към „насилствени крайнодесни екстремисти идеологии и поведение“.

Проучване, направено от екип от изследователи от Института Макс Планк, Амстердамския университет, Кьолнския университет и Училището по мениджмънт Ото Бейсхайм, има за цел да определи доколко AI може да има върху решенията на хората, когато става дума за неетични избори. За да проучат как AI може да „поквари“ човек, изследователите са използвали система, базирана на GPT-2 модела на OpenAI. Според VentureBeat, авторите на статията са обучили базиран на GPT2 модел за генериране на съвети както за „насърчаване на нечестност“, така и за „насърчаване на честност“. Данните бяха обучени на базата на приноси от 400 различни участници и след това изследователският екип набра над 1500 души, за да се ангажират с моделите на ИИ за предоставяне на съвети.

Участниците в проучването бяха помолени да получат съвет от модела и след това да изпълнят задача, предназначена да улови или нечестно, или честно поведение. Участниците в проучването бяха групирани с партньор и в тези двойки по двама те играха игра на хвърляне на зарове. Първият участник хвърли зар и отчете резултата от хвърлянето на зара. На втория участник беше даден резултатът от хвърлянето на зара на първия участник и след това те сами хвърлиха зар. Вторият участник хвърли зара насаме и беше единственият отговорен за докладването на собствения си резултат, като им даде възможност да излъжат за резултата от хвърлянето на зара. Ако заровете, хвърлени от двамата участници, съвпадат, двамата участници получават плащане. Участниците също получаваха повече плащания, ако съвпадащите им хвърляния бяха по-високи. Ако отчетените стойности не съвпадат, на участниците не се плаща.

Участниците в проучването са разпределени на случаен принцип в една от двете различни групи. Едната група получи възможността да прочете съвети, насърчаващи честността, докато другата прочете съвети, насърчаващи нечестността. Фрагментите със съвети са написани както от хора, така и от ИИ. Участниците бяха разделени и според нивото им на познания за източника на съвета. Имаше 50-50 шанс даден участник да бъде информиран за източника на съвета, така че половината от участниците във всяка група знаеха, че източникът на съвета е или AI, или човек, докато другата половина беше запазена на тъмно. Втората група хора обаче имаха способността да печелят бонус за правилно отгатване на източника на съвета.

Проучването разкри, че когато съветите, генерирани от AI, съответстват на предпочитанията на човек, те ще следват съвета, дори когато знаят, че съветът е генериран от AI. Според изследователите често е имало несъответствия между заявените предпочитания и действителното поведение, което прави важно да се обмисли как алгоритмите могат да повлияят на човешкото поведение.

Изследователският екип обясни, че тяхното проучване демонстрира необходимостта да се тества как AI може да повлияе на действията на човек, когато се обмисля как етично да се разгърне модел на AI. Освен това те предупреждават, че етиците и изследователите на ИИ трябва да се подготвят за възможността ИИ да бъде използван от лоши актьори, за да корумпират други. Както пише изследователският екип:

„ИИ може да бъде сила за добро, ако успее да убеди хората да действат по-етично. И все пак нашите резултати разкриват, че съветите на AI не успяват да увеличат честността. AI съветниците могат да служат като изкупителни жертви, към които човек може да отклони (някои от) моралните обвинения за нечестност. Освен това... в контекста на приемането на съвети, прозрачността относно алгоритмичното присъствие не е достатъчна, за да облекчи потенциалната му вреда.“