никулец Институтот за вештачка интелигенција сега предупредува за злоупотреба на софтвер за откривање емоции и други етички прашања - Unite.AI
Поврзете се со нас

етика

Институтот за вештачка интелигенција сега предупредува за злоупотреба на софтвер за откривање емоции и други етички прашања

mm
Ажурирани on

Институтот AI Now објави извештај во кој ги повикува законодавците и другите регулаторни тела да постават строги ограничувања за употребата на технологијата за откривање емоции, забранувајќи ја во случаи кога може да се користи за донесување важни одлуки како вработување вработени или прифаќање студенти. Покрај тоа, извештајот содржеше голем број други предлози во врска со низа теми од областа на вештачката интелигенција.

на Институт AI Now е истражувачки институт со седиште во NYU, кој има мисија да го проучува влијанието на вештачката интелигенција врз општеството. AI Now објавува годишен извештај кој ги покажува нивните наоди во врска со состојбата на истражувањето на вештачката интелигенција и етичките импликации за тоа како вештачката интелигенција моментално се користи. Како што објави Би-Би-Си, овогодинешниот извештај се осврна на теми како алгоритамска дискриминација, недостаток на разновидност во истражувањето на вештачката интелигенција и трудови прашања.

Препознавањето влијание, технички термин за алгоритми за откривање емоции, е брзо растечка област на истражување на вештачката интелигенција. Оние кои ја користат технологијата за донесување одлуки често тврдат дека системите можат да извлечат веродостојни информации за емоционалните состојби на луѓето преку анализа на микроекспресии, заедно со други знаци како тонот на гласот и говорот на телото. Институтот AI Now забележува дека технологијата се користи во широк опсег на апликации, како што се одредување кој да се вработи, одредување на цените за осигурување и следење дали учениците внимаваат на часовите.

Проф. Кејт Крафорд, ко-основач на AI Now објасни дека често се верува дека човечките емоции може точно да се предвидат со релативно едноставни модели. Крафорд рече дека некои фирми го засноваат развојот на нивниот софтвер на работата на Пол Екман, психолог кој претпоставува дека има само шест основни типови на емоции кои се регистрираат на лицето. Сепак, Крафорд забележува дека откако е воведена теоријата на Екман, студиите откриле дека е многу поголема варијабилност во изразите на лицето и дека изразите може многу лесно да се менуваат низ ситуации и култури.

„Истовремено додека се шират овие технологии, голем број студии покажуваат дека нема... нема суштински докази дека луѓето ја имаат оваа конзистентна врска помеѓу емоциите што ги чувствувате и начинот на кој изгледа вашето лице. изјави Крафорд за Би-Би-Си.

Поради оваа причина, институтот AI Now тврди дека голем дел од препознавањето на афектот се заснова на неверодостојни теории и сомнителна наука. Оттука, системите за откривање емоции не треба да се применуваат додека не се направат повеќе истражувања и дека „владите треба конкретно да ја забранат употребата на препознавање влијание во процесите на донесување одлуки со високи влогови“. AI Now тврдеше дека особено треба да престанеме да ја користиме технологијата во „чувствителни социјални и политички контексти“, контексти кои вклучуваат вработување, образование и полиција.

Најмалку една компанија за развој на вештачка интелигенција специјализирана за препознавање влијание, Emteq, се согласи дека треба да има регулатива што спречува злоупотреба на технологијата. Основачот на Emteq, Чарлс Ндука, објасни за Би-Би-Си дека иако системите со вештачка интелигенција можат точно да препознаат различни изрази на лицето, не постои едноставна мапа од израз до емоција. Ндука изрази загриженост поради тоа што регулативата е преземена предалеку и го задушува истражувањето, истакнувајќи дека ако „работите ќе бидат забранети, многу е важно луѓето да не го исфрлаат бебето со водата за капење“.

Како што пренесува NextWeb, AI Now препорача и голем број други политики и норми кои треба да ја водат индустријата за вештачка интелигенција да напредува.

AI Now ја истакна потребата индустријата за вештачка интелигенција да ги направи работните места поразновидни и изјави дека на работниците треба да им се гарантира правото да ја изразат својата загриженост за инвазивна и експлоататорска ВИ. Техничките работници исто така треба да имаат право да знаат дали нивните напори се користат за изградба на штетна или неетичка работа.

AI Now исто така предложи законодавците да преземат чекори за да бараат информирана согласност за употреба на какви било податоци добиени од вештачка интелигенција поврзана со здравјето. Надвор од ова, беше советувано приватноста на податоците да се сфати посериозно и дека државите треба да работат на дизајнирање закони за приватност за биометриските податоци што ги опфаќаат и приватните и јавните субјекти.

Конечно, институтот советуваше индустријата за вештачка интелигенција да почне да размислува и да дејствува поглобално, обидувајќи се да одговори на поголемите политички, општествени и еколошки последици од вештачката интелигенција. Беше препорачано да има значителен напор да се земе предвид влијанието на ВИ во однос на географското поместување и климата и дека владите треба јавно да го направат јавно достапно влијанието на индустријата за вештачка интелигенција врз климата.