peň Inštitút AI teraz varuje pred zneužitím softvéru na detekciu emócií a inými etickými problémami - Unite.AI
Spojte sa s nami

Etika

Inštitút AI Now varuje pred zneužitím softvéru na detekciu emócií a inými etickými problémami

mm
Aktualizované on

Inštitút AI Now vydal správu, ktorá nalieha na zákonodarcov a ďalšie regulačné orgány, aby stanovili prísne limity na používanie technológie na detekciu emócií a zakázali ju v prípadoch, keď sa môžu použiť na prijímanie dôležitých rozhodnutí, ako je nábor zamestnancov alebo prijatie študentov. Okrem toho správa obsahovala množstvo ďalších návrhov týkajúcich sa rôznych tém v oblasti AI.

Inštitút AI Now je výskumný ústav so sídlom na NYU, ktorého poslaním je študovať vplyv AI na spoločnosť. AI Now vydáva ročnú správu, v ktorej demonštruje svoje zistenia týkajúce sa stavu výskumu AI a etických dôsledkov toho, ako sa AI v súčasnosti používa. Ako informovala BBCTohtoročná správa sa zaoberala témami ako algoritmická diskriminácia, nedostatok rozmanitosti vo výskume AI a pracovné problémy.

Rozpoznávanie vplyvu, technický termín pre algoritmy detekcie emócií, je rýchlo rastúcou oblasťou výskumu AI. Tí, ktorí využívajú technológiu na prijímanie rozhodnutí, často tvrdia, že systémy dokážu získať spoľahlivé informácie o emocionálnych stavoch ľudí analýzou mikrovýrazov spolu s ďalšími podnetmi, ako je tón hlasu a reč tela. Inštitút AI Now poznamenáva, že táto technológia sa používa v širokom spektre aplikácií, ako je určovanie toho, koho najať, stanovovanie cien poistenia a monitorovanie, či študenti venujú pozornosť v triede.

Profesorka Kate Crawford, spoluzakladateľka AI Now vysvetlila, že sa často verí, že ľudské emócie možno presne predpovedať pomocou relatívne jednoduchých modelov. Crawford povedal, že niektoré firmy zakladajú vývoj svojho softvéru na práci Paula Ekmana, psychológa, ktorý vyslovil hypotézu, že na tvári je len šesť základných typov emócií. Crawford však poznamenáva, že od zavedenia Ekmanovej teórie štúdie zistili, že je oveľa väčšia variabilita výrazov tváre a že výrazy sa môžu v rôznych situáciách a kultúrach veľmi ľahko meniť.

"V rovnakom čase, ako sa tieto technológie zavádzajú, veľké množstvo štúdií ukazuje, že neexistuje... žiadny podstatný dôkaz o tom, že ľudia majú konzistentný vzťah medzi emóciami, ktoré cítite, a tým, ako vyzerá vaša tvár." povedal Crawford pre BBC.

Z tohto dôvodu inštitút AI Now tvrdí, že veľká časť rozpoznávania afektov je založená na nespoľahlivých teóriách a pochybnej vede. Preto by sa systémy detekcie emócií nemali nasadzovať, kým sa neuskutoční ďalší výskum a že „vlády by mali špecificky zakázať používanie rozpoznávania afektov v rozhodovacích procesoch s vysokými stávkami“. AI Now tvrdila, že by sme mali prestať používať túto technológiu najmä v „citlivých sociálnych a politických kontextoch“, v kontextoch, ktoré zahŕňajú zamestnanie, vzdelávanie a políciu.

Aspoň jedna spoločnosť zaoberajúca sa vývojom AI, ktorá sa špecializuje na rozpoznávanie vplyvov, Emteq, súhlasila s tým, že by mala existovať regulácia, ktorá zabráni zneužitiu technológie. Zakladateľ Emteq Charles Nduka pre BBC vysvetlil, že zatiaľ čo systémy AI dokážu presne rozpoznať rôzne výrazy tváre, neexistuje jednoduchá mapa od výrazu k emóciám. Nduka vyjadril obavy z toho, že regulácia zašla príliš ďaleko a dusila výskum, pričom poznamenala, že ak „budú veci zakázané, je veľmi dôležité, aby ľudia nevyhadzovali spolu s vodou aj dieťa“.

Ako informuje NextWebSpoločnosť AI Now tiež odporučila niekoľko ďalších politík a noriem, ktoré by mali viesť odvetvie AI vpred.

AI Now zdôraznila, že je potrebné, aby priemysel AI urobil pracoviská rozmanitejšími, a uviedol, že pracovníkom by malo byť zaručené právo vyjadriť svoje obavy z invazívnej a vykorisťujúcej AI. Technickí pracovníci by tiež mali mať právo vedieť, či sa ich úsilie využíva na vytváranie škodlivej alebo neetickej práce.

AI Now tiež navrhol, aby zákonodarcovia podnikli kroky na vyžiadanie informovaného súhlasu s použitím akýchkoľvek údajov odvodených od AI súvisiacej so zdravím. Okrem toho sa odporúčalo, aby sa ochrana údajov brala vážnejšie a že štáty by mali pracovať na návrhu zákonov o ochrane osobných údajov pre biometrické údaje, ktoré by sa vzťahovali na súkromné ​​aj verejné subjekty.

Nakoniec inštitút odporučil, aby priemysel AI začal myslieť a konať globálnejšie a snažil sa riešiť väčšie politické, spoločenské a ekologické dôsledky AI. Odporúčalo sa, aby sa vynaložilo značné úsilie na zohľadnenie vplyvu AI v súvislosti s geografickým vysídlením a klímou a aby vlády sprístupnili verejnosti vplyv odvetvia umelej inteligencie na klímu.