Umělá inteligence
AI Now Institute varuje před zneužíváním softwaru pro detekci emocí a dalších etických problémů

AI Now Institute vydal zprávu, ve které vyzývá zákonodárce a další regulační orgány, aby stanovily tvrdé limity pro používání technologie detekce emocí, a zakázali ji v případech, kdy by mohla být použita k přijímání důležitých rozhodnutí, jako je přijímání zaměstnanců nebo studentů. Kromě toho zpráva obsahuje řadu dalších návrhů týkajících se různých témat v oblasti AI.
AI Now Institute je výzkumný ústav se sídlem v NYU, jehož cílem je studovat dopad AI na společnost. AI Now vydává každoroční zprávu, ve které prezentuje své výsledky týkající se stavu výzkumu AI a etických dopadů současného používání AI. Jak uvedla BBC, letošní zpráva se zabývala tématy, jako je algoritmická diskriminace, nedostatek rozmanitosti ve výzkumu AI a problémy s prací.
Rozpoznávání emocí, technický termín pro algoritmy detekce emocí, je rychle rostoucí oblastí výzkumu AI. Ti, kdo používají tuto technologii k přijímání rozhodnutí, často tvrdí, že systémy mohou získat spolehlivé informace o emocionálním stavu lidí analýzou mikroexprimací a dalších signálů, jako je tón hlasu a neverbální komunikace. AI Now Institute uvádí, že tato technologie je používána v širokém spektru aplikací, jako je určení, koho přijmout, stanovení cen pojištění a monitorování, zda studenti ve třídě pozorně naslouchají.
Prof. Kate Crawford, spoluzakladatelka AI Now, vysvětlila, že se často předpokládá, že lidské emoce lze přesně předpovědět pomocí relativně jednoduchých modelů. Crawford uvedla, že některé firmy vyvíjejí své softwarové produkty na základě práce Paula Ekmana, psychologa, který předpokládal, že existují pouze šest základních typů emocí, které se projeví na obličeji. Crawford nicméně poukazuje na to, že od Ekmanova teoretického modelu bylo zjištěno, že existuje mnohem větší variabilita ve faciálních exprimacích a že exprimace se mohou měnit v závislosti na situaci a kultuře.
“Ve stejnou dobu, kdy jsou tyto technologie zaváděny, ukazuje velké množství studií, že neexistuje… žádný podstatný důkaz o tom, že lidé mají konzistentní vztah mezi emocí, kterou prožívají, a tím, jak vypadá jejich obličej,” řekla Crawford BBC.
Z tohoto důvodu argumentuje AI Now Institute, že většina rozpoznávání emocí je založena na nespolehlivých teoriích a pochybné vědě. Proto by systémy detekce emocí neměly být nasazeny, dokud nebude proveden další výzkum, a že “vlády by měly speciálně zakázat používání rozpoznávání emocí v rozhodování s vysokými závažnostmi”. AI Now argumentuje, že bychom měli zejména přestat používat tuto technologii v “citlivých sociálních a politických kontextech”, kontextech, které zahrnují zaměstnání, vzdělávání a policejní činnost.
Alespoň jedna firma specializující se na vývoj AI pro rozpoznávání emocí, Emteq, souhlasí s tím, že by měla existovat regulace, která zabrání zneužití této technologie. Zakladatel Emteq, Charles Nduka, vysvětlil BBC, že zatímco AI systémy mohou přesně rozpoznat různé faciální exprimace, neexistuje jednoduchá mapa z exprimace na emoci. Nduka nicméně vyjádřil obavy, že regulace by mohla být příliš přísná a brzdit výzkum, přičemž poznamenal, že “pokud budou věci zakázány, je velmi důležité, aby lidé nevyhazovali dítě s vaničkou”.
Jak uvádí NextWeb, AI Now také doporučila řadu dalších politik a norem, které by měly vést odvětví AI vpřed.
AI Now zdůraznila potřebu, aby odvětví AI vytvořilo více rozmanitých pracovišť a aby pracovníci měli zajištěno právo vyjádřit své obavy týkající se invazivních a exploitačních AI. Pracovníci v technologiích by také měli mít právo vědět, zda jejich úsilí je použito k vytváření škodlivých nebo neetických prací.
AI Now také navrhla, aby zákonodárci přijali kroky k zajištění informovaného souhlasu pro používání jakýchkoli dat odvozených z AI souvisejících se zdravím. Kromě toho bylo doporučeno, aby byla vážněji brána ochrana soukromí a aby státy pracovaly na navrhování zákonů o ochraně soukromí pro biometrická data, která by pokrývala jak soukromé, tak veřejné subjekty.
Nakonec institut doporučil, aby odvětví AI začalo uvažovat a jednat více globálně, snažící se řešit větší politické, společenské a ekologické důsledky AI. Bylo doporučeno, aby byla věnována podstatná snaha o zohlednění dopadu AI na geografické přemístění a klima, a aby vlády činily dopad odvětví AI na klima veřejně dostupným.












