Spojte se s námi

Etika

Etické úvahy při vývoji umělé inteligence pro rozpoznávání emocí

mm

Umělá inteligence pro regulaci emocí je jedním z nejnovějších technologických pokroků v oblasti strojového učení. Přestože vykazuje velký potenciál, etické problémy mohou ovlivnit míru jeho přijetí a životnost. Dokážou je vývojáři AI překonat? 

Co je AI pro rozpoznávání emocí? 

Umělá inteligence rozpoznávání emocí je typ modelu strojového učení. Často se spoléhá na technologii počítačového vidění, která zachycuje a analyzuje výrazy obličeje k dešifrování nálad na obrázcích a videích. Může však také pracovat se zvukovými úryvky pro určení tónu hlasu nebo psaného textu, aby bylo možné vyhodnotit sentiment jazyka.

Tento druh algoritmu představuje fascinující pokrok v oblasti umělé inteligence, protože modely dosud nebyly schopny porozumět lidským pocitům. Zatímco velké jazykové modely, jako je ChatGPT, dokážou přesvědčivě simulovat nálady a persony, dokážou slova skládat dohromady pouze logicky – nemohou nic cítit a nevykazují emoční inteligenci. Zatímco model rozpoznávání emocí není schopen mít pocity, stále je dokáže detekovat a katalogizovat. Tento vývoj je významný, protože signalizuje, že AI bude brzy schopna skutečně porozumět a projevit štěstí, smutek nebo hněv. Takové technologické skoky naznačují zrychlený pokrok.

Případy použití pro rozpoznávání emocí AI

Firmy, pedagogové, konzultanti a odborníci na duševní zdraví jsou některé ze skupin, které mohou používat umělou inteligenci k rozpoznávání emocí.

Posouzení rizik v kanceláři

Týmy lidských zdrojů mohou používat algoritmy k provádění analýzy sentimentu při e-mailové korespondenci nebo chatech v aplikaci mezi členy týmu. Alternativně mohou integrovat svůj algoritmus do svého systému sledování nebo počítačového vidění. Uživatelé mohou sledovat náladu a vypočítat metriky, jako je riziko fluktuace, míra vyhoření a spokojenost zaměstnanců.

Asistence agentům zákaznických služeb

Maloobchodníci mohou k řešení vysoce stresových situací využít interních agentů zákaznických služeb AI pro koncové uživatele nebo virtuálních asistentů. Protože jejich model dokáže rozpoznat náladu, může navrhnout techniky deeskalace nebo změnit svůj tón, když si uvědomí, že se spotřebitel rozčiluje. Protiopatření, jako jsou tato, mohou zlepšit spokojenost a udržení zákazníků. 

Pomáháme studentům ve třídě

Pedagogové mohou tuto umělou inteligenci využít k tomu, aby vzdálení studenti nezaostávali. Jeden startup již použil svůj nástroj k měření svalových bodů na tvářích studentů při katalogizaci jejich rychlosti a známek. Tato metoda určuje jejich náladu, motivaci, silné a slabé stránky. Zakladatel startupu tvrdí, že mají o 10 % vyšší skóre na testech při používání softwaru.

Provádění interního průzkumu trhu 

Podniky mohou provádět vlastní průzkum trhu pomocí modelu rozpoznávání emocí. Může jim pomoci přesně porozumět tomu, jak jejich cílové publikum reaguje na jejich produkt, službu nebo marketingový materiál, a poskytnout jim cenné informace založené na datech. V důsledku toho mohou urychlit dobu uvedení na trh a zvýšit své příjmy. 

Problém s používáním AI k detekci emocí

Výzkum naznačuje, že přesnost je vysoce závislá na informacích o tréninku. Jedna výzkumná skupina – pokoušející se dešifrovat pocity z obrázků – tento koncept neoficiálně prokázala při svém modelu dosáhl přesnosti 92.05 %. na japonském datovém souboru Female Facial Expression a 98.13% přesnost na datovém souboru Extended Cohn-Kanade.

I když se rozdíl mezi 92 % a 98 % může zdát nevýznamný, záleží na tom – tento nepatrný rozdíl může mít podstatné důsledky. Pro informaci míra otravy datové sady tak nízké jako 0.001% se ukázal jako účinný při vytváření modelových zadních vrátek nebo při záměrném způsobování nesprávné klasifikace. I zlomek procenta je významný.

Navíc, ačkoli se studie zdají slibné – přesnost nad 90 % ukazuje potenciál – výzkumníci je provádějí v kontrolovaném prostředí. Ve skutečném světě jsou rozmazané obrázky, falešné výrazy obličeje, špatné úhly pohledu a jemné pocity mnohem běžnější. Jinými slovy, umělá inteligence nemusí být schopna fungovat konzistentně.

Současný stav rozpoznávání emocí AI

Algoritmická analýza sentimentu je proces, při kterém se pomocí algoritmu určuje, zda je tón textu pozitivní, neutrální nebo negativní. Tato technologie je pravděpodobně základem pro moderní modely detekce emocí, protože připravila cestu pro algoritmické vyhodnocování nálady. Podobné technologie, jako je software pro rozpoznávání obličeje, také přispěly k pokroku. 

Dnešní algoritmy dokážou s různou přesností detekovat primárně pouze jednoduché nálady, jako je štěstí, smutek, hněv, strach a překvapení. Tyto výrazy obličeje jsou vrozené a univerzální – což znamená, že jsou přirozené a globálně srozumitelné – takže trénovat AI, aby je identifikovala, je relativně jednoduché. 

Základní výrazy obličeje jsou navíc často přehnané. Lidé svraští obočí, když jsou naštvaní, mračí se, když jsou smutní, usmívají se, když jsou šťastní, a rozšiřují oči, když jsou šokováni. Tyto zjednodušené, dramatické vzhledy lze snadno odlišit. Složitější emoce je obtížnější určit, protože jsou buď jemné, nebo kombinují základní obličeje.

Vzhledem k tomu, že tato podmnožina umělé inteligence zůstává z velké části ve výzkumu a vývoji, nepokročila v pokrytí komplexních pocitů, jako je touha, stud, smutek, žárlivost, úleva nebo zmatek. I když pravděpodobně nakonec pokryje více, neexistuje žádná záruka, že je bude moci interpretovat všechny.

Ve skutečnosti nemusí být algoritmy nikdy schopny konkurovat lidem. Pro informaci, zatímco OpenAI's GPT-4 dataset je zhruba 1 petabajt, jediný krychlový milimetr lidského mozku obsahuje asi 1.4 petabajtu dat. Neurovědci nemohou plně pochopit, jak mozek vnímá emoce navzdory desetiletím výzkumu, takže vytvoření vysoce přesné umělé inteligence může být nemožné.

Zatímco použití této technologie pro rozpoznávání emocí má precedens, tato oblast je technicky stále v plenkách. Existuje mnoho výzkumů tohoto konceptu, ale existuje jen málo reálných příkladů nasazení ve velkém měřítku. Některé známky naznačují, že opožděné přijetí může být způsobeno obavami z nekonzistentní přesnosti a etických problémů.

Etická hlediska pro vývojáře AI

Podle jednoho průzkumu Souhlasí 67 % dotázaných AI by měla být poněkud nebo mnohem více regulována. Aby se mysl lidí uklidnila, vývojáři by měli minimalizovat zaujatost, zajistit, aby se jejich modely chovaly podle očekávání a zlepšit výsledky. Tato řešení jsou možná, pokud při vývoji upřednostňují etické aspekty.

1. Konsensuální sběr a využití dat 

Souhlas je všechno ve věku, kdy se zvyšuje regulace AI. Co se stane, když zaměstnanci zjistí, že jejich výrazy obličeje jsou katalogizovány bez jejich vědomí? Musí rodiče podepsat analýzu sentimentu založenou na vzdělávání, nebo se mohou studenti rozhodnout sami?

Vývojáři by měli výslovně zveřejnit, jaké informace bude model shromažďovat, kdy bude v provozu, k čemu bude analýza použita a kdo má k těmto podrobnostem přístup. Kromě toho by měly obsahovat funkce odhlášení, aby si jednotlivci mohli přizpůsobit oprávnění. 

2. Anonymizovaný výstup analýzy sentimentu 

Anonymizace dat je stejně tak problémem ochrany soukromí, jako bezpečnostním problémem. Vývojáři by měli anonymizovat informace o emocích, které shromažďují, aby chránili zúčastněné osoby. Přinejmenším by měli silně zvážit využití klidového šifrování. 

3. Human-in-the-Loop Rozhodování

Jediným důvodem, proč používat umělou inteligenci k určení něčího emocionálního stavu, je informování při rozhodování. Jako takový, ať už se používá v oblasti duševního zdraví nebo v maloobchodním prostředí, bude mít dopad na lidi. Vývojáři by měli využít zabezpečení typu „člověk ve smyčce“, aby minimalizovali neočekávané chování. 

4. Zpětná vazba zaměřená na člověka pro výstup AI

I když má algoritmus téměř 100% přesnost, stále bude produkovat falešně pozitivní výsledky. Vzhledem k tomu, že není neobvyklé, že modely dosahují 50 % nebo 70 % – a to bez dotýkání se problémů zkreslení nebo halucinací – by vývojáři měli zvážit implementaci systému zpětné vazby. 

Lidé by měli být schopni zkontrolovat, co umělá inteligence říká o jejich emocionálním stavu, a apelovat, pokud se domnívají, že to není pravda. I když by takový systém vyžadoval ochranné zábradlí a opatření k odpovědnosti, minimalizoval by nepříznivé dopady plynoucí z nepřesných výstupů. 

Důsledky ignorování etiky

Etické ohledy by měly být prioritou pro inženýry umělé inteligence, vývojáře strojového učení a majitele firem, protože je ovlivňují. Vzhledem k tomu, že ve hře je stále nejistější veřejné mínění a zpřísňující se předpisy, mohou být důsledky ignorování etiky významné.