Myšlenkové vůdce
Odhalení předsudků v umělé inteligenci: Výzvy a řešení

Nedávný pokrok generativní AI zaznamenala doprovodný boom podnikových aplikací napříč průmyslovými odvětvími, včetně financí, zdravotnictví a dopravy. Vývoj této technologie povede také k dalším vznikajícím technologiím, jako jsou technologie kybernetické bezpečnosti, pokroky v oblasti kvantových počítačů a průlomové techniky bezdrátové komunikace. Tato exploze technologií nové generace však přichází s vlastní řadou výzev.
Například přijetí umělé inteligence může umožnit sofistikovanější kybernetické útoky, problémová místa v paměti a úložišti kvůli nárůstu výpočetního výkonu a etických obav z předsudků prezentovaných modely umělé inteligence. Dobrou zprávou je, že NTT Research navrhl způsob, jak překonat zaujatost v hlubokých neuronových sítích (DNN), což je typ umělé inteligence.
Tento výzkum představuje významný průlom, jelikož nezaujaté modely umělé inteligence přispějí k náboru zaměstnanců, systému trestního soudnictví a zdravotní péči, pokud nebudou ovlivněny charakteristikami, jako je rasa nebo pohlaví. V budoucnu má potenciál eliminovat diskriminaci používáním těchto automatizovaných systémů, a tím zlepšit obchodní iniciativy DE&I v celém odvětví. V neposlední řadě modely umělé inteligence s nezaujatými výsledky zlepší produktivitu a zkrátí dobu potřebnou k dokončení těchto úkolů. Jen málo podniků však bylo kvůli zaujatým řešením této technologie nuceno zastavit své programy generované umělou inteligencí.
Například, Amazon přestala používat náborový algoritmus, když zjistila, že algoritmus vykazuje preferenci pro uchazeče, kteří častěji používali slova jako „popraven“ nebo „zajat“, která se vyskytovala častěji v životopisech mužů. Dalším do očí bijícím příkladem zkreslení je Joy Buolamwini, jedna z nejvlivnějších osob v oblasti umělé inteligence v roce 2023 podle TIME, ve spolupráci s Timnit Gebru na MIT, odhalili, že technologie analýzy obličeje prokázaly vyšší chybovost při posuzování menšin, zejména menšinových žen, potenciálně kvůli nedostatečně reprezentativním tréninkovým datům.
V poslední době se DNN staly všudypřítomnými ve vědě, strojírenství a podnikání a dokonce i v populárních aplikacích, ale někdy se spoléhají na falešné atributy, které mohou vyjadřovat zkreslení. Podle an studie MIT během několika posledních let vědci vyvinuli hluboké neuronové sítě schopné analyzovat obrovské množství vstupů, včetně zvuků a obrázků. Tyto sítě mohou identifikovat sdílené charakteristiky, což jim umožňuje klasifikovat cílová slova nebo objekty. Od této chvíle stojí tyto modely v popředí oboru jako primární modely pro replikaci biologických smyslových systémů.
NTT Research Senior Scientist and Associate na Harvard University Center for Brain Science Hidenori Tanaka a další tři vědci navrhli překonat omezení naivního jemného ladění, status quo metody snižování chyb nebo „ztrát DNN“ pomocí nového algoritmu, který snižuje spoléhání modelky na vlastnosti náchylné k zkreslení.
Studovali krajiny ztrát neuronových sítí přes čočku konektivity režimu, pozorování, že minimalizátory neuronových sítí získané pomocí tréninku na datové sadě jsou propojeny jednoduchými cestami s nízkou ztrátou. Konkrétně položili následující otázku: jsou minimalizátory, které se spoléhají na různé mechanismy pro vytváření svých předpovědí, propojeny jednoduchými cestami s nízkou ztrátou?
Zjistili, že naivní jemné ladění není schopno zásadně změnit rozhodovací mechanismus modelu, protože vyžaduje přesun do jiného údolí v krajině ztrát. Místo toho musíte model projet přes bariéry oddělující „propady“ nebo „údolí“ s nízkou ztrátou. Autoři tento opravný algoritmus nazývají Connectivity-Based Fine-Tuning (CBFT).
Před tímto vývojem používala DNN, která klasifikuje obrázky jako ryby (ilustrace použitá v této studii), jako vstupní parametry pro predikci tvar objektu i pozadí. Jeho cesty minimalizující ztráty by proto fungovaly v mechanicky odlišných režimech: jeden by se spoléhal na legitimní atribut tvaru a druhý na falešný atribut barvy pozadí. Jako takové by tyto režimy postrádaly lineární konektivitu nebo jednoduchou cestu s nízkou ztrátou.
Výzkumný tým chápe mechanickou konektivitu čočky v režimu zohlednění dvou sad parametrů, které minimalizují ztráty pomocí pozadí a tvarů objektů jako vstupních atributů pro predikci. A pak si položili otázku, jsou takové mechanicky nepodobné minimalizátory propojeny cestami s nízkou ztrátou v krajině? Ovlivňuje odlišnost těchto mechanismů jednoduchost jejich propojovacích cest? Můžeme tuto konektivitu využít k přepínání mezi minimalizátory, které využívají námi požadované mechanismy?
Jinými slovy, hluboké neuronové sítě se v závislosti na tom, co zachytily během trénování na konkrétní datové sadě, mohou chovat velmi odlišně při testování na jiné datové sadě. Návrh týmu se zredukoval na koncept sdílených podobností. Staví na předchozí myšlence propojení módů, ale s jedním zvratem – zohledňuje, jak fungují podobné mechanismy. Jejich výzkum vedl k následujícím převratným objevům:
- minimalizátory, které mají různé mechanismy, mohou být zapojeny poměrně složitým, nelineárním způsobem
- Když jsou dva minimalizátory lineárně propojeny, je to úzce spjato s tím, jak podobné jsou si jejich modely z hlediska mechanismů.
- jednoduché jemné doladění nemusí stačit k tomu, abyste se zbavili nechtěných funkcí, které se objevily během dřívějšího školení
- Pokud v krajině najdete oblasti, které jsou lineárně nepropojené, můžete efektivně změnit vnitřní fungování modelu.
I když je tento výzkum významným krokem k využití plného potenciálu umělé inteligence, etické obavy spojené s umělou inteligencí mohou stále představovat vzestupnou bitvu. Technologové a výzkumníci pracují na boji proti dalším etickým slabinám v AI a dalších velkých jazykových modelech, jako je soukromí, autonomie, odpovědnost.
Umělá inteligence může být použita ke shromažďování a zpracování obrovského množství osobních údajů. Neoprávněné nebo neetické použití těchto údajů může ohrozit soukromí jednotlivců, což vede k obavám ze sledování, úniků dat a krádeže identity. Umělá inteligence může také představovat hrozbu, pokud jde o odpovědnost za autonomní aplikace, jako jsou samořídící vozidla. V nadcházejících letech bude zásadní stanovit právní rámce a etické standardy pro odpovědnost a ručení.
Závěrem lze říci, že rychlý růst generativních technologií AI je příslibem pro různá průmyslová odvětví, od financí a zdravotnictví až po dopravu. Navzdory tomuto slibnému vývoji zůstávají etické obavy kolem AI značné. Jak procházíme touto transformační érou AI, je životně důležité, aby technologové, výzkumníci a tvůrci politik spolupracovali na vytvoření právních rámců a etických standardů, které zajistí odpovědné a přínosné používání technologie AI v nadcházejících letech. Vědci z NTT Research a University of Michigan jsou o krok napřed se svým návrhem algoritmu, který by mohl potenciálně eliminovat předsudky v AI.