Connect with us

Umělá inteligence

Datové monokultury v AI: hrozby pro rozmanitost a inovace

mm

AI mění svět, od transformace zdravotní péče po reformu vzdělávání. Řeší dlouholeté problémy a otevírá možnosti, o kterých jsme nikdy neuvažovali. Data jsou v centru této revoluce – palivo, které pohání každý model AI. To umožňuje těmto systémům dělat předpovědi, najít vzory a dodávat řešení, která ovlivňují náš každodenní život.

Ale zatímco tento nadbytek dat pohání inovace, dominanci uniformních datových sad – často označovaných jako datové monokultury – představuje významná rizika pro rozmanitost a kreativitu ve vývoji AI. To je podobné jako zemědělská monokultura, kde zasazení stejné plodiny na velké plochy činí ekosystém křehkým a zranitelným vůči škůdcům a nemocem. V AI vytváří závislost na uniformních datových sadách rigidní, zkreslené a často nespolehlivé modely.

Tento článek se ponoří do pojmu datových monokultur, zkoumající, co to jsou, proč přetrvávají, jaká rizika přinášejí a jaká opatření můžeme učinit, abychom vytvořili AI systémy, které jsou chytřejší, spravedlivější a více inkluzivní.

Pochopení datových monokultur

Datová monokultura nastává, když jedna datová sada nebo úzká skupina zdrojů dat dominuje školení AI systémů. Rozpoznávání obličeje je dobře zdokumentovaným příkladem datové monokultury v AI. Studie z MIT Media Lab zjistily, že modely školené především na obrázcích lidí se světlejší pletí měly problémy s tmavšími pletí. Chybovost pro tmavší ženy dosáhla 34,7 %, ve srovnání s 0,8 % pro světlejší muže. Tyto výsledky zdůrazňují dopad školicích dat, která neobsahovala dostatečnou rozmanitost odstínů pleti.

Podobné problémy vznikají v jiných oblastech. Například velké jazykové modely (LLM) jako OpenAI GPT a Google Bard jsou školeny na datových sadách, které silně závisí na anglickém obsahu převážně ze západních kontextů. Tato absence rozmanitosti je činí méně přesnými při porozumění jazykovým a kulturním nuancím z jiných částí světa. Země jako Indie vyvíjí LLM, které lépe odrážejí místní jazyky a kulturní hodnoty.

Tento problém může být kritický, zejména v oblastech, jako je zdravotní péče. Například diagnostický nástroj pro zdravotní péči školený především na datech z evropské populace může fungovat špatně v regionech s odlišnými genetickými a environmentálními faktory.

Odkud pocházejí datové monokultury

Datové monokultury v AI vznikají z různých důvodů. Populární datové sady jako ImageNet a COCO jsou obrovské, snadno dostupné a široce používané. Ale často odrážejí úzký, západní centrický pohled. Sběr rozmanitých dat není levný, takže mnoho menších organizací spoléhá na tyto existující datové sady. Tato závislost posiluje nedostatek rozmanitosti.

Standardizace je také klíčovým faktorem. Výzkumníci často používají široce uznávané datové sady pro srovnání svých výsledků, neúmyslně odrazují od prozkoumání alternativních zdrojů. Tento trend vytváří zpětnou smyčku, kde všichni optimalizují stejné benchmarky místo řešení reálných problémů.

Někdy tyto problémy vznikají kvůli nedbalosti. Tvůrci datových sad mohou neúmyslně vynechat určité skupiny, jazyky nebo regiony. Například rané verze hlasových asistentů jako Siri nezvládaly dobře nezápadní akcenty. Důvodem bylo, že vývojáři nezahrnuli dostatečná data z těchto regionů. Tyto nedbalosti vytvářejí nástroje, které nesplňují potřeby globálního publika.

Proč to matters

Když AI přebírá více prominentní role v rozhodování, datové monokultury mohou mít reálné důsledky. Modely AI mohou posilovat diskriminaci, když zdědí zkreslení ze svých školicích dat. Hiring algoritmus školený na datech z mužsky dominantních odvětví může neúmyslně upřednostňovat mužské kandidáty, vylučující kvalifikované ženy z úvahy.

Kulturní reprezentace je další výzvou. Systémy doporučení jako Netflix a Spotify často upřednostňovaly západní preference, marginalizují obsah z jiných kultur. Tato diskriminace omezuje uživatelskou zkušenost a brzdí inovace, udržujíce nápady úzké a opakující se.

Systémy AI mohou také být křehké, když jsou školeny na omezených datech. Během pandemie COVID-19 selhaly modely zdravotní péče školené na datech před pandemií selhaly při adaptaci na složitosti globální zdravotní krize. Tato rigidita může učinit systémy AI méně užitečnými, když čelí neočekávaným situacím.

Datová monokultura může vést k etickým a právním problémům. Společnosti jako Twitter a Apple čelily veřejnému odporu za zkreslené algoritmy. Twitterův nástroj pro ořezávání obrázků byl obviněn z rasového zkreslení, zatímco Apple Cardův algoritmus pro úvěr údajně nabízel nižší limity ženám. Tyto kontroverze poškozují důvěru v produkty a vyvolávají otázky o zodpovědnosti ve vývoji AI.

Jak opravit datové monokultury

Řešení problému datových monokultur vyžaduje rozšíření rozsahu dat používaných pro školení AI systémů. Tato úloha vyžaduje vývoj nástrojů a technologií, které usnadňují sběr dat z rozmanitých zdrojů. Projekty jako Mozilla Common Voice shromažďují hlasové vzorky z celého světa, vytvářející bohatší datovou sadu s různými akcenty a jazyky – podobně, iniciativy jako UNESCO Data for AI se zaměřují na zahrnutí nedostatečně zastupovaných komunit.

Stanovení etických směrnic je dalším kritickým krokem. Rámcové směrnice jako Toronto Declaration propagují transparentnost a inkluzivitu, aby zajistily, že systémy AI jsou spravedlivé od samého počátku. Silná data governance politika inspirovaná GDPR regulacemi může také učinit velký rozdíl. Tyto politiky vyžadují jasnou dokumentaci zdrojů dat a drží organizace zodpovědné za zajištění rozmanitosti.

Otevřené platformy mohou také učinit rozdíl. Například hugging Face Datasets Repository umožňuje výzkumníkům přístup a sdílení rozmanitých dat. Tento spolupracující model propaguje ekosystém AI, snižuje závislost na úzkých datových sadách. Transparentnost také hraje významnou roli. Používání explainable AI systémů a implementace pravidelných kontrol může pomoci identifikovat a opravit zkreslení. Toto vysvětlení je nezbytné pro udržení modelů spravedlivých a adaptabilních.

Stavba rozmanitých týmů může být nejvíce dopadajícím a nej直接nějším krokem. Týmy s různorodými pozadími jsou lépe vybaveny pro identifikaci slepých míst v datech a návrh systémů, které fungují pro širší řadu uživatelů. Inkluzivní týmy vedou k lepšímu výsledku, dělají AI chytřejším a spravedlivějším.

Podstatné

AI má neuvěřitelný potenciál, ale jeho účinnost závisí na kvalitě dat. Datové monokultury omezují tento potenciál, produkují zkreslené, inflexibilní systémy, které nejsou spojeny s reálnými potřebami. Abychom překonali tyto výzvy, vývojáři, vlády a komunity musí spolupracovat, aby diversifikovaly datové sady, implementovaly etické postupy a podporovaly inkluzivní týmy.
Práce na těchto problémech přímo můžeme vytvořit inteligentnější a spravedlivější AI, odrážející rozmanitost světa, který má sloužit.

Dr. Tehseen Zia je docent s trvalým úvazkem na COMSATS University Islamabad, držitel titulu PhD v oblasti AI z Vienna University of Technology, Rakousko. Specializuje se na umělou inteligenci, strojové učení, datové vědy a počítačové vidění, a významně přispěl publikacemi v renomovaných vědeckých časopisech. Dr. Tehseen také vedl různé průmyslové projekty jako hlavní výzkumník a působil jako konzultant pro umělou inteligenci.