Umělá inteligence
Vědci začínají cvičit umělou inteligenci, aby bojovala proti hate speech online

Falešné zprávy a hate speech online se stávají nejen denním, ale i minutovým problémem online. IkigaiLab uvádí, že Facebook a Twitter musely nedávno uzavřít více než 1,5 miliardy a 70 milionů účtů, aby se alespoň pokusily omezit šíření falešných zpráv a hate speech po celém světě.
Přesto vyžaduje tato úloha v současné době enormní lidskou sílu a téměř neustálou pracovní dobu, aby se alespoň dotkla špičky ledovce hate speech. Aby se tento problém vyřešil, výzkumníci v mnoha laboratořích začínají cvičit umělou inteligenci (AI), aby jim s touto obrovskou úkolu pomohla.
Ikigai cituje Rosetta systém, který Facebook používá k ověření autenticity zpráv, obrázků nebo jiného obsahu, který je nahrán na tuto sociální síť. Jak je vysvětleno, co Rosetta dělá, je skenování „slova, obrázku, jazyka, fontu, data příspěvku mezi jinými proměnnými a snaží se zjistit, zda prezentovaná informace je skutečná nebo ne.“ Po systému shromáždí informace a s ohledem na to, že AI ještě není plně „schopná porozumět narážkám, odkazům, útokům a kontextu, ve kterém byl obsah zveřejněn“, lidské moderátory převzít a vést AI systém k odhalení hate speech a falešných zpráv.
Aby se pokusili dále rozvinout schopnost AI systémů pokrýt všechny možné nuance, které charakterizují hate speech, tým výzkumníků na UC Santa Barbara a Intel, jak TheNextWeb (TNW) uvádí, „převzal tisíce konverzací ze špinavých komunit na Reddit a Gab a použil je k vývoji a výcviku AI k boji proti hate speech.”
Podle jejich zprávy, aby tak učinili, vytvořila společná skupina výzkumníků specifický dataset obsahující „tisíce konverzací speciálně vybraných tak, aby byly plné hate speech.” Použili také seznam skupin na Reddit, které jsou většinou charakterizovány použitím hate speech, sestavený Justinem Caffierem z Vox.
Výzkumníci nakonec shromáždili „více než 22 000 komentářů z Reddit a více než 33 000 z Gab.” Zjistili, že obě stránky ukazují podobné populární hate klíčová slova, ale distribuce jsou velmi odlišné.
Poznamenali, že kvůli těmto rozdílům je pro sociální média obecně velmi obtížné zasáhnout v reálném čase, protože tok hate speech je tak vysoký, že by vyžadoval nesčetné množství lidí, aby jej sledovali.
Aby se tento problém vyřešil, výzkumný tým začal cvičit AI, aby zasáhla. Jejich počáteční databáze byla odeslána pracovníkům Amazon Turk, aby ji označili. Po identifikaci jednotlivých instancí hate speech pracovníci vytvořili fráze, které by AI použila „k odrazení uživatelů od zveřejňování podobného hate speech v budoucnu.”
Na základě toho „spustili tento dataset a jeho databázi zásahů prostřednictvím různých strojových učících se a přirozených jazykových procesních systémů a vytvořili určitý prototyp pro online hate speech intervenční AI.”
Výsledky byly excelente, ale protože vývoj je stále v rané fázi, systém ještě není připraven k aktivnímu použití. Jak je vysvětleno, „systém by měl teoreticky detekovat hate speech a okamžitě odeslat zprávu poštáři, aby mu sdělil, proč by neměl zveřejňovat věci, které zjevně představují hate speech. To závisí na více než jen detekci klíčových slov – aby AI fungovala, musí správně pochopit kontext.”










