Connect with us

Umělá inteligence

AI Model Může Identifikovat Šiřitele Dezinformací Předtím, Než Jednají

mm

AI model vytvořený výzkumníky z University of Sheffield může potenciálně určit, které uživatele Twitteru budou zveřejňovat dezinformace, než je skutečně učiní. Pokud se model ukáže jako spolehlivý, může být použit k doplnění stávajících metod boje proti dezinformacím na sociálních médiích.

Podle TechXplore, studie byla vedena výzkumníky z Department of Computer Science University of Sheffield, včetně Dr. Nikose Aletrase a Yidy Mu. Studie byla zveřejněna v časopise PeerJ a popisuje metody používané k předpovědi, zda uživatel sociálních médií je pravděpodobně šíří dezinformace zveřejňováním obsahu z nespolupracujících zdrojů zpráv.

Výzkumný tým shromáždil více než 1 milion tweetů od více než 6000 uživatelů Twitteru, všechny veřejně dostupné. Tým aplikoval techniky zpracování přirozeného jazyka, aby připravil data pro výcvik AI modelu. AI byl binární klasifikační model, označující uživatele jako pravděpodobně sdílející informace z nespolupracujících zdrojů nebo nepravděpodobně sdílející. Po dokončení výcviku modelu dosáhl aproximativně 79,7% klasifikační přesnosti.

Při analýze výsledků výkonu modelu výzkumníci zjistili, že uživatelé, kteří často používali hrubý jazyk a neustále tweetovali o náboženství a politice, byli pravděpodobněji zveřejňovat informace z nespolupracujících zdrojů. Konkrétně šlo o časté použití slov jako “liberální”, “médií”, “vlády”, “Izrael” a “Islám”. Mezitím uživatelé, kteří zveřejňovali informace z spolehlivých zdrojů, tendenci používat slova jako “I’ll”, “gonna”, “wanna”, “mood”, “excited” a “narozeniny”. Kromě toho obvykle sdíleli příběhy o svém osobním životě, jako jsou interakce s přáteli, jejich emoce nebo informace o svých koníčcích.

Zjištění studie mohou pomoci sociálním médiím, jako je Facebook, Reddit a Twitter, vyvinout nové způsoby, jak bojovat proti šíření dezinformací online. Výzkum může také pomoci psychologům a sociálním vědcům lépe pochopit chování, které vede k rozsáhlému šíření dezinformací v sociálních sítích.

Jak Aletras vysvětlil podle TechXplore, sociální média se transformovala na jeden z hlavních způsobů, jak lidé získávají zprávy. Milióny uživatelů po celém světě získávají své zprávy prostřednictvím Facebooku a Twitteru každý den, ale tyto platformy se také staly nástroji pro šíření dezinformací po celé společnosti. Aletras dále vysvětlil, že spolehlivé identifikování určitých trendů v chování uživatelů může pomoci omezit dezinformace. Jak Aletras vysvětlil, existuje “korelace mezi používáním hrubého jazyka a šířením nespolupracujících obsahu, které lze připsat vysoké online politické hostilitě.”

Podle Mu analýza chování uživatelů, kteří sdílejí nespolupracující informace, může pomoci sociálním médiím doplnit stávající metody ověřování faktů a modelovat dezinformace na úrovni uživatele. Jak Mu řekl prostřednictvím TechXplore:

“Studium a analýza chování uživatelů, kteří sdílejí obsah z nespolupracujících zdrojů zpráv, může pomoci sociálním médiím zabránit šíření falešných zpráv na úrovni uživatele, doplnit stávající metody ověřování faktů, které fungují na úrovni příspěvku nebo zdroje zpráv.”

Výzkum provedený Aletrasem a Mu může být příkladem použití AI k boji proti dezinformacím generovaným AI. V posledních měsících došlo k nárůstu dezinformací týkajících se lokální a národní politiky, přičemž většina obsahu byla generována a šířena algoritmy AI. Hluboké neuronové sítě byly použity k vytvoření realistických fotografií a profilů pro falešné účty, které slouží jako šíritelé falešných zpráv. Výzkum, na kterém pracují Aletras a Mu, může pomoci sociálním médiím určit, které účty jsou falešné, botové účty vytvořené za účelem šíření škodlivé propagandy a dezinformací.

Blogger a programátor se specializací na Machine Learning a Deep Learning témata. Daniel doufá, že pomůže ostatním využít sílu AI pro sociální dobro.