výhonek Boti se vyvinuli tak, aby lépe napodobovali lidské chování pro volby v roce 2020 - Unite.AI
Spojte se s námi

Umělá inteligence

Boti se vyvinuli tak, aby lépe napodobovali lidské chování pro volby v roce 2020

aktualizováno on

Emilio Ferrara, počítačový vědec z USC institut informačních věd (USC ISI), má nový výzkum, který ukazuje, že roboti a falešné účty na sociálních sítích se vyvíjejí tak, aby lépe napodobovaly lidské chování, aby nebyly odhaleny, to vše umožňuje umělá inteligence. 

Výzkum, který provedl Ferrara a jeho tým, který zahrnoval Lucu Luceriho (Univerzita aplikovaných věd jižního Švýcarska), Ashok Deb (USC ISI) a Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana) byl publikován v časopise První pondělí. Podívali se na různé roboty a falešné účty, které byly použity během voleb v USA v roce 2018, a porovnali je s chováním z voleb v USA v roce 2016. 

Celkem tým výzkumníků zkoumal asi 250,000 2016 aktivních uživatelů sociálních sítí a zaměřil se na ty, kteří diskutovali o volbách v roce 2018 a 250,000. Z těchto 30,000 XNUMX uživatelů tým zjistil, že XNUMX XNUMX z nich byli roboti. 

Boti ve volbách v roce 2016 většinou retweetovali obsah a soustředili se na rozesílání velkého množství tweetů týkajících se stejného problému nebo zprávy. Roboti se v roce 2018 vyvíjeli stejně jako lidé, pokud jde o sociální média. Boti začali retweetovat méně obsahu a přestali tyto zprávy sdílet ve velkém objemu. 

Roboti se v roce 2018 zlepšili v napodobování lidského chování. Vědci zjistili, že je pravděpodobnější, že budou používat více robotů současně, aby působili autentičtěji. Používali to, aby to vypadalo, jako by to byla legitimní lidská angažovanost kolem myšlenky. 

V té době se lidé začali zapojovat spíše prostřednictvím odpovědí než retweetů. Boti to také následovali. Používali odpovědi, aby se zapojili do dialogu a prosadili svůj názor na problém nebo zprávu. Použili také průzkumy veřejného mínění, aby napodobili strategii používanou legitimními zpravodajskými servery a hlasateli. Vědci se domnívají, že tyto průzkumy byly použity k vybudování obrazu o tom, že jsou seriózní. 

 Jedním z příkladů, které výzkumníci použili, byl bot, který zveřejnil online Twitter anketu o federálních volbách. Průzkum se tázal, zda by mělo být vyžadováno předložení průkazu totožnosti při hlasování v těchto volbách. Bot poté požádal uživatele Twitteru, aby hlasovali a retweetovali anketu. 

Emilio Ferrara, hlavní autor studie, hovořil o novém výzkumu a o tom, co znamená. 

„Naše studie dále potvrzuje tuto myšlenku, že mezi roboty a detekčními algoritmy probíhá závod ve zbrojení. S tím, jak společnosti sociálních médií vynakládají větší úsilí na zmírnění zneužívání a potlačení automatických účtů, se roboti vyvíjejí tak, aby napodobovali lidské strategie. Pokroky v AI umožňují robotům produkovat obsah podobný lidem. Musíme věnovat více úsilí tomu, abychom pochopili, jak se roboti vyvíjejí a jak lze odhalit ty sofistikovanější. S nadcházejícími volbami v USA v roce 2020 má integrita diskursu na sociálních sítích prvořadý význam pro umožnění demokratického procesu bez vnějších vlivů.

 

Velké důsledky pro budoucnost

Problém falešných online účtů na sociálních sítích a robotů během voleb je problémem již několik let. Problémy, které se odehrávaly během voleb v roce 2016, se tehdy zdály obrovské, ale to bylo málo ve srovnání s tím, co uvidíme v blízké budoucnosti. S umělou inteligencí to bude ještě horší. 

Boti se budou neustále vyvíjet, aby se zlepšili v napodobování lidského chování, a to především díky umělé inteligenci. Dostane se to do bodu, kdy nebude možné určit, kdo je skutečný a kdo ne. To znamená, že to bude mít dramatické důsledky nejen pro nadcházející volby v roce 2020 v USA, ale pro všechny budoucí volby tam i po celém světě. 

 

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s řadou AI startupů a publikací po celém světě.