Savienoties ar mums

Mākslīgais intelekts

Boti ir attīstījušies, lai labāk atdarinātu cilvēku uzvedību 2020. gada vēlēšanām

Atjaunināts on

Emilio Ferrara, datorzinātnieks no USC Informācijas zinātņu institūts (USC ISI) ir jauni pētījumi, kas liecina, ka robotprogrammatūra un viltoti konti sociālajos medijos attīstās, lai labāk atdarinātu cilvēku uzvedību, lai tie netiktu atklāti, un to visu nodrošina mākslīgais intelekts. 

Pētījums, ko veica Ferrara un viņa komanda, kurā bija Luka Luseri (Dienvidšveices Lietišķo zinātņu universitāte), Ashok Deb (USC ISI) un Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana) tika publicēti žurnālā Pirmā pirmdiena. Viņi aplūkoja dažādus robotprogrammatūras un viltotus kontus, kas tika izmantoti 2018. gada ASV vēlēšanu laikā, un salīdzināja tos ar uzvedību ASV 2016. gada vēlēšanās. 

Kopumā pētnieku komanda pētīja aptuveni 250,000 2016 sociālo mediju aktīvo lietotāju, un viņi koncentrējās uz tiem, kas apsprieda 2018. un 250,000. gada vēlēšanas. No šiem 30,000 XNUMX lietotāju komanda atklāja, ka XNUMX XNUMX no tiem bija robotprogrammatūras. 

2016. gada vēlēšanu robotprogrammatūra pārsvarā retvītoja saturu un koncentrējās uz liela apjoma tvītu izsūtīšanu par vienu un to pašu problēmu vai ziņojumu. Boti 2018. gadā attīstījās tāpat kā cilvēki, kad runa bija par sociālajiem medijiem. Boti sāka retvītot mazāk satura, un viņi pārtrauca kopīgot šos ziņojumus lielā skaļumā. 

Boti 2018. gadā kļuva labāki, atdarinot cilvēku uzvedību. Pētnieki atklāja, ka viņi, visticamāk, izmantos vairākus robotus vienlaikus, lai tie izskatītos autentiskāki. Viņi to izmantoja, lai šķita, ka tā ir likumīga cilvēka iesaistīšanās idejā. 

Tajā laikā cilvēki sāka iesaistīties, izmantojot atbildes, nevis retvītus. Boti arī tam sekoja. Viņi izmantoja atbildes, lai iesaistītos dialogā un izteiktu viedokli par kādu jautājumu vai ziņojumu. Viņi arī izmantoja aptaujas, lai atkārtotu stratēģiju, ko izmanto likumīgi ziņu portāli un aptauju veicēji. Pētnieki uzskata, ka šīs aptaujas tika izmantotas, lai izveidotu priekšstatu par cienījamu cilvēku. 

 Viens no piemēriem, ko izmantoja pētnieki, bija robots, kas ievietoja tiešsaistes Twitter aptauju par federālajām vēlēšanām. Aptaujā tika vaicāts, vai, balsojot šajās vēlēšanās, būtu jāuzrāda personu apliecinošs dokuments. Pēc tam robots lūdza Twitter lietotājus balsot un retvītīt aptauju. 

Emilio Ferrara, pētījuma vadošais autors, runāja par jauno pētījumu un to, ko tas nozīmē. 

"Mūsu pētījums vēl vairāk apstiprina šo ideju, ka starp robotprogrammatūru un noteikšanas algoritmiem pastāv bruņošanās sacensība. Tā kā sociālo mediju uzņēmumi pieliek vairāk pūļu, lai mazinātu ļaunprātīgu izmantošanu un apslāpētu automatizētos kontus, robotprogrammatūra attīstās, lai atdarinātu cilvēku stratēģijas. AI uzlabojumi ļauj robotiem radīt vairāk cilvēkiem līdzīgu saturu. Mums ir jāpieliek lielākas pūles, lai saprastu, kā roboti attīstās un kā var atklāt sarežģītākus. Gaidāmajām 2020. gada ASV vēlēšanām sociālo mediju diskursa integritātei ir ārkārtīgi liela nozīme, lai nodrošinātu demokrātisku procesu, kas ir brīvs no ārējām ietekmēm.

 

Liela ietekme uz nākotni

Viltus tiešsaistes sociālo mediju kontu un robotprogrammatūras problēma vēlēšanu laikā ir bijusi problēma jau gadiem ilgi. Problēmas, kas atklājās 2016. gada vēlēšanu laikā, tolaik šķita milzīgas, taču tas bija maz, salīdzinot ar to, ko mēs redzēsim tuvākajā nākotnē. Ar mākslīgo intelektu tas pasliktināsies. 

Boti turpinās attīstīties, lai labāk atdarinātu cilvēka uzvedību, galvenokārt pateicoties mākslīgajam intelektam. Tas nonāks līdz vietai, kur nav iespējams noteikt, kurš ir īsts un kurš nav. Tas nozīmē, ka būs dramatiskas sekas ne tikai gaidāmajām 2020. gada ASV vēlēšanām, bet arī visām turpmākajām vēlēšanām tur un visā pasaulē. 

 

Alekss Makfārlends ir AI žurnālists un rakstnieks, kurš pēta jaunākos sasniegumus mākslīgā intelekta jomā. Viņš ir sadarbojies ar daudziem AI jaunizveidotiem uzņēmumiem un publikācijām visā pasaulē.