Artificiell intelligens
Bots Har Utvecklats för Att Bättre Imitera Mänskligt Beteende Inför 2020 Års Val

Emilio Ferrara, en datavetare från USC Information Sciences Institute (USC ISI), har ny forskning som visar att botar och falska konton på sociala medier utvecklas för att bättre imitera mänskligt beteende för att inte upptäckas, allt möjliggjort av artificiell intelligens.
Forskningen, som utfördes av Ferrara och hans team som inkluderade Luca Luceri (Scuola Universitaria Professionale della Svizzera Italiana), Ashok Deb (USC ISI), och Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana) publicerades i tidskriften First Monday. De undersökte de olika botarna och falska kontona som användes under de amerikanska valen 2018 och jämförde dem med beteendet under de amerikanska valen 2016.
Totalt sett studerade forskarteamet omkring 250 000 aktiva sociala medieanvändare, och de fokuserade på de som diskuterade valen 2016 och 2018. Av dessa 250 000 användare fann teamet att 30 000 av dem var botar.
Botarna under valen 2016 retweetade i huvudsak innehåll och fokuserade på att skicka ut stora mängder tweets om samma fråga eller meddelande. Botarna 2018 utvecklades på samma sätt som människor när det gäller sociala medier. Botarna började retweeta mindre innehåll, och de slutade dela dessa meddelanden i stort antal.
Botarna 2018 blev bättre på att imitera mänskligt beteende. Forskarna fann att de var mer benägna att använda flera botar samtidigt för att verka mer äkta. De använde detta för att verka som om det var legitim mänsklig interaktion kring en idé.
Då började människor engagera sig genom svar istället för retweets. Botarna följde detta också. De använde svar för att engagera sig i dialog och etablera en röst i en fråga eller meddelande. De använde också omröstningar för att replikera en strategi som används av legitima nyhetskanaler och opinionsinstitut. Forskarna tror att dessa omröstningar användes för att bygga upp en bild av att vara trovärdiga.
En av exemplen som forskarna använde var en bot som publicerade en online-Twitter-omröstning om federala val. Omröstningen frågade om det borde krävas att visa legitimation när man röstar i dessa val. Boten bad sedan Twitter-användare att rösta och retweeta omröstningen.
Emilio Ferrara, huvudförfattare till studien, talade om den nya forskningen och vad den betyder.
“Vår studie bekräftar ytterligare idén att det pågår en kapprustning mellan botar och upptäcktsalgoritmer. När sociala medieföretag lägger mer kraft på att mildra missbruk och kväva automatiserade konton, utvecklas botarna för att imitera mänskliga strategier. Framsteg inom AI möjliggör att botar producerar mer mänskligt innehåll. Vi måste lägga mer kraft på att förstå hur botar utvecklas och hur mer sofistikerade kan upptäckas. Med de kommande valen i USA 2020 är integriteten i sociala medier av största vikt för att tillåta en demokratisk process fri från yttre påverkan.”
Stora Konsekvenser för Framtiden
Problemet med falska online-sociala mediekonton och botar under val har varit ett problem i år. De problem som utvecklades under valen 2016 tycktes stora vid den tiden, men det var litet jämfört med vad vi kommer att se i nära framtiden. Med artificiell intelligens kommer detta att bli värre.
Botar kommer att fortsätta utvecklas för att bli bättre på att imitera mänskligt beteende, till stor del tack vare artificiell intelligens. Det kommer att nå en punkt där det blir omöjligt att avgöra vem som är verklig och vem som inte är det. Detta innebär att det kommer att finnas dramatiska konsekvenser inte bara för de kommande valen i USA 2020, utan också för alla framtida val där och runt om i världen.










