stomp AI-model kan verspreiders van desinformatie identificeren voordat ze handelen - Unite.AI
Verbind je met ons

Artificial Intelligence

AI-model kan verspreiders van desinformatie identificeren voordat ze handelen

mm
Bijgewerkt on

Een AI-model gemaakt door onderzoekers van de Universiteit van Sheffield kan mogelijk bepalen welke gebruikers van Twitter desinformatie zullen posten voordat ze dat daadwerkelijk doen. Als het model betrouwbaar blijkt, kan het worden gebruikt als aanvulling op bestaande methoden om desinformatie op sociale media te bestrijden.

Volgens TechXplore, De studie werd geleid door onderzoekers van de Universiteit van Sheffield's Department of Computer Science, waaronder Dr. Nikos Aletras en Yida Mu. De studie werd gepubliceerd in het tijdschrift PeerJ en beschrijft de methoden die worden gebruikt om te voorspellen of een gebruiker van sociale media waarschijnlijk desinformatie verspreidt door inhoud van onbetrouwbare nieuwsbronnen te plaatsen.

Het onderzoeksteam verzamelde meer dan 1 miljoen tweets van meer dan 6000 Twitter-gebruikers, allemaal openbaar beschikbaar. Het team paste technieken voor natuurlijke taalverwerking toe om de gegevens gereed te maken voor de training van een AI-model. De AI was een binair classificatiemodel, waarbij gebruikers werden bestempeld als waarschijnlijk informatie uit onbetrouwbare bronnen delen of waarschijnlijk niet. Nadat het model op de gegevens was getraind, kon het een classificatienauwkeurigheid van ongeveer 79.7% bereiken.

Bij het analyseren van de resultaten van de prestaties van het model, ontdekten de onderzoekers dat gebruikers die veel onbeleefd taalgebruik gebruikten en voortdurend tweeten over religie en politiek, eerder informatie uit onbetrouwbare bronnen plaatsten. Met name woorden als "liberaal", "media", "overheid", "Israël" en "islam" werden veelvuldig gebruikt. Ondertussen gebruikten gebruikers die informatie uit betrouwbare bronnen plaatsten de neiging om woorden te gebruiken als "ik zal", "ga", "wil", "stemming", "opgewonden" en "verjaardag". Daarnaast deelden ze meestal verhalen over hun persoonlijke leven, zoals interacties met vrienden, hun emoties of informatie over hun hobby's.

De bevindingen van het onderzoek kunnen sociale-mediabedrijven zoals Facebook, Reddit en Twitter helpen bij het ontwikkelen van nieuwe manieren om de verspreiding van verkeerde informatie online tegen te gaan. Het onderzoek zou ook psychologen en sociale wetenschappers kunnen helpen het gedrag te begrijpen dat leidt tot de ongebreidelde verspreiding van verkeerde informatie in een sociaal netwerk.

Zoals Aletras volgens TechXplore uitlegde, zijn sociale media getransformeerd tot een van de belangrijkste manieren waarop mensen hun nieuws krijgen. Miljoenen gebruikers over de hele wereld ontvangen dagelijks hun nieuwsberichten via Facebook en Twitter, maar deze platforms zijn ook instrumenten geworden om desinformatie in de samenleving te verspreiden. Aletras legde verder uit dat het op betrouwbare wijze identificeren van bepaalde trends in gebruikersgedrag zou kunnen helpen bij het terugdringen van desinformatie. Zoals Aletras uitlegde, was er een "correlatie tussen het gebruik van onbeleefde taal en de verspreiding van onbetrouwbare inhoud die kan worden toegeschreven aan hoge online politieke vijandigheid."

Volgens Mu kan het analyseren van het gedrag van gebruikers die onbetrouwbare informatie delen, sociale-mediaplatforms helpen door bestaande methoden voor feitencontrole aan te vullen en desinformatie op gebruikersniveau te modelleren. Zoals Mu zei via TechXplore:

"Het bestuderen en analyseren van het gedrag van gebruikers die inhoud van onbetrouwbare nieuwsbronnen delen, kan sociale-mediaplatforms helpen om de verspreiding van nepnieuws op gebruikersniveau te voorkomen, als aanvulling op bestaande methoden voor het controleren van feiten die werken op post- of nieuwsbronniveau."

Het onderzoek van Aletras en Mu zou een voorbeeld kunnen zijn van het gebruik van AI om door AI gegenereerde verkeerde informatie te bestrijden. De afgelopen maanden is er een toename geweest in desinformatie rond lokale en nationale politiek, waarbij veel van de inhoud is gegenereerd en verspreid door AI-algoritmen. Diepe neurale netwerken zijn gebruikt om realistische foto's te maken van en profielen voor nepaccounts die dienen als verspreiders van nepnieuws. Het onderzoek waar Aletras en Mu mee bezig zijn, zou sociale-mediabedrijven kunnen helpen erachter te komen welke accounts nep zijn, botaccounts die zijn gemaakt met als doel schadelijke propaganda en verkeerde informatie te verspreiden.

Blogger en programmeur met specialiteiten in Machine leren en Diepe leren onderwerpen. Daniel hoopt anderen te helpen de kracht van AI te gebruiken voor maatschappelijk welzijn.