Connect with us

Kunstmatige intelligentie

AI-model kan verspreiders van desinformatie identificeren voordat ze actie ondernemen

mm

Een AI-model dat is ontwikkeld door onderzoekers van de University of Sheffield kan mogelijk bepalen welke gebruikers van Twitter desinformatie zullen plaatsen voordat ze dat daadwerkelijk doen. Als het model betrouwbaar blijkt te zijn, kan het worden gebruikt om bestaande methoden voor het bestrijden van desinformatie op sociale media aan te vullen.

Volgens TechXplore, werd de studie geleid door onderzoekers van de afdeling Computer Science van de University of Sheffield, waaronder Dr. Nikos Aletras en Yida Mu. De studie werd gepubliceerd in het tijdschrift PeerJ en beschrijft de methoden die werden gebruikt om te voorspellen of een gebruiker van sociale media waarschijnlijk desinformatie zal verspreiden door inhoud te plaatsen van onbetrouwbare nieuwsbronnen.

Het onderzoeksteam verzamelde meer dan 1 miljoen tweets van meer dan 6000 Twitter-gebruikers, allemaal openbaar beschikbaar. Het team paste technieken voor natuurlijke taalverwerking toe om de gegevens voor te bereiden op de training van een AI-model. De AI was een binaire classificatiemodel, waarbij gebruikers werden gelabeld als waarschijnlijk om informatie te delen van onbetrouwbare bronnen of niet waarschijnlijk om dat te doen. Nadat het model was getraind op de gegevens, kon het ongeveer 79,7% classificatie-accuraatheid bereiken.

Bij de analyse van de resultaten van de prestaties van het model, vonden de onderzoekers dat gebruikers die veelvuldig onbeleefde taal gebruikten en constant over religie en politiek tweetten, meer geneigd waren om informatie te plaatsen van onbetrouwbare bronnen. In het bijzonder was er een zware gebruik van woorden zoals “liberaal”, “media”, “regering”, “Israël” en “islam”. Ondertussen gebruikten gebruikers die informatie plaatsten van betrouwbare bronnen woorden zoals “ik zal”, “gaan”, “willen”, “stemming”, “opgewonden” en “verjaardag”. Bovendien deelden ze meestal verhalen over hun persoonlijke leven, zoals interacties met vrienden, hun emoties of informatie over hun hobby’s.

De resultaten van de studie kunnen socialemediabedrijven zoals Facebook, Reddit en Twitter helpen om nieuwe manieren te ontwikkelen om de verspreiding van misinformatie online te bestrijden. Het onderzoek kan ook helpen om psychologen en sociale wetenschappers beter te begrijpen welk gedrag leidt tot de wijdverspreide verspreiding van misinformatie in een sociaal netwerk.

Zoals Aletras uitlegde volgens TechXplore, is sociale media getransformeerd in een van de belangrijkste manieren waarop mensen hun nieuws krijgen. Miljoenen gebruikers over de hele wereld krijgen hun nieuwsverhalen elke dag via Facebook en Twitter, maar deze platforms zijn ook tools geworden voor het verspreiden van desinformatie in de samenleving. Aletras legde verder uit dat het betrouwbaar identificeren van bepaalde trends in gebruikersgedrag kan helpen bij het terugdringen van desinformatie. Zoals Aletras uitlegde, is er een “correlatie tussen het gebruik van onbeleefde taal en de verspreiding van onbetrouwbare inhoud die kan worden toegeschreven aan hoge online politieke vijandigheid.”

Volgens Mu kan het analyseren van het gedrag van gebruikers die onbetrouwbare informatie delen, socialemediaplatforms helpen door bestaande feitcontrole-methoden aan te vullen en desinformatie te modelleren op gebruikersniveau. Zoals Mu zei via TechXplore:

“Het bestuderen en analyseren van het gedrag van gebruikers die inhoud delen van onbetrouwbare nieuwsbronnen, kan socialemediaplatforms helpen om de verspreiding van nepnieuws te voorkomen op gebruikersniveau, door bestaande feitcontrole-methoden aan te vullen die werken op post- of nieuwsbron-niveau.”

Het onderzoek dat Aletras en Mu uitvoeren, kan een voorbeeld zijn van het gebruik van AI om misinformatie gegenereerd door AI te bestrijden. De afgelopen maanden hebben een toename van desinformatie over lokale en nationale politiek gezien, waarbij veel van de inhoud is gegenereerd en verspreid door AI-algoritmen. Diepe neurale netwerken zijn gebruikt om realistische foto’s en profielen te construeren voor nep-accounts die dienen als verspreiders van nepnieuws. Het onderzoek van Aletras en Mu kan socialemediabedrijven helpen om te bepalen welke accounts nep zijn, bot-accounts die zijn gemaakt met het doel om schadelijke propaganda en desinformatie te verspreiden.

Blogger en programmeur met specialisaties in Machine Learning en Deep Learning onderwerpen. Daniel hoopt anderen te helpen de kracht van AI te gebruiken voor het sociale goede.