Connect with us

Tekoäly

Tilastollinen malli auttaa havaitsemaan väärää tietoa sosiaalisessa mediassa

mm

Amerikkalaisen yliopiston matematiikan professori ja hänen tiiminsä kehittivät tilastollisen mallin, joka voi havaita väärää tietoa sosiaalisen median viesteissä.

Konemäinen oppiminen on yhä enenevissä määrin käytössä väärän tiedon leviämisen estämiseksi, mutta siinä on edelleen suuri este, joka liittyy mustiin laatikoihin. Tämä tarkoittaa, että tutkijat eivät ymmärrä, miten kone päätyy samaan päätökseen kuin ihmiskouluttajat.

Väärän tiedon havaitseminen tilastollisilla malleilla

AU:n matematiikan ja tilastotieteen laitoksen apulaisprofessori Zois Boukouvalas käytti Twitterin datasettiä, joka sisälsi väärää tietoa COVID-19:stä, osoittaakseen, miten tilastolliset mallit voivat havaita väärää tietoa sosiaalisessa mediassa suurten tapahtumien aikana, kuten pandemian tai katastrofin.

Boukouvalas ja hänen kollegansa, mukaan lukien AU:n opiskelija Caitlin Moroney ja tietojenkäsittelytieteen professori Nathalie Japkowics, osoittivat, miten mallin päätökset ovat linjassa ihmisten kanssa uudessa tutkimuksessa.

“Haluaisimme tietää, mitä kone ajattelee, kun se tekee päätöksiä, ja miten ja miksi se on samaa mieltä ihmisten kanssa, jotka ovat kouluttaneet sen”, Boukouvalas sanoi. “Emme halua estää jonkun sosiaalisen median tilin käyttöä, koska malli tekee puolueellisen päätöksen.”

Tutkijoiden käyttämä menetelmä on tietynlainen konemäinen oppiminen, joka perustuu tilastoihin. Tilastolliset mallit ovat tehokkaita ja tarjoavat toisen tavan taistella väärää tietoa vastaan.

Malli saavutti korkean ennustuskyvyn ja luokitteli 112 todellisen ja väärän tiedon sisältävän twiitin testijoukon lähes 90 prosentin tarkkuudella.

“Mikä on merkittävää tässä löydössä on, että mallimme saavutti tarkkuuden ja tarjosi avoimuutta siitä, miten se havaitti twiitit, jotka olivat väärää tietoa”, Boukouvalas jatkoi. “Syvän oppimisen menetelmät eivät voi saavuttaa tällaista tarkkuutta avoimuuden kanssa.”

Mallin koulutus ja valmistelu

Tutkijat valmistelivat mallin koulutusta ennen sen testaamista datasetissä, koska ihmisten antama tieto voi sisältää puolueellisuutta ja mustia laatikoita.

Tutkijat merkinnät twiitit joko vääräksi tiedoksi tai tosiksi ennalta määritettyjen sääntöjen perusteella, jotka liittyvät kielenkäyttöön väärässä tiedossa. Tutkijat huomioivat myös ihmisen kielen nuanssit ja kielelliset piirteet, jotka liittyvät väärään tietoon.

Ennen mallin koulutusta socio-lingvistiikan professori Christine Mallinson Marylandin yliopistosta Baltimore Countyssa tunnisti twiitit kirjoitustyylistä, joka liittyi väärään tietoon, puolueellisuuteen ja vähemmän luotettaviin lähteisiin uutismediassa.

“Kun lisäämme nämä syötteet malliin, se yrittää ymmärtää taustalla olevia tekijöitä, jotka johtavat hyvän ja pahán tiedon erottamiseen”, Japkowicz sanoi. “Se oppii kontekstin ja miten sanat vuorovaikuttavat.”

Tutkijat aikovat parantaa mallin käyttöliittymää ja sen kykyä havaita väärää tietoa sosiaalisen median viesteissä, jotka sisältävät kuvia tai muita multimedia-elementtejä. Tilastollisen mallin on opittava, miten erilaiset elementit vuorovaikuttavat toistensa kanssa luodakseen väärää tietoa.

Sekä Boukouvalas että Japkowicz sanovat, että ihmisen äly ja uutisten lukutaito ovat avain väärän tiedon leviämisen estämiseen.

“Työmme kautta suunnittelemme työkaluja konemäiselle oppimiselle varoittamaan ja kouluttamaan yleisöä poistamaan väärää tietoa, mutta uskomme vahvasti, että ihmiset tarvitsevat aktiivisen roolin väärän tiedon leviämisen estämisessä ensinnäkin”, Boukouvalas sanoi.

Alex McFarland on AI-toimittaja ja kirjailija, joka tutkii viimeisimpiä kehityksiä tekoälyssä. Hän on tehnyt yhteistyötä useiden AI-startup-yritysten ja julkaisujen kanssa maailmanlaajuisesti.