tynkä Tekoälyinsinöörit kehittävät menetelmän, jolla voidaan havaita väärää tietoa levittävien tarkoitus - Unite.AI
Liity verkostomme!

Tekoäly

Tekoälyinsinöörit kehittävät menetelmän, jolla voidaan havaita väärää tietoa levittävien aikomus

mm
Päivitetty on

Väärän tiedon käsitteleminen digitaaliaikana on monimutkainen ongelma. Virheelliset tiedot on tunnistettava, tunnistettava ja korjattava, mutta myös väitteen esittäneiden tahojen tarkoitus on erotettava toisistaan. Ihminen voi tietämättään levittää väärää tietoa tai vain antaa mielipiteensä jostakin asiasta, vaikka se myöhemmin ilmoitetaan tosiasiana. Äskettäin Dartmouthin tekoälytutkijoista ja -insinööreistä koostuva ryhmä loi kehyksen, jota voidaan käyttää mielipiteiden muodostamiseen "valeuutisten" raporteista.

Kuten ScienceDaily raportoi, Dartmouth-ryhmän tutkimus julkaistiin äskettäin Journal of Experimental & Theoretical Artificial Intelligence -lehdessä. Aiemmissa tutkimuksissa on yritetty tunnistaa valeuutisia ja torjua petosta, mutta tämä saattaa olla ensimmäinen tutkimus, jonka tarkoituksena oli tunnistaa puhujan tarkoitus uutisessa. Vaikka tositarina voidaan vääntää erilaisiin petollisiin muotoihin, on tärkeää erottaa, oliko petos tarkoitettu vai ei. Tutkimusryhmä väittää, että tarkoituksella on väliä harhaanjohtavia tietoja harkittaessa, sillä petos on mahdollista vain, jos on tarkoitus johtaa harhaan. Jos henkilö ei tajunnut levittävänsä väärää tietoa tai jos hän vain ilmaisi mielipiteensä, ei voi olla petosta.

Eugene Santos Jr., insinööriprofessori Dartmouthin Thayer School of Engineeringistä, selitti ScienceDailylle miksi heidän mallinsa yrittää erottaa petolliset tarkoitukset:

"Petollinen aikomus johtaa kuuntelijoita harhaan tarkoituksella on paljon suurempi uhka kuin tahattomat virheet. Tietojemme mukaan algoritmimme on ainoa menetelmä, joka havaitsee petoksen ja samalla erottaa haitalliset teot hyvänlaatuisista."

Mallinsa rakentamiseksi tutkimusryhmä analysoi petollisen päättelyn piirteitä. Tuloksena oleva algoritmi voisi erottaa pettämistarkoituksen muista kommunikaatiomuodoista keskittymällä eroihin henkilön menneiden argumenttien ja hänen nykyisten lausuntojensa välillä. Tutkimusryhmän rakentama malli tarvitsee suuria määriä dataa, jonka avulla voidaan mitata, kuinka henkilö poikkeaa menneistä väitteistä. Koulutusdata, jota tiimi käytti mallinsa harjoittamiseen, koostui tiedoista, jotka oli otettu kiistanalaisia ​​aiheita koskevasta mielipidetutkimuksesta. Yli 100 ihmistä antoi mielipiteensä näistä kiistanalaisista asioista. Tiedot kerättiin myös 20 eri hotellin arvosteluista, jotka koostuivat 400 kuvitteellisesta arvostelusta ja 800 todellisesta arvostelusta.

Santon mukaan tutkijoiden kehittämää viitekehystä voisivat jalostaa ja soveltaa uutisorganisaatiot ja lukijat, jotta he voivat analysoida "fake news" -artikkelien sisältöä. Lukijat voivat tutkia artikkeleista mielipiteitä ja päättää itse, onko käytetty loogista argumenttia. Santos sanoi myös, että tiimi haluaa tutkia väärän tiedon vaikutusta ja sen heijastusvaikutuksia.

Populaarikulttuuri kuvaa usein ei-verbaalista käyttäytymistä, kuten ilmeitä, merkkinä siitä, että joku valehtelee, mutta tutkimuksen tekijät huomauttavat, että nämä käyttäytymisvinkit eivät aina ole luotettavia osoittimia valehtelemisesta. Paperin toinen kirjoittaja Deqing Li selitti, että heidän tutkimuksensa havaitsi, että päättelyaikeisiin perustuvat mallit ovat parempia osoittimia valehtelemisesta kuin käyttäytymis- ja sanaerot. Li selitti, että päättelytarkoitusmallit "erottelevat paremmin tarkoitukselliset valheet muun tyyppisestä tiedon vääristymisestä".

Dartmouthin tutkijoiden työ ei ole ainoa viimeaikainen edistysaskel, kun on kyse väärän tiedon torjumisesta tekoälyn avulla. Uutisartikkelit, joissa on napsautussyöttiotsikoita, peittävät usein väärän tiedon. Esimerkiksi ne usein viittaavat siihen, että yksi asia tapahtui, kun toinen tapahtuma todella tapahtui.

Kuten AINews raportoi, Arizona State Universityn ja Penn State Universityn tutkijoiden ryhmä teki yhteistyötä luodakseen tekoälyn, joka voisi havaita napsautussyötin. Tutkijat pyysivät ihmisiä kirjoittamaan omia clickbait-otsikoita ja kirjoittivat myös ohjelman napsautussyöttiotsikoiden luomiseksi. Molempia otsikoita käytettiin sitten mallin kouluttamiseen, joka pystyi tehokkaasti havaitsemaan napsautussyöttiotsikot riippumatta siitä, olivatko ne koneiden vai ihmisten kirjoittamia.

Tutkijoiden mukaan heidän algoritminsa oli noin 14.5 % tarkempi napsautussyöttinimikkeiden havaitsemisessa kuin muut tekoälyt olivat aiemmin olleet. Projektin johtava tutkija ja apulaisprofessori College of Information Sciences and Technologyssa Penn Statessa, Dongwon Lee, selitti, kuinka heidän kokeilunsa osoittaa hyödyllisyyden tuottaa dataa tekoälyllä ja syöttää se takaisin koulutusputkiin.

"Tämä tulos on varsin mielenkiintoinen, sillä osoitimme onnistuneesti, että koneella luotuja napsautussyöttiharjoittelutietoja voidaan syöttää takaisin koulutusputkiin, jotta voidaan kouluttaa monenlaisia ​​koneoppimismalleja suorituskyvyn parantamiseksi", Lee selitti.

Bloggaaja ja ohjelmoija erikoisaloilla Koneen oppiminen ja Deep Learning aiheita. Daniel toivoo voivansa auttaa muita käyttämään tekoälyn voimaa yhteiskunnalliseen hyvään.