Kunstig intelligens
AI-ingeniører udvikler metode, der kan registrere intentionerne hos dem, der spreder misinformationsindsats

At tackle misinformationsproblematikken i den digitale tidsalder er et komplekst problem. Ikke kun skal misinformationsindsats identificeres, markeres og korrigeres, men også intentionerne hos de ansvarlige for påstanden skal skelnes. En person kan uvilkårligt sprede misinformationsindsats eller blot give sin mening om et spørgsmål, selv om det senere rapporteres som faktum. For nylig udviklede et hold af AI-forskere og -ingeniører på Dartmouth en ramme, der kan bruges til at udlede mening fra “falske nyheds”-rapporter.
Som ScienceDaily rapporterer, blev Dartmouth-holdets studie nyligt offentliggjort i Journal of Experimental & Theoretical Artificial Intelligence. Mens tidligere studier har forsøgt at identificere falske nyheder og bekæmpe bedrag, kan dette være det første studie, der havde til formål at identificere talerens intention i en nyhedsartikel. Mens en sand historie kan forvrides til forskellige bedrageriske former, er det vigtigt at skelne, om bedrag var til intention. Forskningsholdet argumenterer for, at intention er afgørende, når det handler om misinformationsindsats, da bedrag kun er muligt, hvis der var intention om at bedrage. Hvis en person ikke var klar over, at de spredte misinformationsindsats, eller hvis de blot gav deres mening, kan der ikke være tale om bedrag.
Eugene Santos Jr., en ingeniørprofessor på Dartmouths Thayer School of Engineering, forklarede til ScienceDaily, hvorfor deres model forsøger at skelne bedragerisk intention:
“Bedragerisk intention til at bedrage lytterne med vilje udgør en langt større trussel end utilsigtede fejl. Så vidt vi ved, er vores algoritme den eneste metode, der kan registrere bedrag og samtidig skelne mellem ondsindede handlinger og uskyldige handlinger.”
For at konstruere deres model analyserede forskningsholdet funktionerne af bedragerisk argumentation. Den resulterende algoritme kunne skelne mellem intention til at bedrage og andre former for kommunikation ved at fokusere på uregelmæssigheder mellem en persons tidligere argumenter og deres nuværende udsagn. Modellen, som forskningsholdet konstruerede, kræver store mængder data, der kan bruges til at måle, hvordan en person afviger fra tidligere argumenter. Træningsdataene, som holdet brugte til at træne deres model, bestod af data fra en undersøgelse af meninger om kontroversielle emner. Over 100 personer gav deres mening om disse kontroversielle spørgsmål. Data blev også hentet fra anmeldelser af 20 forskellige hoteller, bestående af 400 fiktive anmeldelser og 800 ægte anmeldelser.
Ifølge Santos kunne rammen, som forskerne udviklede, affineres og anvendes af nyhedsorganisationer og læsere for at lade dem analysere indholdet af “falske nyheds”-artikler. Læsere kunne undersøge artikler for nærvær af meninger og afgøre for sig selv, om en logisk argumentation var blevet brugt. Santos sagde også, at holdet ønskede at undersøge virkningen af misinformationsindsats og de rippleffekter, det har.
Populærkulturen afbilder ofte non-verbale adfærd som ansigtsudtryk som tegn på, at nogen lyver, men studiens forfattere bemærker, at disse adfærds-hint ikke altid er pålidelige tegn på, at nogen lyver. Deqing Li, medforfatter på artiklen, forklarede, at deres forskning fandt, at modeller baseret på intention til at argumentere er bedre tegn på, at nogen lyver, end adfærds- og verbale forskelle. Li forklarede, at modeller til at argumentere for intention “er bedre til at skelne mellem intentionelle løgne og andre former for informationsforvrængning”.
Arbejdet med Dartmouth-forskerne er ikke den eneste nyere fremgang, når det handler om at bekæmpe misinformationsindsats med AI. Nyhedsartikler med klik-venlige overskrifter kan ofte skjule misinformationsindsats. For eksempel antyder de ofte, at noget andet skete, end det, der faktisk skete.
Som AINews rapporterer, samarbejdede et hold af forskere fra både Arizona State University og Penn State University om at skabe en AI, der kan registrere klik-venlige overskrifter. Forskerne bad mennesker om at skrive deres egne klik-venlige overskrifter og skrev også et program til at generere klik-venlige overskrifter. Begge former for overskrifter blev derefter brugt til at træne en model, der kunne effektivt registrere klik-venlige overskrifter, uanset om de var skrevet af maskiner eller mennesker.
Ifølge forskerne var deres algoritme omkring 14,5% mere præcis, når det kom til at registrere klik-venlige titler end andre AI’er havde været tidligere. Den ledende forsker på projektet og adjunktprofessor på College of Information Sciences and Technology på Penn State, Dongwon Lee, forklarede, hvordan deres eksperiment demonstrerer nyttigheden af at generere data med en AI og føde det tilbage i en træningspipeline.
“Dette resultat er ret interessant, da vi med succes demonstrerede, at maskin-genereret klik-venlig træningsdata kan fødes tilbage i træningspipelinen for at træne en bred vifte af machine learning-modeller til at have forbedret præstation,” forklarede Lee.












