Connect with us

Etikk

AI kan bekjempe feilinformasjon og fordommer i nyheter

mm

Feilinformasjon og fordommer i nyheter har blitt ett av de største utfordringene samfunnet har møtt i de senere år. Ting som informasjonsoperasjoner, deepfakes, finansiell påvirkning og utnyttelse av sosiale spenninger er nye verktøy brukt av både enkeltpersoner og statsaktører over hele verden. 

Feilinformasjon er en generell betegnelse for feil informasjon, og det spiller en stor rolle i manipuleringen av offentlige meninger. Samtidig brukes det som et angrep mot politiske ledere og forverrer skillelinjene mellom grupper i ulike land. Mer enn noen gang før, treffer feilinformasjon valgurnene, og det har blitt usedvanlig effektivt. 

Desinformasjon, som er litt annerledes enn feilinformasjon, er bevisst misledende eller fordomsfulle informasjon. Det kan inkludere manipulerte narrativer og fakta. Med andre ord, det er propaganda. 

En rapport fra 2019 av forskere ved Oxford University detaljerte organiserte desinformasjonskampanjer i 70 forskjellige land, inkludert Russland, Kina, Vietnam og Guatemala. 

Den digitale økonomien har ført til en økning i feilinformasjon og fordommer i nyheter, med AI-teknologier og sosiale medier som måter å spre det til massene. 

Vi har sett mange eksempler på dette. For eksempel, de to siste presidentvalgene i USA var fulle av feilinformasjon og fordommer, og dette er sikret å fortsette i fremtiden. Finansmarkedene har også vært utsatt for kortvarig manipulering gjennom feilinformasjon og fordommer, og utenlandske affærer blir mer spent som et resultat av deres bruk. Sosiale spenninger fører til feil informasjon mot støttespillere og motstandere av bestemte årsaker, og falske nyheter er vanlige i nesten hvert land.

Vår avhengighet av sosiale medier og algoritmer har gjort oss usedvanlig sårbare for feilinformasjon og fordommer, og det har blitt lett å manipulere store grupper av mennesker. 

Ifølge en artikkel med tittelen “Biases Make People Vulnerable to Misinformation Spread by Social Media,” publisert av The Conversation, et nettverk av ikke-kommersielle mediekanaler, finnes det tre typer fordommer som gjør det sosiale medie-økosystemet sårbart for bevisst og uforvarende feilinformasjon. Det er viktig å erkjenne at det meste av våre nyheter nå kommer fra sosiale medier. 

De tre typene fordommer er: 

  1. Fordom i hjernen: “Kognitive fordommer oppstår i måten hjernen prosesserer informasjonen som hver person møter hver dag.”
  2. Fordom i samfunnet: “Når mennesker kobler seg direkte med sine likemenn, kommer de sosiale fordommene som guider deres valg av venner til å påvirke informasjonen de ser.
  3. Fordom i maskinen: “Den tredje gruppen av fordommer oppstår direkte fra algoritmene som brukes til å bestemme hva mennesker ser online. Så vel sosiale medier som søkemotorer bruker dem.” 

Denne kombinasjonen av fordommer har skapt det perfekte miljøet for dårlige aktører til å bruke våre nåværende nyhetsplattformer som en måte å spre feilinformasjon på. Men det er viktig å erkjenne at fordommer også finnes utenfor dette området. Vanlige nyhetsrapporter og artikler risikerer å være fordomsfulle på grunn av en forfatters eller en publikasjons egne særlige tendenser. Dette er ingen nyhet. 

AI-løsninger for feilinformasjon og fordommer

Oppblomstringen av kunstig intelligens har gitt oss mange nye og innovative verktøy som kan brukes til å bekjempe feilinformasjon og fordommer i nyheter.

For eksempel, når det er designet riktig, kan AI effektivt oppdage og fjerne visse feilinformasjon og andre problematiske innhold online. Det brukes allerede til å identifisere fake-boter fra selskaper som Google, Twitter og Facebook. Og fake-boter brukes ofte til å spre feilinformasjon og fordomsfulle nyheter. 

Nye AI-rammeverk må utforskes for å bekjempe dette problemet, og eksisterende må forbedres, da mange har vist seg å være problematiske. Disse problemene begynner å bli enda farligere når konflikter oppstår. For eksempel, militære konflikter, som den nåværende Russland-Ukraina-konflikten, fører til spredning av feilinformasjon i en usedvanlig raskt rate. 

Det kommer flere AI-drevne verktøy nedover pipeline. For eksempel, NT CONNECT, en internasjonal teknologiutvikler, har nylig annonsert lanseringen av sin nyhetsaggregator-applikasjon, NOOZ.AI. Den AI-drevne språkanalyse-motoren har som mål å bringe transparens til den polariserende fordommen som finnes i dagens nyhetsmedier. Den forsøker å oppnå dette ved å holde lesere informert om nyhetsmediets påvirkning før de leser en artikkel. 

“Forfattere eller journalister tenderer til å helle mot en bestemt fordom – ofte uten lesernes kunnskap,” sier selskapets pressemelding. “Ved å kjenne til forfatterens og nyhetskildens historiske fordom, kan forbrukerne undersøke artikkelen med et mer objektivt sinn og motstå å bli manipulert til å tenke på en bestemt måte om et bestemt emne.” 

Verktøyet NOOZ.AI er bygget på fire nøkkel-pilarer: 

  • Meninganalyse: Det hjelper lesere å bestemme tilstedeværelsen av personlige følelser, syn, overbevisninger eller dommer i en journalists skriving.
  • Følelsesanalyse: Verktøyet bruker følelsesanalyse til å hjelpe lesere å måle en forfatters støtte eller motstand til generell nyhetsinnhold eller bestemte emner.
  • Propaganda-analyse: Det kan oppdage potensiell desinformasjon ved å identifisere bruken av opptil 18 mulige overbevisnings-teknikker.
  • Revisjonsanalyse: Lesere kan undersøke utviklingen av en nyhetshistorie og dens manipulering av mening og følelse over tid. 

Appen gir poeng for hver artikkel, med meningspoeng som varierer fra 0 til 100 og følelsespoeng som varierer fra -100 til 100. Den sporer også alle tekstendringer for hver revisjon og gir lesere mulighet til å sammenligne ulike versjoner. 

Ifølge Garry Paxinos, CTO ved NT CONNECT: 

“Forbudt rapportering er en stor bekymring i dagens samfunn. Feilinformasjon er det mest vanlige (mis)brukte buzzordet. Men virkeligheten er at språket selv kan brukes til å manipulere og overbevise den vanlige lesere. Ved å objektivt analyse språk unngår vi subjektiv fordom funnet i andre tilnærminger. I motsetning til å subjektivt merke feilinformasjon, er vår tilnærming å belyse hvordan en kan bli manipulert med overdrevne overskrifter, revisjons-historikk og tekst av artikler.”

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.