Connect with us

Etik

AI kan bekæmpe misinformation og bias i nyheder

mm

Misinformation og bias i nyheder er blevet en af de største udfordringer, som samfundet har stået overfor i de seneste år. Ting som informationsoperationer, deepfakes, finansielt inflydelse og udnyttelse af sociale spændinger er nye værktøjer, der bruges af både enkeltpersoner og statsaktører over hele verden. 

Misinformation er en generel betegnelse for forkert information, og det spiller en stor rolle i manipulationen af offentlig mening. Samtidig bruges det som et angreb mod politiske ledere og forværre separationslinjerne mellem grupper i forskellige lande. Mere end nogensinde før rammer misinformation valgurnerne, og det er blevet utrolig effektivt. 

Desinformation, som er lidt anderledes end misinformation, er bevidst misvisende eller biased information. Det kan inkludere manipulerede narrativer og fakta. Med andre ord er det propaganda. 

En rapport fra 2019 af forskere ved Oxford University detaljerede organiserede desinformationskampagner i 70 forskellige lande, herunder Rusland, Kina, Vietnam og Guatemala. 

Den digitale økonomi har ført til en stigning i misinformation og bias i nyheder, med AI-teknologier og sociale medieplatforme som måder at sprede det til masserne. 

Vi har set mange eksempler på dette. For eksempel var de to seneste amerikanske præsidentvalg fulde af misinformation og bias, og dette er sikker til at fortsætte i fremtiden. Finansmarkederne er også blevet udsat for kortvarig manipulation gennem misinformation og bias, og udenrigsforholdene bliver mere anspændte som følge af deres brug. Sociale spændinger opstår på grund af forkert information mod støtter og modstandere af bestemte årsager, og falske nyheder er udbredt i næsten alle nationer.

Vores afhængighed af sociale medier og algoritmer har gjort os utrolig sårbare over for misinformation og bias, og det er blevet let at manipulere store grupper af mennesker. 

Ifølge en essay med titlen “Biases Make People Vulnerable to Misinformation Spread by Social Media,” publiceret af The Conversation, et netværk af nonprofit-medieudbydere, findes der tre typer af bias, der gør det sociale medie-økosystem sårbart over for bevidst og utilsigtet misinformation. Det er vigtigt at erkende, at det meste af vores nyheder nu kommer fra sociale medier. 

De tre typer af bias er: 

  1. Bias i hjernen: “Kognitive bias oprinder i måden, hvorpå hjernen processerer den information, som hver person møder hver dag.”
  2. Bias i samfundet: “Når mennesker forbinder sig direkte med deres ligemænd, kommer de sociale bias, der guider deres valg af venner, til at påvirke den information, de ser.
  3. Bias i maskinen: “Den tredje gruppe af bias opstår direkte fra algoritmernes brug til at bestemme, hvad mennesker ser online. Såvel sociale medieplatforme som søgemaskiner anvender dem.” 

Denne kombination af bias har skabt det perfekte miljø for dårlige aktører til at bruge vores nuværende nyhedsplatforme som en måde at sprede misinformation på. Men det er vigtigt at erkende, at bias også findes uden for dette område. Almindelige nyhedsrapporter og artikler risikerer at være biased på grund af en forfatters eller udgivelses egne bestemte tilbøjeligheder. Dette er ikke noget nyt. 

AI-løsninger for misinformation og bias

Opkomsten af kunstig intelligens har givet os mange nye og innovative værktøjer, der kan bruges til at bekæmpe misinformation og bias i nyhederne.

For eksempel kan AI, når det er designet korrekt, effektivt opdage og fjerne visse misinformation og andet problematisk indhold online. Det bruges allerede til at identificere fake-bots af selskaber som Google, Twitter og Facebook. Og fake-bots bruges ofte til at sprede misinformation og biased nyheder. 

Nye AI-rammer må udforskes for at bekæmpe dette problem, og eksisterende rammer må forbedres, da mange har vist sig at være problematiske. Disse problemer begynder at blive endnu farligere, når konflikter opstår. For eksempel fører militære konflikter, såsom den nuværende Rusland-Ukraine-konflikt, til en hurtig spredning af misinformation. 

Der er flere AI-drevne værktøjer på vej. For eksempel har NT CONNECT, en international teknologiudvikler, nyligt annonceret lanceringen af sin nyhedsaggregator-applikation, NOOZ.AI. Den AI-drevne sproganalyse-motor sigter mod at bringe gennemsigtighed til den polariserende bias, der findes i dagens nyhedsmedier. Den forsøger at opnå dette ved at holde læserne informerede om nyhedsmediernes indflydelse før læsningen af en artikel. 

“Forfattere eller journalister tenderer til at have en bestemt bias – ofte uden læserens viden,” siger virksomhedens pressemeddelelse. “Ved at kende forfatterens og nyheds-kilderens historiske bias kan forbrugerne undersøge artiklen med en mere objektiv sind og modstå at blive manipuleret til at tænke på en bestemt måde om et bestemt emne.” 

Værktøjet NOOZ.AI er bygget på fire nøglepiller: 

  • Opinion Analyse: Det hjælper læserne med at bestemme tilstedeværelsen af personlige følelser, synspunkter, overbevisninger eller domme i en journalists skrivning.
  • Sentiment Analyse: Værktøjet bruger sentiment-analyse til at hjælpe læserne med at bedømme en forfatters støtte eller modstand til den generelle nyhedsindhold eller et bestemt emne.
  • Propaganda Analyse: Det kan opdage potentiel desinformation ved at identificere brugen af op til 18 mulige overbevisnings-teknikker.
  • Revision Analyse: Læserne kan undersøge udviklingen af en nyhedsartikel og dens manipulation af mening og sentiment over tid. 

Appen giver score til hver artikel, med opinions-score fra 0 til 100 og sentiment-score fra -100 til 100. Den sporer også alle tekstændringer for hver revision og giver læserne mulighed for at sammenligne forskellige versioner. 

Ifølge Garry Paxinos, CTO hos NT CONNECT: 

“Biased rapportering er en stor bekymring i dagens samfund. Misinformation er det mest almindelige (mis)brugte buzzord. Men virkeligheden er, at sproget selv kan bruges til at manipulere og overbevise den almindelige læser. Ved at objektivt analyserer sproget undgår vi den subjektive bias, der findes i andre tilgange. I stedet for at subjektivt mærke misinformation som forkert, er vores tilgang at belyse, hvordan man kan blive manipuleret med overdrevne overskrifter, revisionshistorik og artikeltekst.”

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.