Kunstig intelligens
AI-nettlesereverktøy sikter på å gjenkjenne Deepfakes og andre falske medier

Fremstøtene fra teknologiselskaper for å takle desinformasjon og falsk innhold har gått i høyeste gir i nyere tid, da sofistikerte teknologier for generering av falsk innhold, som DeepFakes, blir enklere å bruke og mer avanserte. En kommende forsøk på å hjelpe mennesker å oppdage og bekjempe deepfakes er RealityDefender, produsert av the AI Foundation, som har viet seg til å utvikle etiske AI-agenter og -assistenter som brukerne kan trene til å fullføre ulike oppgaver.
The AI Foundations mest bemerkelsesverdige prosjekt er en plattform som lar mennesker opprette sine egne digitale personligheter som ligner på dem og representerer dem i virtuelle møtesteder. The AI Foundation overvåkes av Global AI Council, og som en del av deres mandat, må de forutse mulige negative konsekvenser av AI-plattformer, og så prøve å komme foran disse problemene. Som rapportert av VentureBeat, ett av verktøyene som the AI Foundation har laget for å assistere i oppdaging av deepfakes, er kalt Reality Defender. Reality Defender er et verktøy som en person kan bruke i sin nettleser (sjekk på det), som vil analysere video, bilder og andre typer medier for å oppdage tegn på at mediene er blitt forfalsket eller endret på noen måte. Det håpes at verktøyet vil hjelpe til å motvirke den økende strømmen av deepfakes på internettet, som ifølge noen estimater har omtrent doblet seg over de siste seks månedene.
Reality Defender opererer ved å bruke en rekke AI-baserte algoritmer som kan oppdage hint om at et bilde eller en video kan være forfalsket. AI-modellene oppdager subtile tegn på triks og manipulasjon, og de falske positivene modellen oppdager, blir merket som feil av brukerne av verktøyet. Dataene brukes deretter til å trenere modellen på nytt. AI-selskaper som lager ikke-deceptive deepfakes, får sine innhold merket med en “ærlig AI”-tag eller vannmerke som lar mennesker lett gjenkjenne de AI-genererte forfalskningene.
Reality Defender er bare ett av en rekke verktøy og en hel AI-ansvar-plattform som the AI Foundation prøver å lage. The AI Foundation prøver å lage Guardian AI, en ansvar-plattform bygget på premissen om at enkeltpersoner bør ha tilgang til personlige AI-agenter som arbeider for dem og som kan hjelpe til å beskytte dem mot utnyttelse av dårlige aktører. I essensen prøver the AI Foundation å både utvide AI-sammenhengen i samfunnet, bringe det til flere mennesker, samtidig som de beskytter mot risikoen av AI.
Reality Defender er ikke det eneste nye AI-drevne produkt som sikter på å redusere desinformasjon i USA. Et lignende produkt er kalt SurfSafe, som ble laget av to studenter fra UC Berkeley, Rohan Phadte og Ash Bhat. Ifølge The Verge, opererer SurfSafe ved å la brukerne klikke på et stykke medie som de er nysgjerrige på, og programmet vil utføre en omvendt bilde-søk og prøve å finne lignende innhold fra forskjellige pålitelige kilder på internettet, og merke bilder som er kjent for å være forfalsket.
Det er uklart hvor effektive disse løsningene vil være på lang sikt. Dartmouth College-professor og forensisk ekspert Hany Farid ble sitert av The Verge som sa at han er “ekstremt skeptisk” til at planer som Reality Defender vil fungere på en meningsfull måte. Farid forklarte at en av de største utfordringene med å oppdage falsk innhold er at mediene ikke er rent falske eller ekte. Farid forklarte:
“Det er en kontinuum; en usedvanlig kompleks rekke av problemer å håndtere. Noen endringer er meningsløse, og noen endrer fundamentalt naturen til et bilde. Å påstå at vi kan trene en AI til å oppdage forskjellen er usedvanlig naivt. Og å påstå at vi kan crowdsourcet det er enda mer så.”
Det er videre uklart hvordan man skal håndtere crowdsourcing-elementer, som merking av falske positiver, fordi mennesker vanligvis er ganske dårlige til å identifisere falske bilder. Mennesker gjør ofte feil og overse subtile detaljer som markerer et bilde som falskt. Det er også uklart hvordan man skal håndtere dårlige aktører som troller når de merker innhold.
Det ser ut til at, for å være maksimalt effektive, verktøy for å oppdage falsk innhold må kombineres med digitale litteracitetsinnsats som lærer mennesker hvordan de skal resonnere om innholdet de interagerer med på nettet.












