Connect with us

AI Browser-værktøjer sigter mod at genkende Deepfakes og anden falsk medie

Kunstig intelligens

AI Browser-værktøjer sigter mod at genkende Deepfakes og anden falsk medie

mm

Bevægelserne fra tech-virksomheder for at tackle misinformations- og falsk indhold-kampagner er gået i højeste gear i nyere tid, da avanceret falsk indholdsgenereringsteknologier som DeepFakes bliver lettere at bruge og mere raffineret. En kommende forsøg på at hjælpe mennesker med at opdage og bekæmpe deepfakes er RealityDefender, produceret af the AI Foundation, som har forpligtet sig til at udvikle etiske AI-agenter og -assistenter, som brugerne kan træne til at udføre forskellige opgaver.

The AI Foundations mest bemærkelsesværdige projekt er en platform, der giver mennesker mulighed for at skabe deres egne digitale personaer, der ligner dem og repræsenterer dem i virtuelle samlinger. The AI Foundation overvåges af Global AI Council, og som en del af deres mandat må de forudse de mulige negative virkninger af AI-platforme, og derefter forsøge at komme før disse problemer. Som rapporteret af VentureBeat, er en af de værktøjer, som the AI Foundation har skabt til at hjælpe med at opdage deepfakes, kaldet Reality Defender. Reality Defender er et værktøj, som en person kan bruge i deres webbrowser (kontroller på det), som vil analysere video, billeder og andre typer medier for at opdage tegn på, at mediet er blevet fabrikeret eller ændret på en eller anden måde. Det håbes, at værktøjet vil hjælpe med at modvirke den øgede strøm af deepfakes på internettet, som ifølge visse estimater er næsten fordoblet over de sidste seks måneder.

Reality Defender fungerer ved at anvende en række AI-baserede algoritmer, der kan opdage tegn på, at et billede eller en video måske er blevet fabrikeret. De AI-modeller, der opdager subtile tegn på bedrag og manipulation, og de falske positiver, som modellen opdager, bliver markeret som forkerte af brugerne af værktøjet. Dataene bliver derefter brugt til at genskole modellen. AI-virksomheder, der skaber ikke-bedrageriske deepfakes, får deres indhold mærket med en “ærlig AI”-mærke eller vandmærke, der giver mennesker mulighed for at let identificere de AI-genererede fabrikater.

Reality Defender er kun ét af en række værktøjer og en hel AI-ansvarlighedsplatform, som the AI Foundation forsøger at skabe. The AI Foundation forsøger at skabe Guardian AI, en ansvarlighedsplatform bygget på principperne om, at individer skal have adgang til personlige AI-agenter, der arbejder for dem, og som kan hjælpe med at beskytte dem mod udnyttelse af dårlige aktører. I virkeligheden forsøger the AI Foundation både at udvide AI’s rækkevidde i samfundet, bringe det til flere mennesker, og samtidig beskytte mod risikoen for AI.

Reality Defender er ikke det eneste nye AI-drevne produkt, der sigter mod at reducere misinformationskampagner i USA. Et lignende produkt kaldes SurfSafe, som er skabt af to studerende fra UC Berkeley, Rohan Phadte og Ash Bhat. Ifølge The Verge, fungerer SurfSafe ved at give brugerne mulighed for at klikke på et stykke medie, som de er nysgerrige om, og programmet vil udføre en omvendt billedsøgning og forsøge at finde lignende indhold fra forskellige troværdige kilder på internettet, og markere billeder, der er kendt for at være manipuleret.

Det er uklart, hvor effektive disse løsninger vil være på længere sigt. Dartmouth College-professoren og retsmediciner Hany Farid blev citeret af The Verge som siger, at han er “ekstremt skeptisk” over for, at planer som Reality Defender vil fungere på en meningsfuld måde. Farid forklarede, at en af de væsentlige udfordringer ved at opdage falsk indhold er, at mediet ikke er rent falsk eller ægte. Farid forklarede:

“Der er en kontinuum; en utrolig kompleks række af problemer at tackle. Nogle ændringer er meningsløse, og nogle ændrer grundlæggende karakteren af et billede. At prætende, at vi kan træne en AI til at spotte forskellen, er utrolig naivt. Og at prætende, at vi kan crowdsourcet er endnu mere så.”

Desuden er det svært at inkludere crowdsourcing-elementer, såsom markering af falske positiver, fordi mennesker typisk er ret dårlige til at identificere falske billeder. Mennesker begår ofte fejl og mangler subtile detaljer, der markerer et billede som falsk. Det er også uklart, hvordan man skal tackle dårlige aktører, der troler, når de markerer indhold.

Det ser sandsynligt ud, at for at være maksimalt effektive, vil fake-detektionsværktøjer skulle kombineres med digitale litteracitetsindsats, der lærer mennesker, hvordan de skal resonere om det indhold, de interagerer med på nettet.

Blogger og programmør med specialer i Machine Learning og Deep Learning emner. Daniel håber at hjælpe andre med at bruge AI's kraft til sociale formål.