Connect with us

AI Browser Tools Aan Het Doel Om Deepfakes en Andere Valse Media Te Erkennen

Kunstmatige intelligentie

AI Browser Tools Aan Het Doel Om Deepfakes en Andere Valse Media Te Erkennen

mm

Inspanningen van technologiebedrijven om desinformatie en valse inhoud aan te pakken, zijn in de afgelopen tijd in een hogere versnelling gegaan, aangezien geavanceerde technologieën voor het genereren van valse inhoud, zoals DeepFakes, gemakkelijker te gebruiken en verfijnder worden. Een aanstaande poging om mensen te helpen diep vervalsingen te detecteren en te bestrijden, is RealityDefender, geproduceerd door de AI Foundation, die zich heeft verbonden aan de ontwikkeling van ethische AI-agents en -assistenten die gebruikers kunnen trainen om verschillende taken uit te voeren.

De AI Foundation’s meest opvallende project is een platform dat mensen in staat stelt om hun eigen digitale persona’s te creëren die op hen lijken en hen vertegenwoordigen in virtuele ontmoetingsruimten. De AI Foundation wordt beheerd door de Global AI Council en als onderdeel van hun mandaat moeten ze de mogelijke negatieve gevolgen van AI-platforms anticiperen en dan proberen om deze problemen voor te blijven. Volgens VentureBeat, een van de tools die de AI Foundation heeft gecreëerd om te helpen bij het detecteren van diep vervalsingen, heet Reality Defender. Reality Defender is een tool die een persoon in zijn webbrowser kan gebruiken (controleer dat), die video’s, afbeeldingen en andere soorten media zal analyseren om tekenen te detecteren dat de media is vervalst of op de een of andere manier is gewijzigd. Het is de bedoeling dat de tool zal helpen om het toenemende aantal diep vervalsingen op internet tegen te gaan, dat volgens sommige schattingen in de loop van de afgelopen zes maanden ongeveer is verdubbeld.

Reality Defender werkt door het gebruik van een verscheidenheid aan AI-gebaseerde algoritmen die hints kunnen detecteren die aangeven dat een afbeelding of video mogelijk is vervalst. De AI-modellen detecteren subtiele tekenen van bedrog en manipulatie, en de valse positieven die het model detecteert, worden door de gebruikers van de tool als onjuist gelabeld. De gegevens worden vervolgens gebruikt om het model opnieuw te trainen. AI-bedrijven die niet-misleidende diep vervalsingen creëren, hebben hun inhoud voorzien van een “eerlijke AI”-tag of watermerk dat mensen in staat stelt om de AI-gegenereerde vervalsingen gemakkelijk te identificeren.

Reality Defender is slechts een van een reeks tools en een hele AI-verantwoordelijkheidsplatform dat de AI Foundation probeert te creëren. De AI Foundation streeft naar de creatie van Guardian AI, een verantwoordelijkheidsplatform dat is gebaseerd op het principe dat individuen toegang moeten hebben tot persoonlijke AI-agents die voor hen werken en die kunnen helpen om hun exploitatie door slechte actoren te beschermen. In wezen probeert de AI Foundation zowel de reikwijdte van AI in de samenleving uit te breiden, door het tot meer mensen te brengen, als ook om de risico’s van AI te beschermen.

Reality Defender is niet het enige nieuwe AI-gestuurde product dat zich richt op het verminderen van desinformatie in de Verenigde Staten. Een soortgelijk product heet SurfSafe, dat is gecreëerd door twee undergraduate studenten van UC Berkeley, Rohan Phadte en Ash Bhat. Volgens The Verge, werkt SurfSafe door zijn gebruikers in staat te stellen om op een stuk media te klikken waar ze nieuwsgierig naar zijn en het programma zal een omgekeerde afbeeldingszoekopdracht uitvoeren en proberen om soortgelijke inhoud van verschillende vertrouwde bronnen op internet te vinden, waarbij afbeeldingen die bekend zijn als vervalst, worden gemarkeerd.

Het is onduidelijk hoe effectief deze oplossingen op lange termijn zullen zijn. Hany Farid, professor aan Dartmouth College en forensisch expert, werd door The Verge geciteerd als zeggende dat hij “extreem sceptisch” is dat systemen zoals Reality Defender op een betekenisvolle manier zullen werken. Farid legde uit dat een van de belangrijkste uitdagingen bij het detecteren van valse inhoud is dat media niet puur vals of echt is. Farid legde uit:

“Er is een continuüm; een ontzettend complexe reeks problemen om mee om te gaan. Sommige veranderingen zijn betekenisloos, en sommige veranderen fundamenteel de aard van een afbeelding. Het voorwenden dat we een AI kunnen trainen om het verschil te zien, is ontzettend naïef. En het voorwenden dat we het kunnen crowdsourcen, is nog naïever.”

Bovendien is het moeilijk om crowdsourcings-elementen op te nemen, zoals het labelen van valse positieven, omdat mensen over het algemeen niet goed zijn in het identificeren van valse afbeeldingen. Mensen maken vaak fouten en missen subtiele details die een afbeelding als vals markeren. Het is ook onduidelijk hoe om te gaan met slechte actoren die trollen wanneer ze inhoud markeren.

Het lijkt waarschijnlijk dat, om maximaal effectief te zijn, tools voor het detecteren van vervalsingen moeten worden gecombineerd met digitale geletterdheidsefforts die mensen leren hoe ze moeten redeneren over de inhoud die ze online tegenkomen.

Blogger en programmeur met specialisaties in Machine Learning en Deep Learning onderwerpen. Daniel hoopt anderen te helpen de kracht van AI te gebruiken voor het sociale goede.