Thought leaders
In 2024 zullen Deepfakes mainstream worden. Hier volgt hoe bedrijven zichzelf kunnen beschermen

Sinds tenminste de verkiezingen van 2016, toen bezorgdheid over desinformatie de openbare bewustzijn binnendrong, hebben deskundigen gewaarschuwd voor deepfakes. De implicaties van deze technologie waren – en blijven – angstaanjagend. De ongecontroleerde verspreiding van hyperrealistische synthetische media vormt een bedreiging voor iedereen – van politici tot gewone mensen. In een ontvlambare omgeving die al wordt gekenmerkt door wijdverbreide wantrouwen, beloofden deepfakes de vlammen alleen maar verder aan te wakkeren.
Het blijkt dat onze angsten prematuur waren. De technische kennis die nodig is om deepfakes daadwerkelijk te maken, gecombineerd met hun vaak slechte kwaliteit, betekende dat voor tenminste de laatste twee verkiezingscycli ze een minimale zorg waren.
Maar al dit gaat veranderen – is al aan het veranderen. In de afgelopen twee jaar is generatieve AI-technologie mainstream geworden, waardoor het proces van het maken van deepfakes voor de gemiddelde consument radicaal is vereenvoudigd. Dezelfde innovaties hebben de kwaliteit van deepfakes aanzienlijk verbeterd, zodat de meeste mensen in een blind test niet in staat zouden zijn om een bewerkte video te onderscheiden van het echte artikel.
Dit jaar, vooral, zijn we begonnen te zien hoe deze technologie de samenleving kan beïnvloeden als er geen inspanningen worden geleverd om het te bestrijden. Vorig jaar, bijvoorbeeld, werd een AI-gegenereerde foto van Paus Franciscus met een ongebruikelijk stijlvolle jas viraal en werd door velen als authentiek beschouwd. Terwijl dit op het eerste gezicht misschien als een onschuldig grapje kan lijken, onthult het de gevaarlijke potentie van deze deepfakes en hoe moeilijk het kan zijn om desinformatie te stoppen zodra deze eenmaal begonnen is te verspreiden. We kunnen verwachten dat we in de komende maanden en jaren nog minder amusante – en gevaarlijkere – voorbeelden van dit soort virale nep-nieuws zullen vinden.
Om deze reden is het van cruciaal belang dat organisaties van alle soorten – van media tot financiën tot overheden tot socialemediaplatforms – een proactieve houding aannemen ten aanzien van deepfake-detectie en verificatie van inhoudsauthenticiteit. Een cultuur van vertrouwen via waarborgen moet nu worden gevestigd, voordat een vloedgolf van deepfakes onze gedeelde kennis van de realiteit kan wegspoelen.
Het deepfake-gevaar begrijpen
Voordat we ingaan op wat organisaties kunnen doen om deze golf van deepfakes te bestrijden, is het de moeite waard om uit te leggen waarom beveiligingstools nodig zijn. Typisch noemen degenen die zich zorgen maken over deepfakes het potentieel effect op de politiek en het maatschappelijk vertrouwen. Deze potentiële gevolgen zijn extreem belangrijk en mogen niet worden genegeerd in enig gesprek over deepfakes. Maar zoals het geval is, heeft de opkomst van deze technologie potentieel desastreuze gevolgen voor meerdere sectoren van de Amerikaanse economie.
Neem bijvoorbeeld verzekeringen. Op dit moment bedraagt de jaarlijkse verzekeringsfraude in de Verenigde Staten 308,6 miljard dollar – een bedrag dat ongeveer een kwart is van de hele industrie. Tegelijkertijd worden de back-end operaties van de meeste verzekeraars steeds meer geautomatiseerd, met 70% van de standaardclaims die tegen 2025 zonder menselijke tussenkomst worden verwacht. Dit betekent dat beslissingen steeds vaker worden genomen met minimale menselijke tussenkomst: selfservice aan de voorkant en AI-gefaciliteerde automatisering aan de achterkant.
Ironisch genoeg heeft de technologie die deze toename in automatisering mogelijk heeft gemaakt – namelijk machine learning en artificial intelligence – ervoor gezorgd dat deze wordt uitgebuit door slechte actoren. Het is nu gemakkelijker dan ooit voor de gemiddelde persoon om claims te manipuleren – bijvoorbeeld door generatieve AI-programma’s zoals Dall-E, Midjourney of Stable Diffusion te gebruiken om een auto er meer beschadigd uit te laten zien dan hij in werkelijkheid is. Er bestaan al apps specifiek voor dit doel, zoals Dude Your Car!, die gebruikers in staat stelt om kunstmatig deuken in foto’s van hun voertuigen te creëren.
Hetzelfde geldt voor officiële documenten, die nu gemakkelijk kunnen worden gemanipuleerd – met facturen, onderhandse taxaties en zelfs handtekeningen die al dan niet in zijn geheel zijn aangepast of zijn uitgevonden. Dit is een probleem niet alleen voor verzekeraars, maar voor de hele economie. Het is een probleem voor financiële instellingen, die de authenticiteit van een breed scala aan documenten moeten verifiëren. Het is een probleem voor retailers, die een klacht kunnen ontvangen dat een product defect is aangekomen, vergezeld van een vervalste afbeelding.
Bedrijven kunnen simpelweg niet functioneren met deze mate van onzekerheid. Een zekere mate van fraude is waarschijnlijk altijd onvermijdelijk, maar met deepfakes hebben we het niet over fraude aan de randen – we hebben het over een potentieel epistemologische catastrofe waarin bedrijven geen duidelijke manier hebben om waarheid van fictie te onderscheiden en uiteindelijk miljarden dollars verliezen door deze verwarring.
Vuur bestrijden met vuur: hoe AI kan helpen
Wat kan er dus worden gedaan om dit te bestrijden? Misschien niet verrassend, ligt het antwoord in de technologie die deepfakes mogelijk maakt. Als we deze plaag willen stoppen voordat deze meer momentum krijgt, moeten we vuur bestrijden met vuur. AI kan helpen bij het genereren van deepfakes – maar het kan ook, gelukkig, helpen bij het identificeren ervan op automatische en grote schaal.
Met de juiste AI-hulpmiddelen kunnen bedrijven automatisch bepalen of een bepaalde foto, video of document is gemanipuleerd. Door tientallen verschillende modellen in te zetten voor het identificeren van nep-inhoud, kan AI bedrijven automatisch vertellen of een bepaalde foto of video verdacht is. Net als de tools die bedrijven al inzetten om dagelijkse operaties te automatiseren, kunnen deze tools op de achtergrond draaien zonder overbelaste personeelsleden te belasten of tijd weg te nemen van belangrijke projecten.
Als en wanneer een foto als mogelijk vervalst wordt geïdentificeerd, kunnen menselijke medewerkers vervolgens worden gewaarschuwd en kunnen ze het probleem rechtstreeks evalueren, geholpen door de informatie die door de AI wordt verstrekt. Met behulp van diepe scansanalyse kan het bedrijven waarom het denkt dat een foto waarschijnlijk is gemanipuleerd – door bijvoorbeeld te wijzen op handmatig aangepaste metadata, het bestaan van identieke afbeeldingen op het web, verschillende fotografische onregelmatigheden, enz.
Niets van dit alles is bedoeld om de geweldige vooruitgang die we de afgelopen jaren in generatieve AI-technologie hebben gezien te bagatelliseren, die inderdaad nuttige en productieve toepassingen heeft in verschillende industrieën. Maar de kracht – en eenvoud – van deze opkomende technologie garandeert bijna haar misbruik door personen die organisaties willen manipuleren, hetzij voor persoonlijk gewin of om maatschappelijke chaos te zaaien.
Organisaties kunnen het beste van twee werelden hebben: de productiviteitsvoordelen van AI zonder de nadelen van alomtegenwoordige deepfakes. Maar om dit te doen, is een nieuw niveau van waakzaamheid vereist, vooral gezien het feit dat de uitvoer van generatieve AI alleen maar overtuigender, gedetailleerder en levendiger wordt met de dag. Hoe eerder organisaties hun aandacht richten op dit probleem, hoe eerder ze de volle voordelen van een geautomatiseerde wereld kunnen plukken.












