Verbind je met ons

Gedachte leiders

Deepfakes en navigeren door het nieuwe tijdperk van synthetische media

mm

Herinnert u zich "nepnieuws" nog? De term is inmiddels zo wijdverspreid (en misbruikt) dat het moeilijk is te onthouden waar het oorspronkelijk naar verwees. Maar het concept heeft een heel specifieke oorsprong. Tien jaar geleden begonnen journalisten alarm te slaan over een toestroom van zogenaamde "nieuwssites" die valse, vaak bizarre beweringen over politici en beroemdheden verspreidden. Velen zagen meteen dat deze sites illegaal waren.

Maar nog veel meer mensen misten de cruciale instrumenten om dit te onderkennen. Het resultaat was de eerste aanzet tot een epistemologische crisis die nu het internet begint te overspoelen – een crisis die zijn meest angstaanjagende manifestatie heeft bereikt met de opkomst van internet. deepfakes.

Op zelfs een redelijke deepfake na, lijken de “nepnieuws”-websites van weleer tam. Erger nog: zelfs degenen die denken dat ze over een relatief hoog niveau van mediageletterdheid beschikken, lopen het risico voor de gek gehouden te worden. Synthetische media gemaakt met behulp van diepe leeralgoritmen en generatieve AI hebben het potentieel om grote schade aan te richten aan de fundamenten van onze samenleving. Volgens Deloitte kunnen ze bedrijven dit jaar alleen al meer dan 250 miljoen dollar kosten door neptransacties en andere vormen van fraude. Ondertussen heeft het World Economic Forum deepfakes “een van de meest zorgwekkende toepassingen van AI” genoemd, wijzend op het potentieel van “agendagestuurde, real-time AI-chatbots en avatars” om nieuwe vormen van ultra-gepersonaliseerde (en ultra- effectieve) manipulatie.

Het door het WEF voorgestelde antwoord op dit probleem is verstandig: zij pleiten voor een “zero-trust-mentaliteit”, een die een zekere mate van scepsis met zich meebrengt bij elke ontmoeting met digitale media. Als we in de toekomst onderscheid willen maken tussen authentiek en synthetisch – vooral in meeslepende onlineomgevingen – zal een dergelijke mentaliteit steeds belangrijker worden.

Twee benaderingen om de deepfake-crisis te bestrijden

Het bestrijden van ongebreidelde disinformatie die door synthetische media worden gekweekt, vereisen naar mijn mening twee verschillende benaderingen.

De eerste betreft verificatie: het bieden van een eenvoudige manier voor gewone internetgebruikers om te bepalen of de video die ze bekijken daadwerkelijk authentiek is. Dergelijke tools zijn al wijdverbreid in sectoren zoals verzekeringen, gezien de mogelijkheid dat kwaadwillenden valse claims indienen met behulp van gemanipuleerde video's, foto's en documenten. Het democratiseren van deze tools – ze gratis en gemakkelijk toegankelijk maken – is een cruciale eerste stap in deze strijd, en we zien al aanzienlijke vooruitgang op dit front.

De tweede stap is minder technologisch van aard en dus een grotere uitdaging: namelijk het vergroten van het bewustzijn en het stimuleren van kritisch denkvermogen. Na het oorspronkelijke "nepnieuws"-schandaal in 2015 hebben non-profitorganisaties in het hele land programma's voor mediawijsheid opgezet en gewerkt aan de verspreiding van best practices, vaak in samenwerking met lokale maatschappelijke instellingen om gewone burgers in staat te stellen onwaarheden te herkennen. Natuurlijk is ouderwets "nepnieuws" kinderspel vergeleken met de meest geavanceerde deepfakes. Daarom moeten we onze inspanningen op dit vlak verdubbelen en investeren in educatie op elk niveau.

Geavanceerde deepfakes vereisen geavanceerd kritisch denken

Natuurlijk waren deze educatieve initiatieven iets gemakkelijker te ondernemen als de desinformatie in kwestie op tekst was gebaseerd. Bij nepnieuwssites waren de veelbetekenende tekenen van fraude vaak duidelijk: slordig webontwerp, welig tierende typefouten, bizarre bronnen. Bij deepfakes zijn de signalen veel subtieler – en vaak niet op het eerste gezicht op te merken.

Dienovereenkomstig moeten internetgebruikers van alle leeftijden zichzelf effectief herscholen om digitale video nauwkeurig te onderzoeken op deepfake-indicatoren. Dat betekent dat je goed moet letten op een aantal factoren. Voor video kan dat onwerkelijk lijkende wazige gebieden en schaduwen betekenen; onnatuurlijk ogende gezichtsbewegingen en -uitdrukkingen; te perfecte huidtinten; inconsistente patronen in kleding en bewegingen; lipsynchronisatiefouten; aan en uit. Voor audio kan dat stemmen betekenen die te zuiver klinken (of duidelijk gedigitaliseerd), een gebrek aan een menselijk aanvoelende emotionele toon, vreemde spraakpatronen of ongebruikelijke frasering.

Op de korte termijn kan dit soort zelftraining zeer nuttig zijn. Door onszelf keer op keer af te vragen: Ziet dit er verdacht uit?, scherpen we niet alleen ons vermogen om deepfakes te detecteren, maar ook ons ​​kritisch denkvermogen in het algemeen. Dat gezegd hebbende, naderen we snel een punt waarop zelfs het best geoefende oog niet in staat zal zijn feit van fictie te scheiden zonder hulp van buitenaf. De visuele informatie – de hierboven genoemde onregelmatigheden – zullen technologisch worden gladgestreken, zodat volledig vervaardigde clips niet meer te onderscheiden zijn van het echte artikel. Wat we zullen overhouden is onze situationele intuïtie – ons vermogen om onszelf vragen te stellen als: Zou die en die politicus of beroemdheid dat echt zeggen? Is de inhoud van deze video plausibel?

Het is in deze context dat AI-detectieplatforms zo essentieel worden. Nu het blote oog irrelevant is geworden voor deepfake-detectiedoeleinden, kunnen deze platforms dienen als definitieve scheidsrechters van de werkelijkheid – vangrails tegen de epistemologische afgrond. Wanneer een video er echt uitziet, maar op de een of andere manier verdacht lijkt – zoals de komende maanden en jaren steeds vaker zal gebeuren – kunnen deze platforms ons op de feiten houden door de basiswaarheid te bevestigen van waar we ook naar kijken. Uiteindelijk, met deze krachtige technologie, is AI zelf het enige dat ons kan redden. We moeten vuur met vuur bestrijden – wat betekent dat we goede AI moeten gebruiken om de ergste misbruiken van de technologie uit te roeien.

Het verwerven van deze vaardigheden hoeft echt geen cynisch of negatief proces te zijn. Het ontwikkelen van een zero-trust mindset kan juist gezien worden als een kans om je kritisch denkvermogen, intuïtie en bewustzijn te verscherpen. Door jezelf steeds weer bepaalde belangrijke vragen te stellen – Klopt dit? Is dit verdacht? – vergroot je je vermogen om niet alleen nepmedia, maar de hele wereld te confronteren. Als er een lichtpuntje is aan het deepfake-tijdperk, dan is dit het wel. We worden gedwongen om zelf na te denken en empirischer te worden in ons dagelijks leven – en dat kan alleen maar goed zijn.

Nicos Vekiarides is de CEO en mede-oprichter van attestiv. Hij heeft de afgelopen twintig jaar als CEO en ondernemer gewerkt in enterprise IT en cloud, waarbij hij innovatieve nieuwe technologieën op de markt heeft gebracht. Zijn vorige startup, TwinStrata, een innovatief cloudopslagbedrijf waar hij pionierde op het gebied van cloud-geïntegreerde opslag voor ondernemingen, werd in 20 overgenomen door EMC. Daarvoor bracht hij het eerste opslagvirtualisatie-apparaat in de sector op de markt voor StorageApps, een bedrijf dat later werd overgenomen door PK.