stomp Wat zijn deepfakes? - Verenig AI
Verbind je met ons

AI 101

Wat zijn deepfakes?

mm
Bijgewerkt on

Naarmate deepfakes gemakkelijker te maken en productiever worden, wordt er meer aandacht aan besteed. Deepfakes zijn het middelpunt geworden van discussies over AI-ethiek, desinformatie, openheid van informatie en internet, en regelgeving. Het loont de moeite om geïnformeerd te zijn over deepfakes en een intuïtief begrip te hebben van wat deepfakes zijn. Dit artikel zal de definitie van deepfakes verduidelijken, de gebruiksscenario's ervan onderzoeken, bespreken hoe deepfakes kunnen worden gedetecteerd en de implicaties van deepfakes voor de samenleving onderzoeken.

Wat zijn deepfakes?

Voordat we verder gaan met het bespreken van deepfakes, zou het nuttig zijn om wat tijd te nemen en opheldering te geven wat "deepfakes" eigenlijk zijn. Er bestaat veel verwarring over de term deepfake, en vaak wordt de term verkeerd toegepast op vervalste media, ongeacht of het een echte deepfake is of niet. Om in aanmerking te komen als een deepfake, moeten de vervalste media in kwestie worden gegenereerd met een machine-learningsysteem, met name een diep neuraal netwerk.

Het belangrijkste ingrediënt van deepfakes is machinaal leren. Machine learning heeft het voor computers mogelijk gemaakt om relatief snel en eenvoudig automatisch video en audio te genereren. Diepe neurale netwerken worden getraind op beelden van een echte persoon, zodat het netwerk kan leren hoe mensen eruit zien en bewegen onder de beoogde omgevingsomstandigheden. Het getrainde netwerk wordt vervolgens gebruikt op afbeeldingen van een ander individu en aangevuld met aanvullende grafische computertechnieken om de nieuwe persoon te combineren met de originele beelden. Er wordt een codeeralgoritme gebruikt om de overeenkomsten tussen het oorspronkelijke vlak en het doelvlak te bepalen. Zodra de gemeenschappelijke kenmerken van de gezichten zijn geïsoleerd, wordt een tweede AI-algoritme, een decoder genaamd, gebruikt. De decoder onderzoekt de gecodeerde (gecomprimeerde) afbeeldingen en reconstrueert ze op basis van de kenmerken in de originele afbeeldingen. Er worden twee decoders gebruikt, één op het gezicht van het oorspronkelijke onderwerp en de tweede op het gezicht van de beoogde persoon. Om de uitwisseling uit te voeren, krijgt de decoder die is getraind op afbeeldingen van persoon X afbeeldingen van persoon Y toegevoerd. Het resultaat is dat het gezicht van persoon Y een reconstructie is van de gezichtsuitdrukkingen en oriëntatie van persoon X.

Momenteel duurt het nog behoorlijk lang voordat een deepfake gemaakt is. De maker van de vervalsing moet veel tijd besteden aan het handmatig aanpassen van parameters van het model, aangezien suboptimale parameters zullen leiden tot merkbare onvolkomenheden en beeldstoringen die de ware aard van de vervalsing verraden.

Hoewel vaak wordt aangenomen dat de meeste deepfakes worden gemaakt met een soort neuraal netwerk dat a generatief vijandig netwerk (GAN), veel (misschien wel de meeste) deepfakes die tegenwoordig worden gemaakt, zijn niet afhankelijk van GAN's. Hoewel GAN's een prominente rol speelden bij het maken van vroege deepfakes, worden de meeste deepfake-video's gemaakt met alternatieve methoden, volgens Siwei Lyu van SUNY Buffalo.

Er is een onevenredig grote hoeveelheid trainingsgegevens nodig om een ​​GAN te trainen, en GAN's doen er vaak veel langer over om een ​​afbeelding weer te geven in vergelijking met andere technieken voor het genereren van afbeeldingen. GAN's zijn ook beter voor het genereren van statische beelden dan video, omdat GAN's moeite hebben om de consistentie van frame tot frame te behouden. Het is veel gebruikelijker om een ​​encoder en meerdere decoders te gebruiken om deepfakes te maken.

Waar worden deepfakes voor gebruikt?

Veel van de online gevonden deepfakes zijn pornografisch van aard. Volgens onderzoek van Deeptrace, een AI-bedrijf, was uit een steekproef van ongeveer 15,000 deepfake-video's die in september 2019 werden gemaakt, ongeveer 95% van hen pornografisch van aard. Een verontrustende implicatie van dit feit is dat naarmate de technologie gebruiksvriendelijker wordt, incidenten van nep-wraakporno kunnen toenemen.

Niet alle deepfakes zijn echter pornografisch van aard. Er zijn meer legitieme toepassingen voor deepfake-technologie. Audio-deepfake-technologie kan mensen helpen hun normale stem uit te zenden nadat ze zijn beschadigd of verloren zijn gegaan door ziekte of letsel. Deepfakes kunnen ook worden gebruikt om de gezichten te verbergen van mensen die zich in gevoelige, potentieel gevaarlijke situaties bevinden, terwijl hun lippen en uitdrukkingen nog steeds kunnen worden gelezen. Deepfake-technologie kan mogelijk worden gebruikt om de nasynchronisatie van films in een vreemde taal te verbeteren, te helpen bij het repareren van oude en beschadigde media en zelfs om nieuwe kunststijlen te creëren.

Niet-video-deepfakes

Hoewel de meeste mensen aan nepvideo's denken als ze de term 'deepfake' horen, zijn nepvideo's zeker niet de enige soort nepmedia die met deepfake-technologie worden geproduceerd. Deepfake-technologie wordt ook gebruikt om vervalsingen van foto's en audio te maken. Zoals eerder vermeld, worden GAN's vaak gebruikt om nepafbeeldingen te genereren. Er wordt gedacht dat er veel gevallen zijn geweest van valse LinkedIn- en Facebook-profielen met profielafbeeldingen die zijn gegenereerd met deepfake-algoritmen.

Het is ook mogelijk om audio-deepfakes te maken. Diepe neurale netwerken zijn getraind om stemklonen/stemhuiden van verschillende mensen te produceren, waaronder beroemdheden en politici. Een beroemd voorbeeld van een audio-deepfake is wanneer het AI-bedrijf Dessa gebruik gemaakt van een AI-model, ondersteund door niet-AI-algoritmen, om de stem van de podcast-host Joe Rogan na te bootsen.

Hoe u deepfakes kunt herkennen

Naarmate deepfakes steeds geavanceerder worden, zal het steeds moeilijker worden om ze te onderscheiden van echte media. Momenteel zijn er een paar veelbetekenende signalen mensen kunnen zoeken om vast te stellen of een video mogelijk een deepfake is, zoals slechte lipsynchronisatie, onnatuurlijke bewegingen, flikkering rond de rand van het gezicht en kromtrekken van fijne details zoals haar, tanden of reflecties. Andere mogelijke tekenen van een deepfake zijn delen van dezelfde video van mindere kwaliteit en onregelmatig knipperen van de ogen.

Hoewel deze signalen op dit moment kunnen helpen om een ​​deepfake te herkennen, kan de enige optie voor betrouwbare deepfake-detectie, naarmate de deepfake-technologie verbetert, andere soorten AI zijn die zijn getraind om vervalsingen van echte media te onderscheiden.

Bedrijven op het gebied van kunstmatige intelligentie, waaronder veel van de grote technologiebedrijven, onderzoeken methoden om deepfakes op te sporen. Afgelopen december is een deepfake-detectie-challenge gestart, ondersteund door drie techreuzen: Amazon, Facebook en Microsoft. Onderzoeksteams van over de hele wereld werkten aan methoden om deepfakes op te sporen, waarbij ze met elkaar wedijverden om de beste detectiemethoden te ontwikkelen. Andere groepen onderzoekers, zoals een groep gecombineerde onderzoekers van Google en Jigsaw, werken aan een soort "gezichtsonderzoek" dat video's kan detecteren die zijn gewijzigd, hun datasets open source maken en anderen aanmoedigen om deepfake-detectiemethoden te ontwikkelen. De bovengenoemde Dessa heeft gewerkt aan het verfijnen van deepfake-detectietechnieken, in een poging ervoor te zorgen dat de detectiemodellen werken op deepfake-video's die in het wild worden gevonden (op internet) in plaats van alleen op vooraf samengestelde trainings- en testdatasets, zoals de open-source dataset Google verstrekt.

Er zijn ook andere strategieën die worden onderzocht om de verspreiding van deepfakes aan te pakken. Het controleren van video's op overeenstemming met andere informatiebronnen is bijvoorbeeld een strategie. Er kan worden gezocht naar video's van gebeurtenissen die mogelijk vanuit andere hoeken zijn genomen, of achtergronddetails van de video (zoals weerpatronen en locaties) kunnen worden gecontroleerd op ongerijmdheden. Achter dit, een Blockchain online grootboeksysteem video's kunnen registreren wanneer ze voor het eerst worden gemaakt, met behoud van hun originele audio en afbeeldingen, zodat afgeleide video's altijd kunnen worden gecontroleerd op manipulatie.

Uiteindelijk is het belangrijk dat er betrouwbare methoden voor het detecteren van deepfakes worden gecreëerd en dat deze detectiemethoden gelijke tred houden met de nieuwste ontwikkelingen op het gebied van deepfake-technologie. Hoewel het moeilijk is om precies te weten wat de effecten van deepfakes zullen zijn, als er geen betrouwbare methoden zijn om deepfakes (en andere vormen van nepmedia) op te sporen, kan desinformatie welig tieren en het vertrouwen van mensen in de samenleving en instellingen aantasten.

Gevolgen van deepfakes

Wat zijn de gevaren als deep fake zich ongecontroleerd laat verspreiden?

Een van de grootste problemen die deepfakes momenteel veroorzaken, is pornografie zonder wederzijds goedvinden, ontwikkeld door de gezichten van mensen te combineren met pornografische video's en afbeeldingen. AI-ethici maken zich zorgen dat deepfakes meer zullen worden gebruikt bij het maken van nep-wraakporno. Daarnaast kunnen deepfakes worden gebruikt om de reputatie van vrijwel iedereen te pesten en te schaden, omdat ze kunnen worden gebruikt om mensen in controversiële en compromitterende scenario's te plaatsen.

Bedrijven en cyberbeveiligingsspecialisten hebben hun bezorgdheid geuit over het gebruik van deepfakes om oplichting, fraude en afpersing mogelijk te maken. Naar verluidt is deepfake audio geweest gebruikt om medewerkers te overtuigen van een bedrijf om geld over te maken naar oplichters

Het is mogelijk dat deepfakes schadelijke effecten kunnen hebben die verder gaan dan de hierboven genoemde. Deepfakes kunnen mogelijk het vertrouwen van mensen in de media in het algemeen aantasten en het voor mensen moeilijk maken om onderscheid te maken tussen echt nieuws en nepnieuws. Als veel video's op internet nep zijn, wordt het voor overheden, bedrijven en andere entiteiten gemakkelijker om twijfel te zaaien over legitieme controverses en onethische praktijken.

Bij overheden kunnen deepfakes zelfs een bedreiging vormen voor de werking van de democratie. Democratie vereist dat burgers weloverwogen beslissingen over politici kunnen nemen op basis van betrouwbare informatie. Verkeerde informatie ondermijnt democratische processen. Zo verscheen de president van Gabon, Ali Bongo, in een video die probeerde de Gabon-burgers gerust te stellen. Er werd aangenomen dat de president lange tijd onwel was, en zijn plotselinge verschijning in een waarschijnlijk nepvideo was het begin van een poging tot staatsgreep. President Donald Trump beweerde dat een audio-opname van hem opschepte over het grijpen van vrouwen bij de geslachtsdelen was nep, ondanks dat het ook wordt beschreven als "kleedkamerpraat". Prins Andrew ook beweerde dat een afbeelding van de advocaat van Emily Maitilis nep was, hoewel de advocaat aandrong op de authenticiteit ervan.

Hoewel er legitieme toepassingen zijn voor deepfake-technologie, zijn er uiteindelijk veel potentiële schade die kunnen voortvloeien uit het misbruik van die technologie. Om die reden is het uitermate belangrijk dat methoden worden gecreëerd en onderhouden om de authenticiteit van media te bepalen.

Blogger en programmeur met specialiteiten in Machine leren en Diepe leren onderwerpen. Daniel hoopt anderen te helpen de kracht van AI te gebruiken voor maatschappelijk welzijn.