Wat is deepfake en hoe herken je nepvideo's?
Van foto’s is algemeen bekend dat ze eenvoudig te manipuleren zijn. Voor bewegend beeld was dat altijd lastiger. Toch is het dankzij deep learning, neurale netwerken en toenemende rekenkracht tegenwoordig relatief eenvoudig om iemands hoofd op een ander persoon te monteren, zelfs met beweging. Wat is deepfake en kunnen we videobeelden überhaupt nog wel vertrouwen?
Wellicht ken je de smartphone-apps FaceApp en FaceSwap wel. De eerste, die onder meer een oudere versie van een persoon kan genereren, was onlangs in het nieuws omdat het gezichtskenmerken op Russische servers zou opslaan. De tweede is een app waarmee je gezichten kunt wisselen – dus bijvoorbeeld dat van je buurman op dat van jou en andersom. Dat laatste kan ook al jaren met Snapchat, dat zich tevens heeft gespecialiseerd in allerlei andere effecten, zoals het opzetten van een hippe virtuele bril of de achtergrond die verandert in een tropisch eiland.
Processors zijn tegenwoordig zo krachtig dat vrijwel elke smartphone realtime dergelijke videobeelden kan genereren. Het effect is leuk en zo is het ook bedoeld. En hoewel het soms indrukwekkende resultaten biedt, is het meestal overduidelijk nep.
Bij deepfake-video’s is dat niet meer vanzelfsprekend het geval. Het resultaat ziet er akelig realistisch uit en is soms met het blote oog niet van echt te onderscheiden. In Hollywoodfilms wordt deze techniek al langer gebruikt, maar tot voor kort waren daar zeer dure en krachtige workstations voor nodig, evenals complexe software. Zo zagen we in Terminator Genisys een oude en nieuwe versie van Arnold Schwarzenegger (oftewel de T-800) tegen elkaar vechten. Een 67-jarige Arnold tegen de 37-jarige Arnold uit 1984 dus. Die laatste was natuurlijk niet echt, maar digitaal gerenderd op basis van de originele beelden uit de eerste Terminator-film. In de film Gemini Man zien we vrijwel exact dezelfde situatie: Will Smith loopt een jongere versie van zichzelf tegen het lijf die zijn vijand blijkt.
Digitaal spelen met leeftijden is echter een trend. Eerder zagen we ook al een 25 jaar jongere Samuel L. Jackson als ‘jonge’ Nick Fury in Captain Marvel, en in The Irishman kregen Al Pacino en Robert de Niro een digitale verjongingskuur omdat ze te oud waren voor hun rollen. Deze beelden werden gegenereerd met behulp deep learning, oftewel deepfake.
Het begrip deepfake is een samenvoeging van twee Engelse begrippen: deep learning en fake. Deep learning is onderdeel van machine learning, dat is gebaseerd op kunstmatige neurale netwerken. De werking van deze kunstmatige intelligentie (of AI: artificial intelligence) lijkt op de manier waarop onze eigen hersenen werken op basis van zenuwcellen oftewel neuronen. Deze AI kan zichzelf trainen aan de hand van data, waardoor de vaardigheden toenemen.
Die data kunnen bijvoorbeeld bestaan uit foto’s of video’s van een persoon, waarbij speciale software de gelaatskenmerken analyseert. Door die vanuit verschillende hoeken te analyseren ontstaat een 3D-model van het gezicht. Niet alleen van de positie van de ogen, neus en mond, maar ook die van andere kenmerken (inclusief de bijbehorende kleuren) zoals wenkbrauwen, haar en bijvoorbeeld littekens. Ook de manier van praten en bewegen wordt opgeslagen.
Als er genoeg bronmateriaal is geanalyseerd, kan er met behulp van CGI (computer-generated imagery) een 3D-computeranimatie worden gemaakt. In principe is het mogelijk een volledig 3D-model te construeren, eventueel inclusief bewegingen. Bij deepfake-video’s zien we vaak dat slechts een gedeelte van een persoon wordt vervangen, bijvoorbeeld alleen de gelaatstrekken van een hoofd zoals ogen, neus en mond.
Dat scheelt niet alleen kostbare rekenkracht, het is ook beduidend minder complex omdat bijvoorbeeld niet al het haar, het lichaam, de kleding en de achtergrond hoeven te worden vervangen. Een faceswap is tegenwoordig zo eenvoudig dat praktisch elke consumentencomputer het kan. Er bestaat zelfs kant-en-klare opensource-software voor.
Beroemdheden en porno
Eind 2017 dook de term deepfake voor het eerst op. Een Reddit-gebruiker genaamd ‘deepfakes’ plaatste video’s van beroemdheden op de site. Het ging alleen niet om echte video’s, maar nepbeelden. In de meer onschuldige beelden werd het gezicht van acteur Nicolas Cage gemonteerd op dat van andere acteurs in films waar hij niet in had gespeeld. Later verschenen er pornovideo’s waarin het hoofd van beroemde vrouwelijke sterren op dat van pornoactrices was gemonteerd. Door rekening te houden met het figuur en de kleur haar van beide actrices, was het resultaat vaak levensecht.
Het gevolg was dat de video’s zich snel over het internet verspreidden en onder meer op sites als Pornhub terechtkwamen. Dat leidde vervolgens tot serieuze reputatieschade voor de sterren – zij moesten zich verweren tegen nepvideo’s en startten talloze procedures om de beelden weer van websites af te krijgen. Het ging onder meer om Daisy Ridley, Emma Watson, Katy Perry, Taylor Swift en Scarlett Johansson. In augustus dit jaar overkwam voormalig NOS-nieuwslezeres Dionne Stax hetzelfde.