Fake video's: de opkomst van deepfake
Het wordt steeds eenvoudiger om met AI-systemen fake video’s te maken. Wat heeft dat voor gevolgen?
Nog niet zo lang geleden had je als regisseur een miljoenenbudget nodig als je special effects aan een film wilde toevoegen. Neem bijvoorbeeld de uitdaging waarvoor Martin Scorsese zich gesteld zag in 2015: zijn misdaadfilm The Irishman omspande vijf decennia. Dat betekende dat de hoofdrolspelers op zeer uiteenlopende leeftijden in beeld moesten verschijnen. Scorsese had kunnen kiezen voor het inzetten van jongere look-a-likes van hoofdrolspelers Robert de Niro, Al Pacino en Joe Pesci, die toen al dik in de zeventig waren.
Hij koos echter voor een technische oplossing: hij huurde een bedrijf in dat de acteurs achteraf met digitale animatie verjongde. Al tijdens het filmen moest daarmee rekening worden gehouden. De normale camera werd geflankeerd door twee infraroodcamera’s. Die brachten de exacte gezichtsbewegingen van de acteurs continu in drie dimensies in beeld. Zo kon hun mimiek achteraf op de computer als draadmodel worden gereconstrueerd, en kon de software daarover een jonger masker leggen.
©PXimport
Gratis software
De voor de Irishman gebruikte techniek was niet alleen kostbaar maar ook arbeidsintensief. De postproductie van de film duurde maar liefst twee jaar. Groot was dan ook de schok toen drie maanden na het uitbrengen van de film in 2019 op YouTube een video opdook met de titel ‘The Irishman De-Aging: Netflix Millions VS. Free Software!’. Een anonieme persoon – die zichzelf iFake noemde – had het digitale verjongingsproces verbeterd. Hij had daarvoor gratis software gebruikt. In slechts zeven dagen tijd had hij een resultaat bereikt dat beter was dan in de film.
©PXimport
Deep learning
De slimme software die iFake gebruikte, dankt zijn bestaan aan deep learning. Bij deze vorm van kunstmatige intelligentie leert een computer zelf, door ervaring. Dat gebeurt in een neuraal netwerk, dat losjes geïnspireerd is op de werking van het menselijk brein. Wanneer onze hersenen iets leren, leggen ze nieuwe verbindingen tussen hersencellen. Een kunstmatig neuraal netwerk leert op soortgelijke wijze en gebruikt daarvoor een soort digitale pendant van hersencellen.
Zo kan ook een computer leren; net als jonge kinderen dat doen: met vallen en opstaan, door eindeloos te proberen en te kijken wat wel en wat niet werkt. Een getraind kunstmatig intelligent neuraal netwerk volgt daardoor geen voorgeprogrammeerde regels, maar doet zelf stap voor stap ervaring op.
Wedijverende neurale netwerken
Van oorsprong waren kunstmatig intelligente neurale netwerken vooral goed in herkenning, bijvoorbeeld van beelden. In het zelf bedenken van dingen waren ze lange tijd minder sterk.
Daar kwam verandering in dankzij computerstudent Ian Goodfellow. Hij was in 2014 al een tijd tevergeefs aan het proberen om een neuraal netwerk zo gek te krijgen om nepportretten te produceren. Tot hij op het lumineuze idee kwam om een tweede neuraal netwerk te trainen in het ontmaskeren van het nepportret-productiesysteem. Beide systemen zouden dus met elkaar gaan wedijveren, en elkaar op die manier maximaal uitdagen. Die aanpak had vrijwel meteen effect: Goodfellows neurale netwerk produceerde betere fake portretten dan ooit tevoren.
Dit soort trainingsnetwerken worden tot op de dag van vandaag gebruikt om neurale netwerken het vuur aan de schenen te leggen. Ze worden generatieve antagonistennetwerken genoemd – in het Engels generative adversarial networks, afgekort tot GAN.
©PXimport
Deepfakes
Deep learning kent allerlei nuttige toepassingen. Zo hebben autonome auto’s dankzij deep learning geleerd om wegmarkeringen, verkeersborden en andere weggebruikers te signaleren en erop te reageren. Zo zijn spraakherkenningsprogramma’s in staat om het geluid van een menselijke stem om te zetten in letters op een scherm. En zo zullen binnen enkele jaren ook mensen zonder veel verstand van kunstmatige intelligentie met eenvoudige, gratis software nepfoto’s, -audio en -video’s kunnen produceren.
Deskundigen voorspellen dat het internet overspoeld zal raken met zogeheten deepfakes. Volgens sommige schattingen zal in 2030 zo’n negentig procent van al het online audiovisuele materiaal nep zijn. Hoe levensecht een deepfake eruit kan zien, zie je bijvoorbeeld op www.thispersondoesnotexist.com. Iedere keer dat je deze websitepagina ververst, bedenkt een achterliggend neuraal netwerk automatisch een nieuwe portretfoto van een niet bestaand persoon.
©PXimport
Deepfake-Dalí
Deep learning maakt het mogelijk om deepfakes te maken van bestaande personen. Een voorwaarde daarvoor is dat er voldoende camerabeelden van die persoon beschikbaar zijn om een deep-learningsysteem mee te trainen. In zo’n geval bestudeert een AI-systeem eerst uitgebreid iemands biometrische kenmerken – gezicht, lichaam, stem, mimiek en/of motoriek. Daarna maakt het stapje voor stapje een fake video van de bestudeerde persoon.
Dat overkwam bijvoorbeeld Salvador Dalí, twintig jaar na zijn dood in 1989. Het naar hem vernoemde museum in Florida maakte in 2019 een kunstinstallatie waarin een nep-Dalí vanaf een scherm uitleg geeft over de tentoongestelde werken. Bezoekers waren onder de indruk van deze deepfake, die was gemaakt door historische beelden van Dalí aan een deep-learningsysteem te voeren. Ze hadden het idee naar de echte Dalí te kijken. Dat effect werd nog eens versterkt doordat Dalí bij het verlaten van de tentoonstelling voorstelde om samen een selfie te maken.
©PXimport
Afpersing en misleiding
Het voorbeeld van Dalí is onschuldig en vermakelijk, maar deepfaketechnologie kent helaas ook kwalijke toepassingen. “Ik overdrijf niet als ik zeg dat wanneer je ooit – in welke vorm dan ook – bent gefilmd, gefotografeerd of je stem is opgenomen, je theoretisch slachtoffer kunt worden van deepfake fraude”, schrijft Nina Schick in haar standaardwerk over deepfakes. Zo werden al vroeg in de historie van deepfakes ontelbare actrices slachtoffer van een ‘face swap’, waarbij hun gezicht op het lichaam van een pornoster werd geplaatst.
Ook criminelen kunnen misbruik maken van deepfakes, bijvoorbeeld om mensen af te persen of te misleiden. Zo werd een hoge functionaris bij een Britse energiemaatschappij in 2018 gebeld door iemand die exact klonk als diens directeur. De stem vroeg hem onmiddellijk 250.000 Britse ponden over te maken naar een bankrekeningnummer dat zou toebehoren aan een leverancier. De medewerker gehoorzaamde, omdat hij ervan overtuigd was de directeur aan de lijn te hebben. Hij sloeg pas alarm toen hij nogmaals werd gebeld door zijn directeur met een soortgelijk verzoek, zo meldde de verzekeringsmaatschappij die de claim behandelde.
©PXimport
De infocalyps komt eraan
Ook regimes en politieke groeperingen kunnen deepfakes inzetten, om zo bewust desinformatie te verspreiden. Om te waarschuwen voor ‘de toekomst van fake news’, liet nieuws- en entertainment-website Buzzfeed in het voorjaar van 2018 een deepfake video van Barack Obama maken. In deze korte video beledigt Obama niet alleen Trump, maar spreekt hij ook waarschuwende woorden: we leven in een tijdperk waarin je zorgvuldig moet zijn in het kiezen van je informatiebronnen.
Toch voorspelt Schick dat ook traditionele media door de opkomst van deepfakes steeds vaker onder vuur zullen komen te liggen. “Als mensen zich realiseren dat kunstmatige intelligentie nepcontent kan synthetiseren, zullen ze ook bij authentieke audio en video hun vraagtekens zetten”, zei ze deze zomer tijdens een discussie in de Balie in Amsterdam. Schick vreest om die reden voor een ware ‘infocalyps’, waarin niemand elkaar nog gelooft en discussies onmogelijk worden.
De term infocalyps werd overigens al in 2016 gebruikt door de Amerikaanse technologieonderzoeker Aviv Ovadya. Hij waarschuwde dat de algoritmen die sociale-mediaplatformen gebruiken om de aandacht van hun leden gevangen te houden, ertoe leiden dat mensen steeds extremer nieuws binnen hun eigen interessesfeer krijgen voorgeschoteld. Kwaadwillenden kunnen van dat mechanisme misbruik maken door propaganda te verspreiden en mensen tegen elkaar uit te spelen.
©PXimport
Couppoging
Een triest bijeffect van deepfakes is dat mensen ook steeds vaker zullen twijfelen aan de echtheid van authentiek audiovisueel materiaal. Lobbygroepen, autoritaire regimes en extremistische politieke groeperingen kunnen van dat effect misbruik maken.
Dat gebeurde bijvoorbeeld in het West-Afrikaanse land Gabon. Toen president Bongo in januari 2019 zijn traditionele nieuwjaarstoespraak hield, werd de echtheid van de tv-beelden door velen in twijfel getrokken. Bongo was in oktober van het jaar daarvoor getroffen door een beroerte. De regering had daarover pas laat openheid gegeven en had bovendien tegenstrijdige berichten naar buiten gebracht. Politieke tegenstanders hadden de gelegenheid aangegrepen om op social media het gerucht te verspreiden dat de president overleden was. Toen Bongo op 1 januari eindelijk op televisie verscheen, vermoedden velen daardoor dat het ging om een dubbelganger, een gemanipuleerde video of een deepfake. Dat vermoeden werd versterkt doordat Bongo’s gezicht bijna geen expressie vertoonde. Een Amerikaanse neuroloog vertelde later aan The Washington Post dat Bongo’s vlakke gezichtsuitdrukkingen het gevolg konden zijn van diens beroerte. Daarnaast verklaarden twee computerexperts dat de kans klein was dat het om een deepfake ging. Het kwaad was echter al geschied: de onrust hield aan en politieke tegenstanders deden op 7 januari 2019 een couppoging.
©PXimport
Deepfake Detection Challenge
Vanwege de grote schade die deepfakes op allerlei manieren kunnen aanrichten, komen er steeds meer onderzoeks-, bedrijfs en regeringsinitiatieven om ze te detecteren en te bestrijden.
Een daarvan is de Deepfake Detection Challenge. Deze wedstrijd werd georganiseerd door Facebook, Microsoft en een aantal onderzoeksinstituten. Speciaal voor dit doel creëerde het samenwerkingsverband, met de hulp van maar liefst 3500 acteurs, zo’n 115.000 video’s, waaronder zowel echte als nep. Zo kregen onderzoekers opeens toegang tot een gigantische databank om hun deepfake-detectiemodellen te trainen. De hoop was om zo de ontwikkeling van deze ontmaskeringsmodellen te stimuleren. De winnaar van deze challenge werd beloond met een geldbedrag van een half miljoen dollar.
©PXimport
Controle met metadata
Mensenrechtenorganisatie Witness koos een andere benadering om de infocalyps te bestrijden: het maakte een app waarmee je kunt bewijzen dat een foto of video daadwerkelijk op een bepaalde plaats en tijdstip is gemaakt. Dat is onder meer relevant voor de rapporteurs van deze organisatie, die wereldwijd misstanden aan de kaak proberen te stellen.
Met ‘ProofMode’ kan iedereen automatisch metadata opslaan van alle omstandigheden waaronder een opname is gemaakt. Daarbij gaat het niet alleen om de tijd, maar ook om de metingen die ingebouwde sensoren doen, zoals de gps, die de exacte locatie registreert. Ook naburige gsm-antennes geven daarover informatie, net zoals bewegingssensoren iets kunnen zeggen over de omstandigheden waaronder een opname werd gemaakt. Al deze informatie wordt in ProofMode als metadata versleuteld en samen met het audio- of videobestand opgeslagen. Zo kan later worden gecontroleerd of een foto of video authentiek en onbewerkt is.
©PXimport
Kat- en muisspel
Toch zullen deze slimme technieken er niet voor zorgen dat deepfakes in de toekomst beter kunnen worden ontdekt en bestreden, zo voorspelt het Rathenau-instituut in het rapport Digitale dreigingen voor de democratie. “Tegenmaatregelen kunnen op hun beurt juist leiden tot nog geavanceerde deepfakes, die moeilijker zijn te detecteren. Ook kunnen ze ertoe leiden dat de activiteiten van producenten en verspreiders van desinformatie zich verplaatsen naar besloten groepen en kanalen, en zich daarmee onttrekken aan het oog van moderators.”
Ook om een andere reden kan de bestrijding van desinformatie achterop raken, voorspelt het Rathenau-Instituut. “De mogelijkheden die nieuwe technologieën bieden om desinformatie te bestrijden, lijken beperkter dan de technologische mogelijkheden om desinformatie te produceren en te verspreiden. Zo kunnen productie- en verspreidingstechnologieën sterk profiteren van automatisering, terwijl voor de bestrijding ervan vaak mensen nodig blijven om te beoordelen of er werkelijk sprake is van misleidende informatie.”