ID.nl logo
Fake video's: de opkomst van deepfake
© Reshift Digital
Huis

Fake video's: de opkomst van deepfake

Het wordt steeds eenvoudiger om met AI-systemen fake video’s te maken. Wat heeft dat voor gevolgen?

Nog niet zo lang geleden had je als regisseur een miljoenenbudget nodig als je special effects aan een film wilde toevoegen. Neem bijvoorbeeld de uitdaging waarvoor Martin Scorsese zich gesteld zag in 2015: zijn misdaadfilm The Irishman omspande vijf decennia. Dat betekende dat de hoofdrolspelers op zeer uiteenlopende leeftijden in beeld moesten verschijnen. Scorsese had kunnen kiezen voor het inzetten van jongere look-a-likes van hoofdrolspelers Robert de Niro, Al Pacino en Joe Pesci, die toen al dik in de zeventig waren.

Hij koos echter voor een technische oplossing: hij huurde een bedrijf in dat de acteurs achteraf met digitale animatie verjongde. Al tijdens het filmen moest daarmee rekening worden gehouden. De normale camera werd geflankeerd door twee infraroodcamera’s. Die brachten de exacte gezichtsbewegingen van de acteurs continu in drie dimensies in beeld. Zo kon hun mimiek achteraf op de computer als draadmodel worden gereconstrueerd, en kon de software daarover een jonger masker leggen.

©PXimport

Gratis software

De voor de Irishman gebruikte techniek was niet alleen kostbaar maar ook arbeidsintensief. De postproductie van de film duurde maar liefst twee jaar. Groot was dan ook de schok toen drie maanden na het uitbrengen van de film in 2019 op YouTube een video opdook met de titel ‘The Irishman De-Aging: Netflix Millions VS. Free Software!’. Een anonieme persoon – die zichzelf iFake noemde – had het digitale verjongingsproces verbeterd. Hij had daarvoor gratis software gebruikt. In slechts zeven dagen tijd had hij een resultaat bereikt dat beter was dan in de film.

©PXimport

Deep learning

De slimme software die iFake gebruikte, dankt zijn bestaan aan deep learning. Bij deze vorm van kunstmatige intelligentie leert een computer zelf, door ervaring. Dat gebeurt in een neuraal netwerk, dat losjes geïnspireerd is op de werking van het menselijk brein. Wanneer onze hersenen iets leren, leggen ze nieuwe verbindingen tussen hersencellen. Een kunstmatig neuraal netwerk leert op soortgelijke wijze en gebruikt daarvoor een soort digitale pendant van hersencellen.

Zo kan ook een computer leren; net als jonge kinderen dat doen: met vallen en opstaan, door eindeloos te proberen en te kijken wat wel en wat niet werkt. Een getraind kunstmatig intelligent neuraal netwerk volgt daardoor geen voorgeprogrammeerde regels, maar doet zelf stap voor stap ervaring op.

Wedijverende neurale netwerken

Van oorsprong waren kunstmatig intelligente neurale netwerken vooral goed in herkenning, bijvoorbeeld van beelden. In het zelf bedenken van dingen waren ze lange tijd minder sterk.

Daar kwam verandering in dankzij computerstudent Ian Goodfellow. Hij was in 2014 al een tijd tevergeefs aan het proberen om een neuraal netwerk zo gek te krijgen om nepportretten te produceren. Tot hij op het lumineuze idee kwam om een tweede neuraal netwerk te trainen in het ontmaskeren van het nepportret-productiesysteem. Beide systemen zouden dus met elkaar gaan wedijveren, en elkaar op die manier maximaal uitdagen. Die aanpak had vrijwel meteen effect: Goodfellows neurale netwerk produceerde betere fake portretten dan ooit tevoren.

Dit soort trainingsnetwerken worden tot op de dag van vandaag gebruikt om neurale netwerken het vuur aan de schenen te leggen. Ze worden generatieve antagonistennetwerken genoemd – in het Engels generative adversarial networks, afgekort tot GAN.

©PXimport

Deepfakes

Deep learning kent allerlei nuttige toepassingen. Zo hebben autonome auto’s dankzij deep learning geleerd om wegmarkeringen, verkeersborden en andere weggebruikers te signaleren en erop te reageren. Zo zijn spraakherkenningsprogramma’s in staat om het geluid van een menselijke stem om te zetten in letters op een scherm. En zo zullen binnen enkele jaren ook mensen zonder veel verstand van kunstmatige intelligentie met eenvoudige, gratis software nepfoto’s, -audio en -video’s kunnen produceren.

Deskundigen voorspellen dat het internet overspoeld zal raken met zogeheten deepfakes. Volgens sommige schattingen zal in 2030 zo’n negentig procent van al het online audiovisuele materiaal nep zijn. Hoe levensecht een deepfake eruit kan zien, zie je bijvoorbeeld op www.thispersondoesnotexist.com. Iedere keer dat je deze websitepagina ververst, bedenkt een achterliggend neuraal netwerk automatisch een nieuwe portretfoto van een niet bestaand persoon.

©PXimport

Deepfake-Dalí

Deep learning maakt het mogelijk om deepfakes te maken van bestaande personen. Een voorwaarde daarvoor is dat er voldoende camerabeelden van die persoon beschikbaar zijn om een deep-learningsysteem mee te trainen. In zo’n geval bestudeert een AI-systeem eerst uitgebreid iemands biometrische kenmerken – gezicht, lichaam, stem, mimiek en/of motoriek. Daarna maakt het stapje voor stapje een fake video van de bestudeerde persoon.

Dat overkwam bijvoorbeeld Salvador Dalí, twintig jaar na zijn dood in 1989. Het naar hem vernoemde museum in Florida maakte in 2019 een kunstinstallatie waarin een nep-Dalí vanaf een scherm uitleg geeft over de tentoongestelde werken. Bezoekers waren onder de indruk van deze deepfake, die was gemaakt door historische beelden van Dalí aan een deep-learningsysteem te voeren. Ze hadden het idee naar de echte Dalí te kijken. Dat effect werd nog eens versterkt doordat Dalí bij het verlaten van de tentoonstelling voorstelde om samen een selfie te maken.

©PXimport

Afpersing en misleiding

Het voorbeeld van Dalí is onschuldig en vermakelijk, maar deepfaketechnologie kent helaas ook kwalijke toepassingen. “Ik overdrijf niet als ik zeg dat wanneer je ooit – in welke vorm dan ook – bent gefilmd, gefotografeerd of je stem is opgenomen, je theoretisch slachtoffer kunt worden van deepfake fraude”, schrijft Nina Schick in haar standaardwerk over deepfakes. Zo werden al vroeg in de historie van deepfakes ontelbare actrices slachtoffer van een ‘face swap’, waarbij hun gezicht op het lichaam van een pornoster werd geplaatst.

Ook criminelen kunnen misbruik maken van deepfakes, bijvoorbeeld om mensen af te persen of te misleiden. Zo werd een hoge functionaris bij een Britse energiemaatschappij in 2018 gebeld door iemand die exact klonk als diens directeur. De stem vroeg hem onmiddellijk 250.000 Britse ponden over te maken naar een bankrekeningnummer dat zou toebehoren aan een leverancier. De medewerker gehoorzaamde, omdat hij ervan overtuigd was de directeur aan de lijn te hebben. Hij sloeg pas alarm toen hij nogmaals werd gebeld door zijn directeur met een soortgelijk verzoek, zo meldde de verzekeringsmaatschappij die de claim behandelde.

©PXimport

De infocalyps komt eraan

Ook regimes en politieke groeperingen kunnen deepfakes inzetten, om zo bewust desinformatie te verspreiden. Om te waarschuwen voor ‘de toekomst van fake news’, liet nieuws- en entertainment-website Buzzfeed in het voorjaar van 2018 een deepfake video van Barack Obama maken. In deze korte video beledigt Obama niet alleen Trump, maar spreekt hij ook waarschuwende woorden: we leven in een tijdperk waarin je zorgvuldig moet zijn in het kiezen van je informatiebronnen.

Toch voorspelt Schick dat ook traditionele media door de opkomst van deepfakes steeds vaker onder vuur zullen komen te liggen. “Als mensen zich realiseren dat kunstmatige intelligentie nepcontent kan synthetiseren, zullen ze ook bij authentieke audio en video hun vraagtekens zetten”, zei ze deze zomer tijdens een discussie in de Balie in Amsterdam. Schick vreest om die reden voor een ware ‘infocalyps’, waarin niemand elkaar nog gelooft en discussies onmogelijk worden.

De term infocalyps werd overigens al in 2016 gebruikt door de Amerikaanse technologieonderzoeker Aviv Ovadya. Hij waarschuwde dat de algoritmen die sociale-mediaplatformen gebruiken om de aandacht van hun leden gevangen te houden, ertoe leiden dat mensen steeds extremer nieuws binnen hun eigen interessesfeer krijgen voorgeschoteld. Kwaadwillenden kunnen van dat mechanisme misbruik maken door propaganda te verspreiden en mensen tegen elkaar uit te spelen.

©PXimport

Couppoging

Een triest bijeffect van deepfakes is dat mensen ook steeds vaker zullen twijfelen aan de echtheid van authentiek audiovisueel materiaal. Lobbygroepen, autoritaire regimes en extremistische politieke groeperingen kunnen van dat effect misbruik maken.

Dat gebeurde bijvoorbeeld in het West-Afrikaanse land Gabon. Toen president Bongo in januari 2019 zijn traditionele nieuwjaarstoespraak hield, werd de echtheid van de tv-beelden door velen in twijfel getrokken. Bongo was in oktober van het jaar daarvoor getroffen door een beroerte. De regering had daarover pas laat openheid gegeven en had bovendien tegenstrijdige berichten naar buiten gebracht. Politieke tegenstanders hadden de gelegenheid aangegrepen om op social media het gerucht te verspreiden dat de president overleden was. Toen Bongo op 1 januari eindelijk op televisie verscheen, vermoedden velen daardoor dat het ging om een dubbelganger, een gemanipuleerde video of een deepfake. Dat vermoeden werd versterkt doordat Bongo’s gezicht bijna geen expressie vertoonde. Een Amerikaanse neuroloog vertelde later aan The Washington Post dat Bongo’s vlakke gezichtsuitdrukkingen het gevolg konden zijn van diens beroerte. Daarnaast verklaarden twee computerexperts dat de kans klein was dat het om een deepfake ging. Het kwaad was echter al geschied: de onrust hield aan en politieke tegenstanders deden op 7 januari 2019 een couppoging.

©PXimport

Deepfake Detection Challenge

Vanwege de grote schade die deepfakes op allerlei manieren kunnen aanrichten, komen er steeds meer onderzoeks-, bedrijfs en regeringsinitiatieven om ze te detecteren en te bestrijden.

Een daarvan is de Deepfake Detection Challenge. Deze wedstrijd werd georganiseerd door Facebook, Microsoft en een aantal onderzoeksinstituten. Speciaal voor dit doel creëerde het samenwerkingsverband, met de hulp van maar liefst 3500 acteurs, zo’n 115.000 video’s, waaronder zowel echte als nep. Zo kregen onderzoekers opeens toegang tot een gigantische databank om hun deepfake-detectiemodellen te trainen. De hoop was om zo de ontwikkeling van deze ontmaskeringsmodellen te stimuleren. De winnaar van deze challenge werd beloond met een geldbedrag van een half miljoen dollar.

©PXimport

Controle met metadata

Mensenrechtenorganisatie Witness koos een andere benadering om de infocalyps te bestrijden: het maakte een app waarmee je kunt bewijzen dat een foto of video daadwerkelijk op een bepaalde plaats en tijdstip is gemaakt. Dat is onder meer relevant voor de rapporteurs van deze organisatie, die wereldwijd misstanden aan de kaak proberen te stellen.

Met ‘ProofMode’ kan iedereen automatisch metadata opslaan van alle omstandigheden waaronder een opname is gemaakt. Daarbij gaat het niet alleen om de tijd, maar ook om de metingen die ingebouwde sensoren doen, zoals de gps, die de exacte locatie registreert. Ook naburige gsm-antennes geven daarover informatie, net zoals bewegingssensoren iets kunnen zeggen over de omstandigheden waaronder een opname werd gemaakt. Al deze informatie wordt in ProofMode als metadata versleuteld en samen met het audio- of videobestand opgeslagen. Zo kan later worden gecontroleerd of een foto of video authentiek en onbewerkt is.

©PXimport

Kat- en muisspel

Toch zullen deze slimme technieken er niet voor zorgen dat deepfakes in de toekomst beter kunnen worden ontdekt en bestreden, zo voorspelt het Rathenau-instituut in het rapport Digitale dreigingen voor de democratie. “Tegenmaatregelen kunnen op hun beurt juist leiden tot nog geavanceerde deepfakes, die moeilijker zijn te detecteren. Ook kunnen ze ertoe leiden dat de activiteiten van producenten en verspreiders van desinformatie zich verplaatsen naar besloten groepen en kanalen, en zich daarmee onttrekken aan het oog van moderators.”

Ook om een andere reden kan de bestrijding van desinformatie achterop raken, voorspelt het Rathenau-Instituut. “De mogelijkheden die nieuwe technologieën bieden om desinformatie te bestrijden, lijken beperkter dan de technologische mogelijkheden om desinformatie te produceren en te verspreiden. Zo kunnen productie- en verspreidingstechnologieën sterk profiteren van automatisering, terwijl voor de bestrijding ervan vaak mensen nodig blijven om te beoordelen of er werkelijk sprake is van misleidende informatie.”

▼ Volgende artikel
KLM biedt vanaf vandaag gratis wifi aan tijdens Europese vluchten
© Adobe Stock
Huis

KLM biedt vanaf vandaag gratis wifi aan tijdens Europese vluchten

Vanaf vandag biedt KLM tijdens diverse Europese vluchten gratis wifi aan voor Flying Blue-leden.

Dat kondigde het bedrijf gisteren aan. Ongeveer de helft van de Europese vluchten van de luchtvaartmaatschappij binnen Europa heeft vanaf vandaag gratis wifi. In de komende jaren moet er gratis, onbeperkt internet beschikbaar komen in alle A321neo's, E2 's en een deel van de B737-800's.

Internet tijdens KLM-vluchten was al een tijdlang beschikbaar, maar voorheen moesten passagiers een wifipas kopen om daar gebruik van te maken. Wifi is nu dus gratis in een gedeelte van de Europese vluchten, maar daar is wel een lidmaatschap op Flying Blue voor nodig. Dit lidmaatschap is echter geheel gratis af te sluiten.

Entertainment naar eigen invulling

Bij Europese vluchten zijn er geen entertainmentschermen aanwezig. Het is dan ook niet mogelijk om bijvoorbeeld films te bekijken via een scherm op de achterkant van passagiersstoelen. Dankzij de gratis wifi kunnen passagiers zichzelf toch vermaken tijdens vluchten. Zo kan men wifi gebruiken om op eigen apparaten (zoals laptops of smartphones) te e-mailen, internetten, muziek te luisteren, gamen of films te streamen.

"We luisteren goed naar wat onze passagiers belangrijk vinden en gratis internet stond al een tijdje op hun wensenlijst", zo stelt Stephanie Putzeist van de klantbeleving van KLM. "Met deze stap maken we de reis binnen Europa persoonlijker en comfortabeler: iedereen kan zijn vlucht op zijn eigen manier invullen en verbonden blijven. We zijn verheugd dat we dit nu voor onze passagiers mogelijk maken."

Nieuw op ID: het complete plaatje

Misschien valt het je op dat er vanaf nu ook berichten over games, films en series op onze site verschijnen. Dat is een bewuste stap. Wij geloven dat technologie niet stopt bij hardware; het gaat uiteindelijk om wat je ermee beleeft. Daarom combineren we onze expertise in tech nu met het laatste nieuws over entertainment. Dat doen we met de gezichten die mensen kennen van Power Unlimited, dé experts op het gebied van gaming en streaming. Zo helpen we je niet alleen aan de beste tv, smartphone of laptop, maar vertellen we je ook direct wat je erop moet kijken of spelen. Je vindt hier dus voortaan de ideale mix van hardware én content.

▼ Volgende artikel
Ubisoft reorganiseert, Prince of Persia-remake geannuleerd
Huis

Ubisoft reorganiseert, Prince of Persia-remake geannuleerd

De Franse game-uitgever en -ontwikkelaar Ubisoft heeft een grootschalige reorganisatie van het bedrijf aangekondigd. Daarbij zijn diverse games geannuleerd, waaronder de aangekondigde remake van Prince of Persia: The Sands of Time.

De PlayStation 5-, Xbox Series- en pc-remake van de game die oorspronkelijk op GameCube, PlayStation 2 en Xbox verscheen werd in 2020 aangekondigd en werd daarna meerdere malen uitgesteld. Hoewel de game eerst in ontwikkeling was bij Ubisoft Mumbai, werd de ontwikkeling herstart bij Ubisoft Montreal. Ubisoft gaf eerder aan dat het spel voor april dit jaar uit zou komen, maar nu is het dus geannuleerd.

In een statement op social media liet het ontwikkelteam van de Prince of Persia-remake weten op de hoogte te zijn dat de aankondiging een grote teleurstelling is voor fans. "Het project had echte potentie, maar we konden niet het niveau van kwaliteit bereiken die jullie verdienen, en doorgaan met de ontwikkeling zou meer tijd en investeringen kosten dan dat we op verantwoordelijke wijze konden spenderen. We wilden niet iets uitbrengen dat tekort zou doen aan wat The Sands of Time representeert."

View post on X

Nog meer geannuleerde en uitgestelde games

Ubisoft heeft in totaal zes games geannuleerd. Welke games de vijf andere geannuleerde titels zijn is niet bekend. Wel is duidelijk dat vier van de games onaangekondigd zijn, en drie om compleet nieuwe IP's gingen.

Ook zijn er zeven andere games uitgesteld. Ook daarvan is niet bekend om welke games het gaat, al gaan er geruchten dat een ervan de nog altijd onaangekondigde remake van Assassin's Creed 4: Black Flag betreft. Die game zou nu volgens de geruchten ergens voor april 2027 uitkomen. Insider Gaming meldt daarnaast dat Beyond Good and Evil 2, dat al vele jaren in ontwikkeling is, dat nog altijd blijft en dus niet is geannuleerd.

Een nieuwe bedrijfsstructuur

Ubisoft noemt de reorganisatie een "grote organisatorische, operationele en portfolio-reset". Daarbij wil het bedrijf nog meer letten op de kwaliteit die het uitgeeft. Ubisofts nieuwe model gaat zich richten op verschillende 'creatieve huizen' die zich elk met andere soorten games bezighouden. Het gaat om de volgende divisies:

  • Vantage Studios: een vorig jaar met Tencent opgerichte dochteronderneming waar Assassin's Creed, Rainbow Six en Far Cry en diens ontwikkelaars onder vallen.

  • CH2: richt zich op "competitieve en coöperatieve shooterervaringen", waaronder The Division, Ghost Recon en Splinter Cell.

  • CH3: richt zich op "een selectie aan scherpe live-ervaringen", zoals For Honor, The Crew, Riders Republic, Brawlhalla en Skull and Bones.

  • CH4: richt zich op "fantasiewerelden en verhaalgedreven universums" zoals Anno, Might & Magic, Rayman, Prince of Persia en Beyond Good and Evil.

  • CH5: richt zich op "het terugwinnen van Ubisofts positie binnen de casual en familievriendelijke games", waaronder Just Dance, Uno en Hasbro.

Ubisoft laat ook weten dat het vier nieuwe IP's in ontwikkeling heeft, waaronder de onlangs aangekochte moba March of Giants. Die game wordt op een later moment toegekend aan een van de creatieve huizen. Elk van de creatieve huizen zal volgens Ubisoft relatief onafhankelijk opereren, met een eigen leiderschap en eindverantwoordelijkheid.

Geen thuiswerken meer en gesloten studio's

Ubisoft heeft daarnaast aangekondigd dat het thuiswerken niet meer toelaat en dat alle werknemers worden geacht om fulltime op kantoor aanwezig te zijn. Wel krijgen werknemers een "een jaarlijkse toelage bestaande uit thuiswerkdagen". Volgens het bedrijf zorgt dit er voor dat er "collectieve efficiëntie, creativiteit en succes" plaatsvindt.

Twee studio's van Ubisoft sluiten hun deuren: de studio's in Halifax en Stockholm. Dit werd onlangs al aangekondigd. Ubisoft overweegt daarna om "andere assets" te verkopen, maar gaf geen verdere details. Gedurende de volgende twee jaren wil het bedrijf nog eens 200 miljoen euro besparen.

Ubisoft heeft de laatste jaren wisselend succes met zijn games. Zo viel de verkoop van het miljoenenproject Star Wars Outlaws tegen. Zover bekend is het begin vorig jaar uitgekomen Assassin's Creed Shadows wel een verkoopsucces.

Nieuw op ID: het complete plaatje

Misschien valt het je op dat er vanaf nu ook berichten over games, films en series op onze site verschijnen. Dat is een bewuste stap. Wij geloven dat technologie niet stopt bij hardware; het gaat uiteindelijk om wat je ermee beleeft. Daarom combineren we onze expertise in tech nu met het laatste nieuws over entertainment. Dat doen we met de gezichten die mensen kennen van Power Unlimited, dé experts op het gebied van gaming en streaming. Zo helpen we je niet alleen aan de beste tv, smartphone of laptop, maar vertellen we je ook direct wat je erop moet kijken of spelen. Je vindt hier dus voortaan de ideale mix van hardware én content.