ID.nl logo
Fake video's: de opkomst van deepfake
© Reshift Digital
Huis

Fake video's: de opkomst van deepfake

Het wordt steeds eenvoudiger om met AI-systemen fake video’s te maken. Wat heeft dat voor gevolgen?

Nog niet zo lang geleden had je als regisseur een miljoenenbudget nodig als je special effects aan een film wilde toevoegen. Neem bijvoorbeeld de uitdaging waarvoor Martin Scorsese zich gesteld zag in 2015: zijn misdaadfilm The Irishman omspande vijf decennia. Dat betekende dat de hoofdrolspelers op zeer uiteenlopende leeftijden in beeld moesten verschijnen. Scorsese had kunnen kiezen voor het inzetten van jongere look-a-likes van hoofdrolspelers Robert de Niro, Al Pacino en Joe Pesci, die toen al dik in de zeventig waren.

Hij koos echter voor een technische oplossing: hij huurde een bedrijf in dat de acteurs achteraf met digitale animatie verjongde. Al tijdens het filmen moest daarmee rekening worden gehouden. De normale camera werd geflankeerd door twee infraroodcamera’s. Die brachten de exacte gezichtsbewegingen van de acteurs continu in drie dimensies in beeld. Zo kon hun mimiek achteraf op de computer als draadmodel worden gereconstrueerd, en kon de software daarover een jonger masker leggen.

©PXimport

Gratis software

De voor de Irishman gebruikte techniek was niet alleen kostbaar maar ook arbeidsintensief. De postproductie van de film duurde maar liefst twee jaar. Groot was dan ook de schok toen drie maanden na het uitbrengen van de film in 2019 op YouTube een video opdook met de titel ‘The Irishman De-Aging: Netflix Millions VS. Free Software!’. Een anonieme persoon – die zichzelf iFake noemde – had het digitale verjongingsproces verbeterd. Hij had daarvoor gratis software gebruikt. In slechts zeven dagen tijd had hij een resultaat bereikt dat beter was dan in de film.

©PXimport

Deep learning

De slimme software die iFake gebruikte, dankt zijn bestaan aan deep learning. Bij deze vorm van kunstmatige intelligentie leert een computer zelf, door ervaring. Dat gebeurt in een neuraal netwerk, dat losjes geïnspireerd is op de werking van het menselijk brein. Wanneer onze hersenen iets leren, leggen ze nieuwe verbindingen tussen hersencellen. Een kunstmatig neuraal netwerk leert op soortgelijke wijze en gebruikt daarvoor een soort digitale pendant van hersencellen.

Zo kan ook een computer leren; net als jonge kinderen dat doen: met vallen en opstaan, door eindeloos te proberen en te kijken wat wel en wat niet werkt. Een getraind kunstmatig intelligent neuraal netwerk volgt daardoor geen voorgeprogrammeerde regels, maar doet zelf stap voor stap ervaring op.

Wedijverende neurale netwerken

Van oorsprong waren kunstmatig intelligente neurale netwerken vooral goed in herkenning, bijvoorbeeld van beelden. In het zelf bedenken van dingen waren ze lange tijd minder sterk.

Daar kwam verandering in dankzij computerstudent Ian Goodfellow. Hij was in 2014 al een tijd tevergeefs aan het proberen om een neuraal netwerk zo gek te krijgen om nepportretten te produceren. Tot hij op het lumineuze idee kwam om een tweede neuraal netwerk te trainen in het ontmaskeren van het nepportret-productiesysteem. Beide systemen zouden dus met elkaar gaan wedijveren, en elkaar op die manier maximaal uitdagen. Die aanpak had vrijwel meteen effect: Goodfellows neurale netwerk produceerde betere fake portretten dan ooit tevoren.

Dit soort trainingsnetwerken worden tot op de dag van vandaag gebruikt om neurale netwerken het vuur aan de schenen te leggen. Ze worden generatieve antagonistennetwerken genoemd – in het Engels generative adversarial networks, afgekort tot GAN.

©PXimport

Deepfakes

Deep learning kent allerlei nuttige toepassingen. Zo hebben autonome auto’s dankzij deep learning geleerd om wegmarkeringen, verkeersborden en andere weggebruikers te signaleren en erop te reageren. Zo zijn spraakherkenningsprogramma’s in staat om het geluid van een menselijke stem om te zetten in letters op een scherm. En zo zullen binnen enkele jaren ook mensen zonder veel verstand van kunstmatige intelligentie met eenvoudige, gratis software nepfoto’s, -audio en -video’s kunnen produceren.

Deskundigen voorspellen dat het internet overspoeld zal raken met zogeheten deepfakes. Volgens sommige schattingen zal in 2030 zo’n negentig procent van al het online audiovisuele materiaal nep zijn. Hoe levensecht een deepfake eruit kan zien, zie je bijvoorbeeld op www.thispersondoesnotexist.com. Iedere keer dat je deze websitepagina ververst, bedenkt een achterliggend neuraal netwerk automatisch een nieuwe portretfoto van een niet bestaand persoon.

©PXimport

Deepfake-Dalí

Deep learning maakt het mogelijk om deepfakes te maken van bestaande personen. Een voorwaarde daarvoor is dat er voldoende camerabeelden van die persoon beschikbaar zijn om een deep-learningsysteem mee te trainen. In zo’n geval bestudeert een AI-systeem eerst uitgebreid iemands biometrische kenmerken – gezicht, lichaam, stem, mimiek en/of motoriek. Daarna maakt het stapje voor stapje een fake video van de bestudeerde persoon.

Dat overkwam bijvoorbeeld Salvador Dalí, twintig jaar na zijn dood in 1989. Het naar hem vernoemde museum in Florida maakte in 2019 een kunstinstallatie waarin een nep-Dalí vanaf een scherm uitleg geeft over de tentoongestelde werken. Bezoekers waren onder de indruk van deze deepfake, die was gemaakt door historische beelden van Dalí aan een deep-learningsysteem te voeren. Ze hadden het idee naar de echte Dalí te kijken. Dat effect werd nog eens versterkt doordat Dalí bij het verlaten van de tentoonstelling voorstelde om samen een selfie te maken.

©PXimport

Afpersing en misleiding

Het voorbeeld van Dalí is onschuldig en vermakelijk, maar deepfaketechnologie kent helaas ook kwalijke toepassingen. “Ik overdrijf niet als ik zeg dat wanneer je ooit – in welke vorm dan ook – bent gefilmd, gefotografeerd of je stem is opgenomen, je theoretisch slachtoffer kunt worden van deepfake fraude”, schrijft Nina Schick in haar standaardwerk over deepfakes. Zo werden al vroeg in de historie van deepfakes ontelbare actrices slachtoffer van een ‘face swap’, waarbij hun gezicht op het lichaam van een pornoster werd geplaatst.

Ook criminelen kunnen misbruik maken van deepfakes, bijvoorbeeld om mensen af te persen of te misleiden. Zo werd een hoge functionaris bij een Britse energiemaatschappij in 2018 gebeld door iemand die exact klonk als diens directeur. De stem vroeg hem onmiddellijk 250.000 Britse ponden over te maken naar een bankrekeningnummer dat zou toebehoren aan een leverancier. De medewerker gehoorzaamde, omdat hij ervan overtuigd was de directeur aan de lijn te hebben. Hij sloeg pas alarm toen hij nogmaals werd gebeld door zijn directeur met een soortgelijk verzoek, zo meldde de verzekeringsmaatschappij die de claim behandelde.

©PXimport

De infocalyps komt eraan

Ook regimes en politieke groeperingen kunnen deepfakes inzetten, om zo bewust desinformatie te verspreiden. Om te waarschuwen voor ‘de toekomst van fake news’, liet nieuws- en entertainment-website Buzzfeed in het voorjaar van 2018 een deepfake video van Barack Obama maken. In deze korte video beledigt Obama niet alleen Trump, maar spreekt hij ook waarschuwende woorden: we leven in een tijdperk waarin je zorgvuldig moet zijn in het kiezen van je informatiebronnen.

Toch voorspelt Schick dat ook traditionele media door de opkomst van deepfakes steeds vaker onder vuur zullen komen te liggen. “Als mensen zich realiseren dat kunstmatige intelligentie nepcontent kan synthetiseren, zullen ze ook bij authentieke audio en video hun vraagtekens zetten”, zei ze deze zomer tijdens een discussie in de Balie in Amsterdam. Schick vreest om die reden voor een ware ‘infocalyps’, waarin niemand elkaar nog gelooft en discussies onmogelijk worden.

De term infocalyps werd overigens al in 2016 gebruikt door de Amerikaanse technologieonderzoeker Aviv Ovadya. Hij waarschuwde dat de algoritmen die sociale-mediaplatformen gebruiken om de aandacht van hun leden gevangen te houden, ertoe leiden dat mensen steeds extremer nieuws binnen hun eigen interessesfeer krijgen voorgeschoteld. Kwaadwillenden kunnen van dat mechanisme misbruik maken door propaganda te verspreiden en mensen tegen elkaar uit te spelen.

©PXimport

Couppoging

Een triest bijeffect van deepfakes is dat mensen ook steeds vaker zullen twijfelen aan de echtheid van authentiek audiovisueel materiaal. Lobbygroepen, autoritaire regimes en extremistische politieke groeperingen kunnen van dat effect misbruik maken.

Dat gebeurde bijvoorbeeld in het West-Afrikaanse land Gabon. Toen president Bongo in januari 2019 zijn traditionele nieuwjaarstoespraak hield, werd de echtheid van de tv-beelden door velen in twijfel getrokken. Bongo was in oktober van het jaar daarvoor getroffen door een beroerte. De regering had daarover pas laat openheid gegeven en had bovendien tegenstrijdige berichten naar buiten gebracht. Politieke tegenstanders hadden de gelegenheid aangegrepen om op social media het gerucht te verspreiden dat de president overleden was. Toen Bongo op 1 januari eindelijk op televisie verscheen, vermoedden velen daardoor dat het ging om een dubbelganger, een gemanipuleerde video of een deepfake. Dat vermoeden werd versterkt doordat Bongo’s gezicht bijna geen expressie vertoonde. Een Amerikaanse neuroloog vertelde later aan The Washington Post dat Bongo’s vlakke gezichtsuitdrukkingen het gevolg konden zijn van diens beroerte. Daarnaast verklaarden twee computerexperts dat de kans klein was dat het om een deepfake ging. Het kwaad was echter al geschied: de onrust hield aan en politieke tegenstanders deden op 7 januari 2019 een couppoging.

©PXimport

Deepfake Detection Challenge

Vanwege de grote schade die deepfakes op allerlei manieren kunnen aanrichten, komen er steeds meer onderzoeks-, bedrijfs en regeringsinitiatieven om ze te detecteren en te bestrijden.

Een daarvan is de Deepfake Detection Challenge. Deze wedstrijd werd georganiseerd door Facebook, Microsoft en een aantal onderzoeksinstituten. Speciaal voor dit doel creëerde het samenwerkingsverband, met de hulp van maar liefst 3500 acteurs, zo’n 115.000 video’s, waaronder zowel echte als nep. Zo kregen onderzoekers opeens toegang tot een gigantische databank om hun deepfake-detectiemodellen te trainen. De hoop was om zo de ontwikkeling van deze ontmaskeringsmodellen te stimuleren. De winnaar van deze challenge werd beloond met een geldbedrag van een half miljoen dollar.

©PXimport

Controle met metadata

Mensenrechtenorganisatie Witness koos een andere benadering om de infocalyps te bestrijden: het maakte een app waarmee je kunt bewijzen dat een foto of video daadwerkelijk op een bepaalde plaats en tijdstip is gemaakt. Dat is onder meer relevant voor de rapporteurs van deze organisatie, die wereldwijd misstanden aan de kaak proberen te stellen.

Met ‘ProofMode’ kan iedereen automatisch metadata opslaan van alle omstandigheden waaronder een opname is gemaakt. Daarbij gaat het niet alleen om de tijd, maar ook om de metingen die ingebouwde sensoren doen, zoals de gps, die de exacte locatie registreert. Ook naburige gsm-antennes geven daarover informatie, net zoals bewegingssensoren iets kunnen zeggen over de omstandigheden waaronder een opname werd gemaakt. Al deze informatie wordt in ProofMode als metadata versleuteld en samen met het audio- of videobestand opgeslagen. Zo kan later worden gecontroleerd of een foto of video authentiek en onbewerkt is.

©PXimport

Kat- en muisspel

Toch zullen deze slimme technieken er niet voor zorgen dat deepfakes in de toekomst beter kunnen worden ontdekt en bestreden, zo voorspelt het Rathenau-instituut in het rapport Digitale dreigingen voor de democratie. “Tegenmaatregelen kunnen op hun beurt juist leiden tot nog geavanceerde deepfakes, die moeilijker zijn te detecteren. Ook kunnen ze ertoe leiden dat de activiteiten van producenten en verspreiders van desinformatie zich verplaatsen naar besloten groepen en kanalen, en zich daarmee onttrekken aan het oog van moderators.”

Ook om een andere reden kan de bestrijding van desinformatie achterop raken, voorspelt het Rathenau-Instituut. “De mogelijkheden die nieuwe technologieën bieden om desinformatie te bestrijden, lijken beperkter dan de technologische mogelijkheden om desinformatie te produceren en te verspreiden. Zo kunnen productie- en verspreidingstechnologieën sterk profiteren van automatisering, terwijl voor de bestrijding ervan vaak mensen nodig blijven om te beoordelen of er werkelijk sprake is van misleidende informatie.”

▼ Volgende artikel
Nieuwe OPPO A6 Pro 5G: betaalbare smartphone met grote batterij en snel opladen
© OPPO
Huis

Nieuwe OPPO A6 Pro 5G: betaalbare smartphone met grote batterij en snel opladen

OPPO brengt met de A6 Pro 5G een nieuwe middenklasser naar Nederland die inzet op uithoudingsvermogen, duurzaamheid en een premium uitstraling. De smartphone heeft een 6.500 mAh-batterij, ondersteunt 80W SUPERVOOC-snelladen en biedt met IP69-bescherming en militaire schokbestendigheid een robuuste bouw voor dagelijks gebruik.

Krachtige batterij, snel weer vol

De OPPO A6 Pro 5G heeft een batterij van 6.500 mAh, opgebouwd uit grafietcellen met hoge energiedichtheid. Daarmee haalt de telefoon tot ruim 37 uur bellen of bijna 27 uur WhatsApp-gesprekken zonder opladen. Volgens OPPO behoudt de batterij na ruim 1.800 laadcycli – meer dan vijf jaar gebruik – nog steeds 80 procent van de oorspronkelijke capaciteit. Met 80W SUPERVOOC Flash Charge-technologie is de accu bovendien in 51 minuten weer volledig opgeladen.

Bestand tegen water, stof en stoten

De A6 Pro 5G heeft een IP69-certificering, wat betekent dat hij niet alleen volledig stofdicht is, maar ook bestand tegen krachtige waterstralen en onderdompeling. Binnenin beschermt een aluminiumlegering het moederbord tegenverbuigen en schokken, terwijl AGC DT-Star D+ glas de voorkant beschermt tegen krassen. De smartphone is daarnaast getest volgens militaire standaarden voor schokbestendigheid, waardoor hij tegen een stootje kan.

Vloeiend scherm en soepele prestaties

Het 6,7 inch AMOLED-scherm biedt een resolutie van 1080 x 2374 pixels en een verversingssnelheid van maximaal 120Hz. Met een piekhelderheid van 1.400 nits blijft het beeld goed zichtbaar, zelfs in fel zonlicht. OPPO's Trinity Engine en Luminous Rendering Engine – geïntegreerd in ColorOS 15 – zorgen voor een stabiele, vloeiende werking, ook bij multitasking en gamen.

©OPPO

Slimme verbindingen

De A6 Pro 5G beschikt over AI LinkBoost 3.0, een technologie die automatisch het sterkste netwerk kiest en overschakelt als de verbinding zwakker wordt. Tijdens het gamen herkent de telefoon prioriteitsverkeer en houdt de AI Game Antenna het signaal stabiel, zelfs als je het toestel horizontaal vasthoudt.

Licht, strak en modern

Met een dikte van 8 millimeter en een gewicht van 185 gram is de A6 Pro 5G opvallend slank voor een robuuste telefoon. Het scherm vult 93 procent van de voorkant en de metalen rand geeft het toestel een stevige, premium uitstraling. De smartphone is verkrijgbaar in twee kleuren: Lunar Titanium en Stellar Black.

Prijs en beschikbaarheid

De OPPO A6 Pro 5G (8GB/256GB) is per direct verkrijgbaar in Nederland voor 299 euro via de OPPO e-store en geselecteerde verkooppunten. Wie vóór 9 november bestelt, krijgt een set Enco Buds3 (ter waarde van 49 euro) gratis bij aankoop.

©OPPO

De OPPO A6 Pro 5G (8GB/256GB) in één oogopslag

🔋 Batterij en opladen

  • 6.500 mAh batterij – groter dan gemiddeld, goed voor meer dan een dag intensief gebruik.

  • 80W SUPERVOOC Flash Charge – volledig opladen in ongeveer 51 minuten.

  • Langdurige levensduur – behoudt meer dan 80% capaciteit na 1.830 laadcycli (≈ 5 jaar gebruik).

  • Tot 37 uur bellen of 19 uur video kijken op één lading.


💪 Duurzaamheid en bouwkwaliteit

  • IP69 water- en stofdicht – hoger dan de meeste smartphones in dit segment.

  • Schokbestendig volgens militaire standaard – getest op vallen, stoten en buigen.

  • AGC DT-Star D+ Crystal Shield Glass – extra sterk glas tegen krassen.

  • Behuizing met AM04-aluminiumlegering – kan tot 1.000 buigingen weerstaan.


🖥️ Scherm en prestaties

  • 120Hz AMOLED-scherm – hoge verversingssnelheid en vloeiende weergave.

  • Piekhelderheid van 1.400 nits – goed leesbaar in zonlicht.

  • Fijne resolutie (1080x2374) met 93% screen-to-body ratio.

  • Trinity Engine & Luminous Rendering Engine – optimaliseren snelheid, animaties en systeemstabiliteit (ColorOS 15).


🌐 Connectiviteit en gaming

  • AI LinkBoost 3.0 – wisselt slim tussen netwerken, versterkt signaal bij zwakke verbinding.

  • AI Game Antenna – voorkomt signaalverlies bij horizontaal gamen.

  • 5G-ondersteuning – stabiele verbinding en snelle downloads.


🧱 Ontwerp

  • Slank (8 mm) en licht (185 g).

  • Vierzijdig bezelontwerp met metalen frame.

  • Verkrijgbaar in twee kleuren: Lunar Titanium en Stellar Black.

▼ Volgende artikel
Schrijfbeveiliging van je usb-stick opheffen: zo doe je dat
© ChrisChips - stock.adobe.com
Huis

Schrijfbeveiliging van je usb-stick opheffen: zo doe je dat

Stel: je wilt snel een paar bestanden op een usb-stick zetten, maar de enige flashdrive die je kunt vinden weigert nieuwe bestanden op te nemen. Om een of andere reden staat hij in de alleen-lezen-modus. Hoe los je dit op?

Stap 1: Is er een switch?

Het eerste dat je doet, is controleren of de usb-stick een fysieke schakelaar heeft voor schijfbeveiliging. Het nut van zo'n schakelaartje dat iedereen kan uitzetten, hebben we nooit begrepen. Toch zou nogal stom zijn om allerlei softwarematige kunstgrepen uit te halen als je gewoon de schrijfbeveiliging met een switch aan de zijkant had kunnen uitschakelen.

©Rafa Irusta Machin

Controleer of de usb-stick van het type is met een schakelaartje.

Stap 2: Via Uitvoeren

Als er geen schakelaar is, kun je de schrijfbeveiliging uitzetten via het venster Uitvoeren. Typ in de zoekbalk op de taakbalk de opdracht Uitvoeren of gebruik de toetscombinatie Windows-toets+R. Typ diskpart in het nieuwe venster en druk op Enter. Geef eventueel je toegangscode van Windows op om te bevestigen. Typ nu list disk en druk op Enter.

Zometeen moet je ieder commando bevestigen met een druk op Enter. Hierdoor zie je een lijst van de drives in je pc. De usb-drive zou de laatste in de lijst moeten zijn.

Typ op de volgende regel select disk # (waarbij # het nummer is van de usb-drive). Het volgende commando is attributes disk om de huidige status van de drive te zien. Wanneer je Read-only State : Yes leest, weet je dat de drive zich in de alleen-lezen-status bevindt. Typ nu attr dis clear readonly om de alleen-lezen-status uit te schakelen. Typ attr dis om de nieuwe status van de drive te lezen. Als je Current Read-only State:No ziet, is het gelukt en kun de stick gebruiken.

We schakelen nu de read-only-status uit.

Stap 3: Via het register

Als de vorige stap niet werkt, probeer je het via het register. We gaan ervan uit dat de usb-stick in de pc zit. Druk op Windows-toets+R, typ regedit en klik op OK. Navigeer naar: HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\StorageDevicePolicies. Klik op het pictogram WriteProtect. Stel bij Waardegegevens de waarde in op 0 en klik op OK.

Wanneer er geen StorageDevicePolicies is, kun je deze regel zelf maken. Klik met de rechtermuisknop op Control en selecteer Nieuw en vervolgens Sleutel. Geef de naam StorageDevicePolicies op. Klik met rechts op de witte ruimte aan de rechterkant en selecteer Nieuw en dan DWORD (32-bit) Waarde. Noem het WriteProtect. Open deze en stel de waarde in op 0. Nu zou alles moeten werken.

Stel de waardegegevens van WriteProtect in op 0.

 
Lees ook: Usb-stick werkt niet meer? Zo kun je hem (misschien) nog redden