ID.nl logo
De technologie achter deepfake en synthetische media
© Reshift Digital
Huis

De technologie achter deepfake en synthetische media

Je eigen gezicht op een filmpersonage plakken is geestig en vrij onschuldig, een politicus iets laten zeggen wat hij of zij nooit gezegd heeft is al van een andere orde. We hebben het uiteraard over deepfakes. Hoe werkt de technologie achter synthetische media?

Een belangrijk containerbegrip waar deepfakes onder vallen is ‘synthetische media’. Dat staat voor content die niet door mensen is gemaakt, maar door computers gegenereerd. Het gaat bijvoorbeeld om foto’s of video’s die niet echt zijn, maar er wel heel echt uitzien. Maar het kan ook gaan om audio, teksten of virtuele objecten. De content wordt geproduceerd door een algoritme op basis van kunstmatige intelligentie (AI, artificial intelligence). 

Deze AI wordt gevoed en getraind door data, zoals foto’s met verschillende gezichtskenmerken, bewegende beelden van een persoon, teksten, muziek of het interieur van huizen. Hoe groter de dataset, des te beter de vaardigheden van het algoritme worden. Software heeft ten opzichte van mensen het voordeel dat het content met hoge snelheid en op oneindige schaal kan produceren.

Een algoritme kan op basis van een dataset met bijvoorbeeld foto’s van tienduizenden personen de gelaatskenmerken analyseren, zoals de positie en kenmerken van de ogen, neus en mond, wenkbrauwen, haar en bijvoorbeeld moedervlekken. Door die vanuit verschillende hoeken te analyseren ontstaat een 3D-model van het gezicht. 

Op basis daarvan, en de overeenkomsten en verschillen tussen mensen in de dataset, kan het algoritme zelf mensen ‘maken’. Wanneer beelden gecombineerd worden van echte mensen wordt dit een deepfake genoemd. Maar het kan ook op basis van random noise, oftewel pixels.

©PXimport

Face swappen

Een onderdeel dat vaak in het nieuws komt, is een zogenoemde deepfake-video of -foto. Hierbij wordt een persoon gedeeltelijk vervangen door een andere persoon – bijvoorbeeld door het gezicht te verwisselen. Het begrip ‘deepfake’ is een samenvoeging van twee Engelse woorden: ‘deep learning’ en ‘fake’. Deep learning is een onderdeel van ‘machine learning’, dat gebaseerd is op kunstmatige neurale netwerken. Het wordt gebruikt om bestaande afbeeldingen en video te combineren, en delen ervan te integreren. 

Bij veel deepfake-video’s wordt meestal alleen een klein deel van een persoon vervangen: het gezicht. Dit heet een ‘faceswap’. Dit scheelt kostbare rekenkracht en het is beduidend minder complex omdat niet al het haar, lichaam, kleding en de achtergrond hoeft te worden vervangen. In de praktijk worden vaak alleen de gelaatstrekken van een hoofd overgenomen, zoals de ogen, neus, wenkbrauwen, gezichtshaar en mond. Deze worden wel zo aangepast dat de kleur en de belichting van het gezicht overeenkomt met het origineel. 

Het resultaat ziet er vaak verrassend echt uit, zeker wanneer het personen betreft die qua bouw een beetje op elkaar lijken. Een bekend voorbeeld is een scène van Arnold Schwarzenegger in Terminator 2, waarbij het gezicht is vervangen door aartsrivaal Sylvester Stallone. Een faceswap is tegenwoordig zo eenvoudig dat iedere consumentencomputer het kan: er bestaat kant-en-klare opensource-software voor. Ook smartphones zijn krachtig genoeg en er zijn talloze apps, zoals Reface.

Hoe werkt deepfake?

Het manipuleren van bestaande beelden of een faceswap werkt door eerst het bronbeeld uitvoerig te analyseren: de positie en de bewegingen van alle onderdelen van het gezicht worden uitvoerig ontleedt, evenals het licht en de hoek van het gezicht. Alle individuele frames worden apart opgeslagen. Vervolgens gebeurt hetzelfde met het doelbeeld, waarbij de gezichten over elkaar worden gelegd. Hoe groter de dataset aan beelden is, des te beter is het eindresultaat.

Het produceren van een compleet nieuw beeld door een algoritme werkt anders. Dit gebeurt met een techniek die bekend staat als GAN (Generative Adversarial Network). Dit is een klasse van algoritmen voor ongecontroleerd leren. Het werkt door middel van een soort spelscenario waarbij twee neurale netwerken tegen elkaar strijden en samenwerken. 

Het eerste netwerk is de generator, die een beeld genereert (maar het kan ook een tekst of audiofragment zijn). Het tweede netwerk is de discriminator, die is getraind op een grote database van voorbeelden en probeert te detecteren of het beeld echt is, of gefabriceerd door de generator. Dit proces gaat net zo lang door tot het door het eerste netwerk geproduceerde beeld zo goed is, dat het aangemerkt wordt als echt. Het netwerk van de generator traint zichzelf dus als het ware omdat het telkens anticipeert op de afwijzingen van de discriminator. 

Een GAN die op foto’s is getraind, kan zelf beelden genereren die niet van echt te onderscheiden zijn. Deze foto’s of video’s zijn dus niet samengesteld uit echte beelden, zoals bij deepfake, maar volledig op basis van nieuwe pixels gegenereerd. Het gaat dan dus om mensen die in werkelijkheid niet bestaan, maar er wel levensecht uitzien. Voorbeelden zijn te zien op sites als thispersondoesnotexist.com. Voor katten, huiskamers en landschappen bestaat deze techniek ook.

Hollywood

De techniek worden steeds vaker toegepast in Hollywoodfilms. In Terminator Genisys, Captain Marvel, Tron: Legacy, The Irishman en Gemini werden hoofdrolspelers tientallen jaren jonger gemaakt. In 2016 zagen we een jonge Carrie Fisher als prinses Leia in Star Wars: Rogue One en in Episode IX figureerde zij zelfs na haar dood.

Amerikaanse filmmakers overwegen zelfs de in 1955 overleden acteur James Dean, te laten figureren in een nieuwe Vietnamfilm, omdat ze zijn persoon zo goed bij de rol vinden passen. Ook voor tv en op YouTube worden steeds vaker deepfakes gebruikt. Zo zond het Britse tv-netwerk Channel 4 beelden van Koningin Elizabeth uit waarbij ze een TikTok-dans deed. 

In Zondag met Lubach ontkrachtte Gerry Baudet uitspraken die door zijn ‘broertje’ waren gedaan. In december 2020 publiceerde YouTube-kanaal Sassy Justice, van de makers van South Park, een zogenaamd kerstverhaal van President Trump waarin twee rendieren onderling ruzie krijgen over de uitslag van de verkiezingen. De opname lijkt verrassend echt, inclusief de bewegingen, handgebaren, gelaatstrekken en de stem van Trump. 

Tenslotte ontstond onlangs veel reuring nadat De Correspondent een gemanipuleerd filmpje van Mark Rutte online zette, waarin het leek alsof de VVD-politicus ineens wel erg begaan was met het klimaat. Op de stem na zou je het zo geloven! 

Tekst: Jeroen Horlings

▼ Volgende artikel
CES 2026: 4 opvallende dingen gespot door Martin van Power Unlimited Tech
Huis

CES 2026: 4 opvallende dingen gespot door Martin van Power Unlimited Tech

Je hebt ze deze week al eerder voorbij zien komen: de meest opvallende dingen die Martin Verschoor van Power Unlimited Tech tegen is gekomen op de CES in Las Vegas. We hebben er weer een aantal voor je verzameld!

Ook leuk: CES 2026: 3 opvallende dingen gespot door Martin van Power Unlimited Tech

De Mouth of Truth (maar dan anders)

View post on TikTok

Samsung SmartThings-AI als dierenarts 

View post on TikTok

TCL AiMe: gezelschapsrobot wordt steeds persoonlijker

View post on TikTok

LG televisie: met recht een Wallpaper-tv

View post on TikTok
▼ Volgende artikel
CES 2026: LG OLED evo W6 Wallpaper TV is 9 mm dun en is 'true wireless' met Zero Connect Box
© LG
Huis

CES 2026: LG OLED evo W6 Wallpaper TV is 9 mm dun en is 'true wireless' met Zero Connect Box

LG heeft op CES 2026 de OLED evo W6 aangekondigd: een nieuwe versie van zijn Wallpaper TV die ongeveer 9 millimeter dun is en vrijwel vlak tegen de muur kan hangen. Aansluitingen zoals HDMI zitten niet meer in het scherm, maar in een losse Zero Connect Box die je tot 10 meter verderop kunt plaatsen; beeld en geluid gaan daarna draadloos naar de tv.

View post on TikTok

LG grijpt met de W6 terug op het 'Wallpaper Design' dat het in 2017 introduceerde. Het idee is dat de tv zo min mogelijk uitsteekt en van rand tot rand vlak tegen de muur hangt. Volgens LG is dat gelukt door interne onderdelen te verkleinen en de opbouw van het toestel opnieuw te ontwerpen. De wandbeugel is daarbij aangepast om de tv strakker tegen de muur te laten zitten.

Het 'true wireless'-deel zit in die Zero Connect Box. Daar sluit je al je bronnen op aan, terwijl de tv zelf zo leeg mogelijk blijft. LG zegt dat de draadloze verbinding 4K-video en audio naar het scherm stuurt zonder zichtbaar kwaliteitsverlies. In de praktijk is dit vooral interessant als je geen kabelbundel naar de tv wilt of als je apparatuur liever in een kast zet, bijvoorbeeld een spelcomputer of settopbox.

Naast het ontwerp zet LG ook in op beeldkwaliteit. Het bedrijf spreekt over een nieuw beeldpakket met 'Hyper Radiant Color Technology'. Dat moet dat zorgen voor diep zwart, felle kleuren en een hogere helderheid, terwijl reflecties op het scherm juist worden teruggedrongen.

De beeldverwerking komt van de nieuwe α (Alpha) 11 AI Processor Gen3. LG stelt dat de neurale rekenkracht in deze generatie flink is toegenomen en dat een 'Dual AI Engine' twee taken tegelijk kan uitvoeren: ruis verminderen én detail behouden. Dat moet vooral helpen bij gecomprimeerde streams en oudere content, waar tv's soms óf te veel gladstrijken óf juist onnatuurlijk scherpte toevoegen.

Ook op gaming mikt LG nadrukkelijk. De W6 en de andere 2026 OLED evo-modellen ondersteunen 4K met een verversingssnelheid tot 165 Hz, samen met NVIDIA G-SYNC Compatible en AMD FreeSync Premium om tearing te beperken. Verder zijn Auto Low Latency Mode en een opgegeven pixelresponstijd van 0,1 ms aanwezig, wat vooral belangrijk is als je snel bewegende games speelt en zo weinig mogelijk vertraging wilt.

Aan de softwarekant blijft webOS het platform, met extra personalisatie. Via Voice ID kan de tv herkennen wie er praat en schakelt hij naar een persoonlijke startpagina met bijbehorende apps en widgets. LG integreert daarnaast AI-functies met onder meer Google Gemini en Microsoft Copilot, zodat je vragen kunt stellen of extra context kunt opvragen zonder de app te verlaten. Met de nieuwe optie 'In This Scene' kun je bijvoorbeeld informatie over acteurs en gerelateerde content oproepen.

Wie de tv ook als 'scherm aan de muur' wil gebruiken, heeft toegang tot LG Gallery+. Dat is een dienst die de tv afbeeldingen laat tonen, van kunst en video-stills tot eigen foto's en beelden die je met generatieve AI maakt. LG zegt dat er ruim 4.500 visuals beschikbaar zijn en dat de dienst op meer modellen in de 2026-line-up uitrolt, niet alleen op de W6.

Wanneer de LG OLED evo W6 precies op de markt komt, in welke formaten en wat de prijzen gaan worden is nog niet bekend.

©LG

 Bekijk alle televisies van LG op Kieskeurig.nl