ID.nl logo
Wat is deepfake en hoe herken je nepvideo's?
© PXimport
Zekerheid & gemak

Wat is deepfake en hoe herken je nepvideo's?

Van foto’s is algemeen bekend dat ze eenvoudig te manipuleren zijn. Voor bewegend beeld was dat altijd lastiger. Toch is het dankzij deep learning, neurale netwerken en toenemende rekenkracht tegenwoordig relatief eenvoudig om iemands hoofd op een ander persoon te monteren, zelfs met beweging. Wat is deepfake en kunnen we videobeelden überhaupt nog wel vertrouwen?

Wellicht ken je de smartphone-apps FaceApp en FaceSwap wel. De eerste, die onder meer een oudere versie van een persoon kan genereren, was onlangs in het nieuws omdat het gezichtskenmerken op Russische servers zou opslaan. De tweede is een app waarmee je gezichten kunt wisselen – dus bijvoorbeeld dat van je buurman op dat van jou en andersom. Dat laatste kan ook al jaren met Snapchat, dat zich tevens heeft gespecialiseerd in allerlei andere effecten, zoals het opzetten van een hippe virtuele bril of de achtergrond die verandert in een tropisch eiland.

Processors zijn tegenwoordig zo krachtig dat vrijwel elke smartphone realtime dergelijke videobeelden kan genereren. Het effect is leuk en zo is het ook bedoeld. En hoewel het soms indrukwekkende resultaten biedt, is het meestal overduidelijk nep.

Bij deepfake-video’s is dat niet meer vanzelfsprekend het geval. Het resultaat ziet er akelig realistisch uit en is soms met het blote oog niet van echt te onderscheiden. In Hollywoodfilms wordt deze techniek al langer gebruikt, maar tot voor kort waren daar zeer dure en krachtige workstations voor nodig, evenals complexe software. Zo zagen we in Terminator Genisys een oude en nieuwe versie van Arnold Schwarzenegger (oftewel de T-800) tegen elkaar vechten. Een 67-jarige Arnold tegen de 37-jarige Arnold uit 1984 dus. Die laatste was natuurlijk niet echt, maar digitaal gerenderd op basis van de originele beelden uit de eerste Terminator-film. In de film Gemini Man zien we vrijwel exact dezelfde situatie: Will Smith loopt een jongere versie van zichzelf tegen het lijf die zijn vijand blijkt.

Digitaal spelen met leeftijden is echter een trend. Eerder zagen we ook al een 25 jaar jongere Samuel L. Jackson als ‘jonge’ Nick Fury in Captain Marvel, en in The Irishman kregen Al Pacino en Robert de Niro een digitale verjongingskuur omdat ze te oud waren voor hun rollen. Deze beelden werden gegenereerd met behulp deep learning, oftewel deepfake.

Het begrip deepfake is een samenvoeging van twee Engelse begrippen: deep learning en fake. Deep learning is onderdeel van machine learning, dat is gebaseerd op kunstmatige neurale netwerken. De werking van deze kunstmatige intelligentie (of AI: artificial intelligence) lijkt op de manier waarop onze eigen hersenen werken op basis van zenuwcellen oftewel neuronen. Deze AI kan zichzelf trainen aan de hand van data, waardoor de vaardigheden toenemen.

Die data kunnen bijvoorbeeld bestaan uit foto’s of video’s van een persoon, waarbij speciale software de gelaatskenmerken analyseert. Door die vanuit verschillende hoeken te analyseren ontstaat een 3D-model van het gezicht. Niet alleen van de positie van de ogen, neus en mond, maar ook die van andere kenmerken (inclusief de bijbehorende kleuren) zoals wenkbrauwen, haar en bijvoorbeeld littekens. Ook de manier van praten en bewegen wordt opgeslagen.

Als er genoeg bronmateriaal is geanalyseerd, kan er met behulp van CGI (computer-generated imagery) een 3D-computeranimatie worden gemaakt. In principe is het mogelijk een volledig 3D-model te construeren, eventueel inclusief bewegingen. Bij deepfake-video’s zien we vaak dat slechts een gedeelte van een persoon wordt vervangen, bijvoorbeeld alleen de gelaatstrekken van een hoofd zoals ogen, neus en mond.

Dat scheelt niet alleen kostbare rekenkracht, het is ook beduidend minder complex omdat bijvoorbeeld niet al het haar, het lichaam, de kleding en de achtergrond hoeven te worden vervangen. Een faceswap is tegenwoordig zo eenvoudig dat praktisch elke consumentencomputer het kan. Er bestaat zelfs kant-en-klare opensource-software voor.

Beroemdheden en porno

Eind 2017 dook de term deepfake voor het eerst op. Een Reddit-gebruiker genaamd ‘deepfakes’ plaatste video’s van beroemdheden op de site. Het ging alleen niet om echte video’s, maar nepbeelden. In de meer onschuldige beelden werd het gezicht van acteur Nicolas Cage gemonteerd op dat van andere acteurs in films waar hij niet in had gespeeld. Later verschenen er pornovideo’s waarin het hoofd van beroemde vrouwelijke sterren op dat van pornoactrices was gemonteerd. Door rekening te houden met het figuur en de kleur haar van beide actrices, was het resultaat vaak levensecht.

Het gevolg was dat de video’s zich snel over het internet verspreidden en onder meer op sites als Pornhub terechtkwamen. Dat leidde vervolgens tot serieuze reputatieschade voor de sterren – zij moesten zich verweren tegen nepvideo’s en startten talloze procedures om de beelden weer van websites af te krijgen. Het ging onder meer om Daisy Ridley, Emma Watson, Katy Perry, Taylor Swift en Scarlett Johansson. In augustus dit jaar overkwam voormalig NOS-nieuwslezeres Dionne Stax hetzelfde.

©PXimport

In juni dit jaar dook er zogenaamde DeepNude-software voor Windows en Linux op, zowel een gratis als een betaalde variant (50 dollar). Het laat zich raden wat de software deed: het stripte de kleding weg op basis van deep learning en genereerde met behulp van een uitgebreide dataset een bijpassend lichaam. De resultaten zagen er behoorlijk overtuigend uit, al werkte het ‘t best als de dame is kwestie al schaars gekleed was.

De makers kregen extreem veel kritiek te verduren omdat het vrouwen kwetsbaar maakt, bijvoorbeeld voor wraakporno. De verspreiding van DeepNude werd gestopt, maar inmiddels zijn er talloze soortgelijke programma’s die hetzelfde kunstje flikken.

Technische verbetering

Bij de eerste deepfake-video’s kon een oplettende kijker nog wel zien dat er iets niet klopte. Er waren glitches zichtbaar, bijvoorbeeld bij snelle bewegingen waarbij het 3D-model sneller of langzamer dat het echte hoofd bewoog en dus los in beeld stond. Ook waren er regelmatig foutjes te zien op het gebied van belichting en bij de overgang van het nep- naar het echte gezicht. En soms paste de gezichtskenmerken gewoon totaal niet bij de persoon waar deze op geprojecteerd werden.

Toch is er in korte tijd veel veranderd. Onder meer de Reddit-community hielp actief mee om onnauwkeurigheden in de deepfake-video’s weg te poetsen door de software-algoritmen te optimaliseren. Er werd zelfs software gedeeld waarmee een enkele foto al voldoende was voor een deepfake-video; dat was een kwestie van twee klikken, al zag het er wel minder overtuigend uit. Om de software te trainen werd deze ‘gevoed’ met foto’s en video’s van beroemdheden, waardoor meer ervaring kon worden opgedaan met verschillende gezichtskenmerken, maar ook expressies en bewegingen tijdens het praten.

Deepfake-video’s zijn daardoor steeds realistischer geworden en voor een leek bijna niet meer te herkennen, tenzij er bewust iets geks is gedaan – zoals het gezicht van een man op dat van een vrouw. Oneffenheden komen minder vaak voor, het werkt met verschillende huidskleuren en het is ook prima mogelijk om gezichtskenmerken naadloos te integreren op een doelpersoon met een baard of een andere haarkleur.

Nepvideo’s in de praktijk

Net als luchtige, satirische ‘nieuwsberichten’ zoals die van De Speld kun je met deepfake-video’s komische dingen doen, bijvoorbeeld in tv-programma’s en films, maar ook tijdens een speech op een bruiloft. In films is de techniek bovendien nuttig gebleken door niet alleen jongere of oudere versies van mensen te produceren, maar ook door overleden mensen weer tot leven te brengen.

Toch kun je er ook minder vrolijke dingen mee doen. In mei dit jaar werd een speech van democratisch leider Nancy Pelosi zo bewerkt dat het net leek alsof ze dronken was en lastig uit haar woorden kwam. De nepvideo werd daarna uitgezonden door Fox News, dat er vermoedelijk van uitging dat de video echt was. Ook Donald Trump retweette de video. Het probleem is dat opvallend nieuws zich razendsnel kan verspreiden, in tegenstelling tot rectificaties en factchecks.

In april 2018 werd een nepvideo gepubliceerd als waarschuwing van wat er mogelijk is met deepfake-technologie. Komiek Jordan Peele deed zich voor als Obama en deed uitspraken als ‘Trump is a total dipshit’, om er aan toe te voegen dat hij dat in het echt natuurlijk nooit zou zeggen, waarna Peele in een split screen verscheen. Door middel van lipsync bewoog Obama’s mond op exacte dezelfde manier als die van Peele, waardoor Obama dus zelf leek te spreken.

Om de beelden overtuigender te maken, maakte Obama tijdens het praten bewegingen met zijn hoofd en handen, en knipperde hij ook natuurlijk met z’n ogen. Een computer had 50 uur nodig om de video te perfectioneren met behulp van Adobe AfterEffects en FakeApp.

Spraaksynthese

Nepvideo’s van een bekend persoon zijn vaak te herkennen aan de spraak die niet helemaal overeenkomt met die van de geportretteerde. Bij een simpele deepfake-video, waar alleen de gezichtskenmerken van een ander over die van een bestaand persoon worden geprojecteerd, is de spraak nog steeds die van de oorspronkelijke persoon. Voor de oplettende luisteraar valt dat al snel op: er klopt iets niet. Wie dat wil perfectioneren kan drie dingen doen.

Optie 1: een stemacteur inhuren die de spraak van de bewuste persoon goed kan nadoen, zoals het eerdergenoemde voorbeeld met oud-president Obama. Optie 2: eerdere uitspraken van de bewuste persoon knippen, plakken en woorden ertussen plaatsen, al klinkt dat vaak erg nep. Optie 3: spraaksynthese gebruiken.

In 2016 demonstreerde Adobe de tool Voco Audio Manipulator. Spraakbewerking is tegenwoordig al erg geavanceerd en laat je eenvoudig woorden uit een zin knippen, maar spraaksynthese gaat nog een flinke stap verder. Je kunt een persoon namelijk woorden laten uitspreken die hij nog nooit eerder heeft gezegd. Net als bij deepfake-video’s moet de software eerst worden gevoed met spraakvoorbeelden, zoals audiofragmenten. Circa 10 tot 20 minuten aan spraak is al voldoende.

©PXimport

Wanneer het systeem weet hoe iemand bepaalde klanken uitspreekt, kunnen er nieuwe spraakelementen worden toegevoegd door deze domweg als tekst in te voeren. Op basis van de uitspraak van een combinatie van letters kan dat voor nieuwe woorden worden gebruikt. Ook de intonatie kan worden veranderd en het is zelfs mogelijk dat een ander persoon de woorden met een bepaalde intonatie of stemverheffing uitspreekt, waarna de software alles vervolgens omzet in de stem van de doelpersoon.

De demo’s die Adobe heeft vrijgegeven zijn indrukwekkend. Tegelijkertijd is het ook beangstigend, want je kunt mensen in feite alles laten zeggen. Dat kan worden misbruikt in rechtszaken, chantagemateriaal en propaganda.

Toekomst

Het blijft niet bij faceswaps en spraaksynthese, maar het is ook al mogelijk om een persoon bewegingen te laten maken met het hele lichaam. Ook daarvoor geldt weer dat er voldoende data beschikbaar moet zijn, waarbij het lichaam vanuit meerdere punten te zien is. Op basis van de beweging van een andere bron, zoals een danser of kungfu-expert, kan een persoon de bewegingen overnemen.

Het is elk geval duidelijk dat het aantal mogelijkheden om video’s te manipuleren in korte tijd enorm is gegroeid. Het lijkt slechts een kwestie van tijd voordat dit kan op basis van een aantal foto’s of korte video met enkel en alleen een app. Het gebruik ervan – of dat nu komisch bedoeld is of in de vorm van misbruik – is niet te voorkomen, dus we kunnen ons er maar beter van bewust zijn dat ook bewegend beeld niet altijd te vertrouwen is.

Tekst:Jeroen Horlings

▼ Volgende artikel
Review Samsung Galaxy S25 – Goed, maar saai
© Rens Blom
Huis

Review Samsung Galaxy S25 – Goed, maar saai

De Samsung Galaxy S25 is een smartphone die we velen kunnen aanraden, want hij werkt als een trein en doet alles wat je wilt. Maar het is ook een smartphone die al heel snel vertrouwd aanvoelt, want serieuze innovaties ontbreken. Daar kan Samsungs nadruk op gave AI-functies geen verandering in brengen.

Uitstekend
Conclusie

De Samsung Galaxy S25 is een erg prettige en complete smartphone waar je jaren plezier van kunt hebben. De prijs vinden we dan ook gerechtvaardigd. Maar daar moeten we meteen bij zeggen dat het ook kan lonen om de S24 van het jaar ervoor te nemen, aangezien die op veel punten vergelijkbaar presteert en circa 200 euro goedkoper is dan de S25.

Plus- en minpunten
  • Relatief handzaam
  • Complete, premium gebruikerservaring
  • Lang updatebeleid
  • Basisvariant heeft slechts 128 GB opslag
  • Mogelijk per 2026 betalen voor ingebouwde AI-functies
  • Weinig innovatie t.o.v. de Galaxy S24

De Galaxy S25-serie bestaat op moment van schrijven uit drie modellen: de S25, S25 Plus en S25 Ultra. De S25 is het kleinste en goedkoopste model en komt in deze review aan bod. Lees hier onze review van de S25 Plus of hier onze review van de S25 Ultra.

©Rens Blom

Krappe basisvariant, lang updates

De S25 lijkt qua ontwerp veel op zijn grotere en duurdere broers, maar doet ook erg veel denken aan zijn voorganger: de S24. Die blijft voorlopig ook gewoon te koop, en is met zijn lagere prijs een interessant alternatief voor wie de S25 aan de dure kant vindt. De S25 draagt een adviesprijs van 849 euro voor het model met 128 GB opslagcapaciteit. Die variant raden we weinig mensen aan, want je kunt minder dan die 128 GB gebruiken. En als je jaren met de smartphone wilt doen, raakt de opslagcapaciteit door je foto's, video's, apps snel vol. Helemaal omdat elke update die de telefoon veiliger en beter maakt, ook ruimte inneemt. En je kunt heel wat updates verwachten, want Samsung belooft zeven jaar Android-upgrades en beveiligingsupdates. Een uitstekend updatebeleid dat vergelijkbaar is met Apple (iPhone) en Google (Pixel). Om daadwerkelijk jaren te kunnen doen met de S25, raden we je daarom niet de 128GB-variant maar de 256GB-versie aan. Die is eenmalig wat duurder, maar verzekert je op de lange termijn van meer opslagcapaciteit.

©Rens Blom

Drie goede camera's

Sowieso is de Galaxy S25 een smartphone waar je – als het goed is – jaren mee vooruit kunt. Het toestel heeft een degelijke behuizing van glas en aluminium, is waterdicht en stofbestendig en beschikt over krachtige, toekomstbestendige hardware. We noemen een razendsnelle Qualcomm Snapdragon 8 Elite-processor, maar liefst 12 GB werkgeheugen en ondersteuning voor technieken als wifi 7. De smartphone is erg snel in gebruik, doet alles wat je wilt en gaat een lange dag mee op een accubeurt. Opladen kan via de usb-c-poort of – langzamer – draadloos. Tel er drie goede camera's bij op en je hebt een complete telefoon waar je elke dag op kunt vertrouwen.

©Rens Blom

Van boven naar onder: hoofdcamera, groothoekcamera en drie keer zoom via de telelens.

©Rens Blom

Verschillende cameramodi op de S25, waaronder de maximale zoomfunctie (onderaan).

Lijkt erg veel op de S24

Bij dat laatste wringt de schoen echter ook. De Samsung Galaxy S25 is namelijk een hele typische Samsung-smartphone, en doet ons wel héél erg veel denken aan de S24 en de modellen ervoor. Het toestel oogt dusdanig herkenbaar dat niemand in onze omgeving doorhad dat we een nieuwe smartphone gebruikten. Ook qua scherm, accucapaciteit en oplaadsnelheid verschilt het nauwelijks van de S24. De camera's presteren íets beter, maar dat merk je eigenlijk alleen als je nu een (Samsung)smartphone van een paar jaar geleden gebruikt. Begrijp ons niet verkeerd: de Samsung Galaxy S25 is een hele fijne smartphone die we aan heel veel mensen kunnen aanraden als je een relatief handzame, nieuwe topsmartphone zoekt. Maar we moeten er ook bij zeggen dat de kans groot is dat je binnen een paar dagen vergeten bent dát je een nieuwe topsmartphone in je handen hebt.

©Rens Blom

De S25 is een fijne smartphone, maar de nieuwigheid is er al heel snel af.

De S25 is vertrouwd goed, zonder op te vallen. Hij gaat niet uitzonderlijk lang mee op een accubeurt, blaast je niet omver met zijn camera's, laadt de accu niet razendsnel op en heeft ook geen ontwerp dat de aandacht trekt. Dat is niet erg, maar maakt de S25 ook een beperkte upgrade ten opzichte van de S24. De S24 is weliswaar technisch íets minder goed en de softwareondersteuning stopt een jaar eerder, maar het actuele prijsverschil van circa 200 euro kan terecht een doorslaggevende factor zijn om voor het toestel van vorig jaar te gaan.  

Mogelijk betalen voor AI-functies

Samsung weet zelf natuurlijk ook dat de S24 en S25 veel op elkaar lijken. Het bedrijf zet in op kunstmatige intelligentie (AI) om de S25 meer te onderscheiden van zijn voorganger. Die had al wat AI-functies om je telefoonervaring slimmer en efficiënter te maken, en de S25 zet die trend voort. In de S25-software zijn meer handige foefjes gebouwd om de gebruikerservaring te verbeteren. Ons advies: verwacht daar niet te veel van. Sommige functies zijn handig, maar werken ook al op de S24 of komen via een software-update alsnog beschikbaar voor dit toestel. Andere AI-functies op de S25 werken nog niet in het Nederlands of voegen naar onze mening weinig toe.

©Rens Blom

Samsung houdt de deur open om zijn AI-functies per 2026 achter een betaalmuur te zetten.

Daar komt nog bij dat Samsung aangeeft dat zijn AI-functies ten minste tot eind 2025 gratis te gebruiken zijn. Of dat daarna zo blijft, laat het merk in het midden. Mogelijk moet je vanaf 2026 dus betalen om gebruik te kunnen (blijven) maken van geadverteerde AI-functies, nadat je al betaald hebt voor de smartphone. Samsung is er vooralsnog vaag over, wat naar ons idee geen verkoopargument is voor de AI-functies.

Conclusie: Samsung Galaxy S25 kopen?

De Samsung Galaxy S25 is een erg prettige en complete smartphone waar je jaren plezier van kunt hebben. De prijs vinden we dan ook gerechtvaardigd. Maar daar moeten we meteen bij zeggen dat het ook kan lonen om de S24 van het jaar ervoor te nemen, aangezien die op veel punten vergelijkbaar presteert en circa 200 euro goedkoper is dan de S25.  

▼ Volgende artikel
Wordt dit de populairste emoji van het jaar?
© Unicode
Huis

Wordt dit de populairste emoji van het jaar?

Apple heeft iOS 18.4 uitgebracht. Daarin zitten zoals altijd de nodige beveiligingsupdates, probleemoplossingen en verbeteringen, maar ook acht nieuwe emoji. Daarbij zit er een waarvan het ons niet zou verbazen als die binnen no time de meest gebruikte emoji aller tijden zou worden.

Nieuwe emoji's komen er niet zomaar. Iedereen mag een voorstel indienen bij het Unicode Consortium, de organisatie die digitale tekens wereldwijd standaardiseert. Zij beoordelen of het idee bruikbaar, relevant en onderscheidend genoeg is. Eén keer per jaar stellen ze een nieuwe set samen. De emoji's die nu zijn verschenen, horen allemaal bij de set Emoji 16.0. Heb je iOS 18.4 geïnstalleerd, dan kun je ze vanaf nu gebruiken. Het zijn een vingerafdruk, een radijsje, een kale boom, een harp, een schep, een spetter en de vlag van het piepkleine Kanaaleiland Sark staan. Leuk allemaal, maar het is natuurlijk de achtste nieuwe emoji die er met kop en schouders bovenuit steekt.

Die emoji, dat zijn wij allemaal

We hebben het dan over de emoji met donkere wallen en kringen onder zijn ogen. Die blik van: ik ben er nog, maar vraag me niet hoe. Het is de werkende ouder die op zijn enige uitslaapdag om vijf over half zes wordt gewekt door een vrolijke peuter die ontdekt heeft dat je met pannendeksels zo'n leuk geluid kunt maken. De horeca-medewerker die vijf minuten voor sluitingstijd nog een groep van vijftien man ziet binnenkomen. Een kantoormedewerker die zijn e-mail opent na een weekendje weg en 83 ongelezen berichten ziet. Het is januari. Het is maandag. Het zijn wij allemaal.

©Unicode

Kun jij hem al gebruiken?

Pas na een systeemupdate verschijnen de emoji's op je toestel. Het kan dus zijn dat je nog even moet wachten. Goed om te weten: Apple, Google en andere fabrikanten verwerken de nieuwe emoji's op hun eigen moment en in hun eigen stijl. Op een Android-toestel kan een emoji er dus net iets anders uitzien dan op een iPhone, ook al gaat het om hetzelfde Unicode-teken.