De gevaren van deepfakes: Van nepnieuws tot wraakporno

© PXimport

De gevaren van deepfakes: Van nepnieuws tot wraakporno

Beveiligingssoftware

Geplaatst: 13 december 2021 - 10:39

Aangepast: 17 november 2022 - 08:56

Redactie PCM

Tegenwoordig kun je met het grootste gemak je gezicht op het lichaam van een beroemdheid plakken. Er bestaan talloze apps voor en het resultaat lijkt levensecht. Juist omdat iedereen het kan, is het ook relatief eenvoudig om deze technologie voor minder frisse zaken te gebruiken. Van wraakporno tot financiële fraude. Wat zijn de gevaren van deepfakes?

In 2019 bestond maar liefst 96 procent van alle deepfake-beelden uit porno. De overgrote meerderheid van de deepnude-slachtoffers zijn vrouw en komen uit de entertainmentindustrie. Wat kleinschalig begon op internetfora als Reddit, is nu onderdeel van de porno-industrie. Wie zoekt op ‘deepfake porn’ komt allerlei sekssites tegen die een speciale afdeling hebben met nepbeelden van bekende sterren.

Hoewel het nep is, ziet het er vaak echt uit. Voor de mensen die het betreft, leidt het tot reputatieschade op een min of meer vergelijkbare wijze als het uitlekken van pikant zelfgemaakt beeldmateriaal via de iCloud-hack in 2014. Maar bij deepfake-beelden gaat het dus om nepbeelden. Er bestond zelfs korte tijd zelfs een DeepNude-app waarmee je een vrouw kon ‘strippen’. Het is lastig om er daadwerkelijk iets aan te doen: via de rechter kan een site gesommeerd worden de beelden weg te halen, maar dan duikt het ergens anders weer op.

Hetzelfde geldt voor wraakporno. Dat betreft echt of gemanipuleerd beeld van een ex-geliefde, dat bewust verspreid wordt om die persoon te kwetsen. Het verspreiden van dergelijke beelden is overigens strafbaar.

Hoewel er nog geen specifieke wetgeving bestaat voor deepfake-video’s, is publicatie ervan illegaal en strafbaar. De maker kan vervolgd worden voor identiteitsfraude, (cyber)stalking en wraakporno. Alleen al op basis van de Algemene verordening gegevensbescherming (AVG) mag er niet zomaar een foto (of video) van een persoon gepubliceerd worden zonder diens expliciete toestemming, want dat is een persoonsgegeven. Er geldt een uitzondering als het duidelijk gaat om ironie en beeld van publieke personen. 

Voor wraakporno is er sinds 1 januari 2020 speciale wetgeving van kracht, waarbij het expliciet verboden is om naaktbeelden van anderen te delen waarvan de dader weet dat dit nadelig is voor het slachtoffer. Er staat twee jaar gevangenisstraf op.

© PXimport

Ook andere deepfake-beelden kunnen tot schade leiden. Los van reputatieschade kan het de financiële gezondheid of zelfs de kredietwaardigheid van een bedrijf beschadigen.

Voor bedrijven en andere organisaties is vooral manipulatie van de publieke opinie een gevaar. Zo kan een bedrijf onterecht in verband worden gebracht met schadelijke of illegale activiteiten, of kunnen schadelijke nepbeelden worden gedeeld van prominente personen, zoals de directeur. Het kan enorme gevolgen hebben voor de beurskoers van een bedrijf. Ook kunnen klanten of consumenten het bedrijf de rug toekeren, ook al betreft het nepnieuws.

Fraude

Door de coronacrisis ligt er nog een ander gevaar op de loer: door het vele thuiswerken vindt steeds meer contact op afstand plaats, zonder dat mensen elkaar fysiek zien. Dit vergroot de kans op fraude. Iets als Whatsapp-fraude is ondertussen een bekend fenomeen. Iemand met een nieuw nummer doet zich voor als een bekende en vraagt om geld: “Pap, ik ben m’n telefoon verloren, dit is mijn nieuwe nummer. Kun je 1000 euro overmaken? Ik betaal je morgen terug.” 

Hoewel dit vaak in het nieuws komt, trappen mensen er nog steeds in en maken zonder enige controle direct geld over. En dat terwijl dit best eenvoudig te controleren is door het ‘nieuwe nummer’ te bellen, want dan hoor je direct dat het niet klopt. Hoewel … ‘voice cloning’ via spraaksynthese neemt ook een grote vlucht. Eind 2019 verloor een energiebedrijf veel geld toen een werknemer een telefoontje kreeg van de directeur om onmiddellijk 220.000 over te maken naar een Hongaars banknummer. De werknemer herkende de zingende toon van de CEO, inclusief zijn subtiele Duitse accent. Het betrof een stem die via spraaksynthese was geconstrueerd, op basis van de echte stem van de CEO. Zelfs telefoontjes zijn dus niet meer te vertrouwen. 

Momenteel is software waarmee je dit kunt doen nog niet eenvoudig beschikbaar, maar als dat wel het geval is zal het eerdergenoemde Whatsapp-voorbeeld weleens via spraaksynthese kunnen gebeuren.

© PXimport

Politieke onrust

Hoewel het nog redelijk zeldzaam is, zullen deepfakes vermoedelijk ook steeds vaker worden ingezet door politieke doeleinden. Het is een ideaal gereedschap om een tegenstander negatief af te schilderen. Niet via officiële kanalen, maar door het delen van nepbeelden via sociale media. Schokkend beeld verspreidt zich vaak als een lopend vuurtje en het is lastig om je er tegen te verdedigen. Tegen de tijd dat iets ontkracht is, hebben miljoenen mensen het al gezien en is hun mening deels beïnvloed – ook als later blijkt dat het niet klopt. 

Een rapport van de Brookings Institution uit 2020 zette de risico’s op een rij: verstoring van de democratie, het manipuleren van verkiezingen, het uithollen van het vertrouwen in instellingen, het verzwakken van de journalistiek, het verergeren van sociale verdeeldheid, de ondermijning van de openbare veiligheid en het toebrengen van moeilijk te herstellen schade aan de reputatie van prominente personen.

Realtime deepfake

Tot slot dan nog. In april dit jaar vergaderden Tweede Kamerleden via Zoom met iemand die zich voordeed als Leonid Volkov, de stafchef van Navalny (die toen net gevangen genomen was in Rusland). Het bleek echter niet Volkov zelf te zijn. Even leek er sprake te zijn van een deepfake-video, maar de veronderstelling was dat de techniek nog niet zo vergevorderd was dat dit realtime kon. Immers, het kost aardig wat rekenkracht om het gezicht van iemand op een ander persoon te plakken en dat proces kost normaal uren rekenkracht.

Nu is een Zoom-gesprek met een simpele webcam vaak niet van de beste kwaliteit, maar zelfs dat kan lastig realtime bewerkt worden zonder noemenswaardige vertraging. Later bleek dat iedereen was beetgenomen door een Rus die zich voordeed als Volkov. Toch is het een waarschuwing voor de toekomst: ooit kan dit zeer waarschijnlijk wel.

Tekst: Jeroen Horlings

Deel dit artikel
Reageer op dit artikel
Wat vond je van dit artikel?

Aanbevolen voor jou

ID.nl logo

ID.nl, onderdeel van Reshift BV, is in 2022 gestart en uitgegroeid tot de meest toonaangevende en complete consumentensite van Nederland. Het doel van ID.nl is om de consument te helpen met alle technologie die hoort bij het dagelijks leven: van smart-health-meters tot e-bikes, van warmtepompen tot zonnepanelen - en alles daar tussenin!

Duidelijk, betrouwbaar en onafhankelijk: ID.nl maakt moeilijke dingen makkelijk.

Contact

ID.nl

Nijverheidsweg 18

2031 CP Haarlem

info@id.nl

Telefoon: 023-5430000