Misschien heb je het al gemerkt: je komt online steeds meer posts en reacties tegen die door kunstmatige intelligentie zijn gemaakt. Het aantal bots dat zich voordoet als gewone internetgebruikers lijkt verder toe te nemen. Stevenen we af op een internet dat, zonder dat we het doorhebben, wordt gedomineerd door AI-gegenereerde content?
In dit artikel laten we zien hoe je als internetgebruiker om kunt gaan met de toenemende stroom aan AI-gegenereerde content:
- Ontdek wat de Dead Internet Theory inhoudt
- Begrijp hoe AI-bots worden ingezet voor misleiding, manipulatie en catfishing
- Bekijk welke oplossingen worden voorgesteld (en waarom ze nog niet volstaan)
- Weet dat kritisch internetgebruik belangrijker is dan ooit
Lees ook: AI of echt? Zo zie je het!
Met de opkomst van generatieve AI werd het eind 2022 ineens veel makkelijker om een bot teksten en afbeeldingen te laten creĂ«ren alsof ze door een mens zijn gemaakt. Vooral nu we een paar jaar verder zijn en AI-modellen alsmaar beter lijken te worden, wordt het ook lastiger om te weten of een onlinefoto of -post door een mens of door een bot is gemaakt. Steeds meer internetgebruikers vrezen dat we op een punt komen dat er zĂł veel realistische AI-content online wordt geslingerd, dat posts, reacties, fotoâs en videoâs van menselijke gebruikers worden ondergesneeuwd door die van bots. Als dat scenario werkelijkheid wordt, is het internet dan nog wel bruikbaar?
Niet te bewijzen
Over de angst voor zoân doemscenario wordt al lange tijd gediscussieerd, maar pas sinds kort begint dit idee populair te worden. Dat komt voornamelijk door de âDead Internet Theoryâ. Die werd in 2021 bedacht door een internetforumgebruiker en stelt dat het internet al sinds 2016 hoofdzakelijk uit bots bestaat. âDeze theorie werd al snel een meme die zich over het hele internet verspreiddeâ, zegt Danny LĂ€mmerhirt. Hij staat aan het hoofd van het Future Internet Lab van onderzoeksinstantie Waag Futurelab, dat zich bezighoudt met de toekomstige ontwikkeling van het internet.
Volgens hem is het dan ook geen wetenschappelijke theorie, aangezien de claim niet is te bewijzen. Dat beaamt Maarten Sukel, AI-ontwikkelaar en schrijver van het boek De AI-revolutie. âHet is erg lastig meetbaar, omdat de AI-modellen zo goed zijn geworden.â Toch vindt hij de theorie niet per se vergezocht. âAls je de logica volgt dat je een beperkt aantal mensen hebt op de wereld, maar in theorie een onbeperkt aantal bots online kunt loslaten, is de kans groot dat er op een gegeven moment zoveel bots zijn dat ze voornamelijk nog met elkaar praten.â
Wantrouw de babypauw
Er zijn in ieder geval aanwijzingen dat de AI-content toeneemt. Zo toont een onderzoek van Harvard aan dat de hoeveelheid kunstmatige media en hun zichtbaarheid op X in 2023 duidelijk is gegroeid. Daarnaast heeft Meta onlangs aangekondigd dat het vanaf 2025 meer AI-gegenereerde content op Facebook en Instagram wil plaatsen. Dit gebeurt onder meer door zelf een lading AI-profielen op de sociale media los te laten die met echte gebruikers moeten communiceren. De techreus hoopt dat zijn platformen daardoor âvermakelijker en aantrekkelijkerâ worden, zodat mensen langer actief blijven op de sociale media.
Een door Meta gemaakt AI-account op Instagram.
Ook als je geen sociale media gebruikt, is de toename van online AI-content merkbaar. Zoek op Google Afbeeldingen maar eens naar âBaby Peacockâ. Een groot deel van de fotoâs die je daar ziet, is AI-gegenereerd. âDat komt doordat de echte babypauw nogal lelijk isâ, legt Sukel uit. âEr worden daardoor amper fotoâs van gemaakt en dus zijn plaatjes van een babypauw vaak nep.â Dit is nu nog een uitzonderingsgeval, maar geeft wel aan dat AI al vrijwel overal op het internet zijn sporen nalaat.
©Abdallah - stock.adobe.com
Deze babypauw is net zo schattig als dat hij nep is.
Beeld: Abdallah, stock.adobe.com.
Makkelijker catfishen
De toename van AI-gegenereerde content is volgens LĂ€mmerhirt op zichzelf geen reden voor zorg. âAls je voor de lol een dom AI-plaatje online deelt, kan het heel onschuldig zijn. Het wordt pas een probleem als het misleidend wordt.â AI-bots worden daar volgens de deskundigen regelmatig voor ingezet, bijvoorbeeld op datingplatforms. Een gesprekspartner kan zomaar een bot zijn die je probeert op te lichten. âDie vraagt dan bijvoorbeeld met een of andere smoes of je geld kunt opsturen. Dat is wel heel kwalijk en iets waar je goed op moet letten.â
Bots op datingapps zijn geen nieuwe ontwikkeling, maar volgens de AI-ontwikkelaar wordt het probleem wel verergerd door generatieve AI. âVoorheen werden nepprofielen nog gemaakt op basis van echte fotoâs. Als je toentertijd werd gecatfisht, kon je altijd nog opzoeken of de profielfoto ergens online te vinden was en op die manier achterhalen dat je met een oplichter aan het praten was. Inmiddels kan dat niet meer, omdat je gezichten gewoon kunt genereren.â
Wordt AI-content steeds beter?
Generatieve AI is de laatste jaren met sprongen vooruitgegaan. AI-bedrijven tuimelen over elkaar heen om nĂłg betere AI-modellen te introduceren. Het is nu al niet eenvoudig om AI-content te herkennen. Als deze vooruitgang zich voortzet, dan is dat over een aantal jaar vrijwel helemaal onmogelijk.
Het is alleen nog helemaal niet zeker Ăłf AI steeds maar beter blijft worden. âDe kwaliteit van generatieve content neemt mogelijk op een gegeven moment zelfs afâ, legt Danny LĂ€mmerhirt uit. âVeel van de trainingsdata van AI komt van onlinecommunityâs. Om AI in de toekomst verder te trainen heb je ook meer trainingsdata nodig. Mogelijk worden bots nu dus getraind op kunstmatige content, waar veel data van lage kwaliteit tussen zit.â Dan krijg je te maken met het âgarbage-in-garbage-outâ-principe. Dat zou kunnen betekenen dat chatbots nĂłg vaker onjuiste informatie gaan verspreiden.
Kaas vastlijmen
Ook kunnen AI-bots worden gebruikt om politieke meningen van gebruikers te beĂŻnvloeden, weet Robin Effing, AI- en socialmediadeskundige bij de Universiteit van Twente. âVeel partijen, waaronder regimes, hebben er belang bij om online discussies te verstoren. Eerder werden daar mensen uit landen als India voor betaald. Zij werden achter de computer gezet, maar het wordt steeds makkelijker om dat soort werk aan chatbots over te laten.â Zo bleek onlangs dat Rusland duizenden bots op sociale media als TikTok had losgelaten om de Roemeense verkiezingen te beĂŻnvloeden.
Bots verspreiden overigens niet alleen schadelijke desinformatie in opdracht van kwaadwillenden. AI heeft van zichzelf al de neiging om onjuiste informatie te genereren. LĂ€mmerhirt noemt als voorbeeld een incident waarbij Googles AI-zoekmachine een opvallend antwoord gaf op de vraag: âHoe zorg je ervoor dat kaas niet van je pizza afvalt?â Het advies? De kaas met lijm aan de pizzabodem vastplakken.
Waar dit antwoord vandaan kwam? Iemand plaatste dit advies als grap op een forum, waarna de bot het klakkeloos als serieuze tip overnam. âDat is wel illustratief van wat er kan gebeuren als je AI ongecontroleerd zijn gang laat gaan.â
Kaas aan pizza vastlijmen? Prima idee, volgens Google.
Minder moderatie
Om de toestroom van AI-desinformatie in de kiem te smoren zijn er volgens de experts verschillende opties, al is geen van allen echt ideaal. AI-modellen kunnen bijvoorbeeld AI-content gaan voorzien van een onzichtbaar watermerk, zodat herkenningssoftware meteen ziet of een post van ChatGPT vandaan komt of een foto nep is. Het is alleen moeilijk om alle AI-modellen â waar er duizenden van zijn â te dwingen om watermerken te gaan gebruiken. âMomenteel is er ook geen trend dat dit uit eigen beweging gedaan wordtâ, vertelt LĂ€mmerhirt. Daarnaast kunnen zulke watermerken momenteel nog eenvoudig worden omzeild. Effing: âEr zijn veel maskeringstechnieken om AI-content te verbergen. ChatGPT-teksten kun je bijvoorbeeld in een algoritme gooien dat bepaalde tekens verwisselt, zoals de hoofdletter i met de kleine l. Mensen zullen het verschil niet zien, maar detectiesoftware kun je zo om de tuin leiden.â
Volgens LĂ€mmerhirt is strengere moderatie een betere optie. Techplatformen moeten dan zelf actief (AI-gegenereerde) desinformatie opsporen en verwijderen, misschien ook wel met behulp van AI-systemen. âWe zien alleen dat X en sinds kort ook Meta steeds minder modererenâ, vervolgt de Waag-onderzoeker. In plaats daarvan willen ze leunen op een systeem waarbij gebruikers zelf misleidende content van een âfact check-labelâ kunnen voorzien. âDat is een slechte aanpak, want dat laat zien dat deze bedrijven zelf geen keuzes meer willen maken en hun rol van platformbeheerder niet serieus nemen.â
AI-detectiesoftware is nog verre van betrouwbaar. De tekst in deze afbeelding is volledig door AI geschreven, maar de software denkt daar anders over.
China-model
Nog een andere oplossing zou zijn om gebruikers zich te laten verifiĂ«ren voordat ze een account aan mogen maken, om te voorkomen dat ze meerdere âsock puppet-profielenâ kunnen beheren. Op sommige platformen, zoals chatdienst Signal, gebeurt dat al met een telefoonnummercontrole. Dat is volgens Sukel een redelijk betrouwbare manier om te controleren of je gebruikers echt zijn, maar waterdicht is het niet. Je kunt namelijk ook een prepaid simkaart kopen en daar een bot aan koppelen. Een zogeheten China-model is volgens Effing een grondigere methode. âDan moet je bijvoorbeeld naar het gemeentehuis met je paspoort voordat je een account krijgt. Dan ben je van heel veel problemen af. Alleen dat leidt tot massasurveillance en dat is ook niet gewenst.â
Op Signal moet je je telefoonnummer verifiëren voordat je een account krijgt.
Is generatieve AI alleen maar slecht?
âVan alle vormen van kunstmatige intelligentie kleven aan generatieve AI misschien wel de meeste negatieve aspectenâ, stelt Maarten Sukel. Hoewel deze vorm van AI volgens hem niet bevorderlijk is voor de kwaliteit van content op het internet, zijn er op andere gebieden wel nuttige toepassingen te bedenken. âZo zijn er nu slimme brillen met een ingebouwde AI die kan omschrijven wat er te zien is. Bijvoorbeeld: er staan mensen voor je, de een heeft een groene trui aan, het ziet er gezellig uit. Dat helpt blinde mensen enorm.â
Ook voor entertainmentdoeleinden kan generatieve AI veel lol bieden, al zit daar volgens Sukel ook een addertje onder het gras. âBij generatieve AI moet je er altijd rekening mee houden dat hoe meer data je genereert, hoe meer energie het kost. Een tekstje valt nog mee, een plaatje genereren is al wat energie-intensiever. Maar bijvoorbeeld een video maken is een van de meest energieverslindende dingen die je met AI kunt doen.â Een gepersonaliseerde Netflix-film genereren klinkt dus misschien best aantrekkelijk, maar is niet de milieuvriendelijkste keus.
Voor blinden heeft generatieve AI wellicht het meeste bestaansrecht (beeld: Kaspars Grinvalds, stock.adobe.com).
Blijf op je hoede
Kortom, een Ă©cht goede methode om schadelijke AI-content en -bots te weren is er nog niet. NĂłg niet inderdaad, want de deskundigen hebben er vertrouwen in dat de huidige uitdagingen met AI op te lossen zijn. Zo denkt Sukel dat onderzoekers vroeg of laat een manier verzinnen om AI-gegenereerde desinformatie betrouwbaar weg te filteren. âIn het verleden is dat ook altijd gelukt, bijvoorbeeld met e-mailâ, zegt de AI-ontwikkelaar. âDaar werd steeds meer spam verstuurd, maar toen kwamen er robuuste spamfilters en is dat probleem in zekere zin opgelost.â
Spamfilters voor e-mails doen hun werk goed; krijgen we in de toekomst iets soortgelijks voor AI-content?
Tot het zover is, moeten we ermee leven dat we het internet delen met veelal onzichtbare en onbetrouwbare bots. Effing raadt daarom aan om altijd goed op je hoede te blijven. âIk denk dat het heel gezond is om je bij elke reactie op internet als eerste af te vragen: hoe groot is de kans dat dit door een reguliere burger geschreven is? Je kunt er momenteel van uitgaan dat de meerderheid van de user-generated content online niet door gewone mensen is geschreven, maar ofwel door ingehuurde mensen of door een bot.â
Volgens Sukel moet je vooral bij gebruikersrecensies goed op je tellen passen. âHet is natuurlijk heel makkelijk om tegen een AI-bot te zeggen: schrijf 500.000 negatieve recensies over mijn concurrent en evenveel positieve over mijn eigen toko. Je kunt niet meer blind vertrouwen op platformen als Tripadvisor.â
LĂ€mmerhirt ziet dat gebruikers langzamerhand beter worden in het herkennen van bots. âEr zijn onderzoeken die aantonen dat mensen hun onlinegedrag aanpassen. Ze ontwikkelen strategieĂ«n om nepaccounts te identificeren en vermijden deze accounts vervolgens. Hier valt nog wel veel winst te behalen. Ik denk dus dat het belangrijk is dat we ervoor zorgen dat mensen nog kritischer worden op de oorsprong van online content.â
âAls je op een platform zit met veel AI-onzin waar je niet blij van wordt, ga dan lekker wegâ, adviseert Sukel tot slot. âJij bent het product. Als er genoeg mensen weggaan, wordt dat platform gedwongen om zich te verbeteren. Je hoeft het niet zomaar te accepteren.â
Gebruikersrecensies op Tripadvisor: zijn ze nog te vertrouwen?