ID.nl logo
Artifical general intelligence: AI wordt slimmer én menselijker
© khunkornStudio - stock.adobe.com
Huis

Artifical general intelligence: AI wordt slimmer én menselijker

We leven nu al een paar jaar zij aan zij met AI. Chatbots die ons moeten helpen bij talloze taken, zijn aan de orde van de dag. De bedrijven die deze AI-modellen maken, zeggen alleen steeds vaker dat de volgende doorbraak binnen handbereik is: artificial general intelligence (AGI). Maar wat die term precies betekent, hangt sterk af van aan wie je het vraagt.

Anno 2025 weten we niet beter dan dat we hele gesprekken kunnen voeren met AI-bots en binnen een paar seconden plaatjes kunnen maken van alles wat we maar kunnen bedenken. Wil je je e-mail wat formeler maken? Dan haal je die even langs ChatGPT. Geen zin om een lang rapport te lezen? Dan vat je het samen met Copilot. Gepersonaliseerde ideeën voor verjaardagcadeaus? Gemini heeft er zat.

Waar AI-chatbots bij de introductie van ChatGPT nog vooral als een geinig tijdverdrijf werden gezien, hebben steeds meer mensen manieren gevonden om kunstmatige intelligentie in hun dagelijkse leven te gebruiken. Maar inmiddels weten veel mensen ook waar ze deze bots beter níét voor kunnen gebruiken. AI-modellen verzinnen geregeld informatie, dus moet je oppassen bij feitelijke vragen en is het al helemaal niet verstandig om chatbots hele onderzoeksrapporten te laten schrijven.

AI-bedrijven brengen om de paar maanden nieuwe AI-modellen uit, die bijvoorbeeld beter zouden zijn in kritisch denken of in het oplossen van problemen, maar toch blijven zulke tekortkomingen hardnekkig. Het is bij veel menselijke taken dan ook niet vertrouwd om ze (volledig) te laten overnemen door AI. De bedrijven achter deze chatbots spreken steeds vaker over de komst van een echte doorbraak: waardoor AI-bots op veel gebieden niet meer onderdoen voor de mens en deze mogelijk zelfs overtreffen. We zouden daar nog maar een paar jaar op moeten wachten.

Een geschikt verjaardagscadeau laten bedenken: nog steeds een van de populairste toepassingen van AI-chatbots.

AGI is het toverwoord

Deze doorbraak wordt door de meeste AI-bedrijven AGI genoemd, oftewel artificial general intelligence. ChatGPT-maker OpenAI, Facebook- en Instagram-moederbedrijf Meta, Elon Musks xAI, Microsoft en het Chinese DeepSeek hebben in het afgelopen jaar allemaal aangegeven dat ze werken aan AGI-modellen. Ze lijken daarbij stuk voor stuk vastbesloten om de eerste te zijn.

Niet alleen AI-bedrijven streven naar AGI, maar bijvoorbeeld ook de Amerikaanse overheid. Verschillende leden van de regering willen een soort 'Manhattanproject' opzetten, om te verzekeren dat de VS als eerste land zo'n systeem ontwikkelt. Daarmee verwijzen ze naar het initiatief uit de jaren veertig waarmee de eerste atoombom werd ontwikkeld. AGI realiseren wordt door veel partijen daarom gezien als een 'big deal'.

Filosofische vraagstukken

Maar eigenlijk weten we helemaal nog niet goed weten wat AGI precies inhoudt. Al sinds de jaren vijftig wordt er onder onderzoekers uitvoerig gediscussieerd over de precieze definitie van de term, weet Siri Beerends. Zij is als AI-deskundige onderdeel van het technologie-kritische platform SETUP. "AGI is vooral een marketingconcept. Er is geen eenduidige definitie."

"Onder AGI verstaan de meeste mensen een kunstmatig intelligent systeem dat onze menselijke intelligentie benadert of kan nadoen", zegt Joris Krijger, techniekfilosoof en schrijver van het boek 'Onze kunstmatige toekomst'. Dat is een behoorlijk brede en vage definitie die leidt tot filosofische vraagstukken als 'wat is intelligentie?' en 'hoe intelligent is de mens?'

Beerends: "Ontwikkelaars doen nu alsof we daar een concreet antwoord op hebben, alsof we de mens en haar intelligentie helemaal begrijpen en kunnen nabouwen, maar dat is niet zo. Veel aspecten van intelligentie zijn niet eens meetbaar."

Toch worden er manieren verzonnen waarop AI-systemen kunnen worden getoetst op menselijke intelligentie. De Turingtest is waarschijnlijk de populairste graadmeter. Bij dat experiment chat iemand met zowel een mens als een bot, zonder te weten wie nu precies wie is. Als de proefpersoon niet kan achterhalen wie de computer is, dan is de bot geslaagd voor de test. Veel huidige AI-chatbots kunnen dit experiment doorstaan, maar betekent dat dat ChatGPT even intelligent is als een mens?

©Dragos Condrea

Bij de Turingtest ondervraagt iemand een mens en een bot, om te kunnen bepalen wie nu precies wie is.

Lees ook: Chat je met een mens of een AI-bot? 9 manieren om het te testen

'Groei van AI-modellen vlakt af'

Zelfs als het theoretisch mogelijk zou zijn om een AI-systeem te ontwerpen dat de menselijke intelligentie benadert, betwijfelt Joris Krijger of we dat punt binnen afzienbare tijd bereiken. Dat komt volgens hem doordat het verbeteren van AI-modellen gepaard gaat met nóg meer energie- en waterverbruik en CO₂-uitstoot. "Dat gaat een bottleneck vormen voor AGI, want ons energienetwerk is helemaal niet ingesteld op het opschalen van datacenters voor de doorontwikkeling van AI."

Volgens de techniekfilosoof kun je de huidige exponentiële groei van AI-systemen niet zomaar blijven doortrekken en vervolgens concluderen dat we binnen enkele jaren AGI zullen bereiken. "Die exponentiële curve vlakt op een gegeven moment af, omdat je binnen de huidige architectuur tegen een plafond zult aanlopen."

Met deze tweet wilde een ruimtevaartexpert aantonen dat de extrapolatie van AI-prestaties geen hout snijdt.

Syntax en semantiek

Er zijn maar weinig AI-onderzoekers die ChatGPT als 'menselijk intelligent' zullen bestempelen. De meeste deskundigen zijn het er tegenwoordig over eens dat AGI-modellen ons niet alleen maar voor de gek moeten kunnen houden. Maar wat ze dan wél precies moeten kunnen, blijft onderwerp van discussie.

Krijger vindt bijvoorbeeld dat er menselijke 'agency' voor nodig is: het vermogen om initiatieven te ontplooien, nieuwsgierig te zijn en voortdurend te blijven leren. "AI-modellen beantwoorden nu onze vragen, maar bedenken vervolgens niet: 'Dat wil ik eigenlijk ook nog weten'."

Maarten Lamers, AI-onderzoeker aan de Universiteit Leiden, sluit zich daarbij aan. "Momenteel weet een AI-model hoe een hond eruitziet, doordat het is getraind met duizenden plaatjes van honden", zegt hij. "Maar vaak kan zo'n model van daaruit niet verder redeneren. Als wij een hond zien, kunnen we ons ineens afvragen: waarom stuurden de Russen eigenlijk een hond de ruimte in en geen kat?"

AI-modellen moeten volgens Lamers verder autonomer worden. "Een systeem dat afwacht tot we zeggen 'boek deze vakantie', 'schrijf dit' of 'zing een liedje' zou ik geen AGI noemen, ook al kan hij het nog zo goed." Hoe een autonoom AI-systeem eruit moet gaan zien, weet hij niet. "Maar ik zie ook geen fundamenteel bezwaar waarom het niet zou kunnen."

Daar is niet iedereen het mee eens. Beerends denkt dat dit met de huidige taalmodellen, die worden getraind met vrachtladingen aan tekst, inherent onmogelijk is. "De output van AI-bots is puur gebaseerd op kansberekening en woordvoorspelling. Ze snappen niets." "Dat noem je het verschil tussen syntax, het volgen van regels, en semantiek, het daadwerkelijk begrijpen van waar we mee bezig zijn", vult Krijger aan. "Dat laatste kunnen taalmodellen niet bereiken, daar moet een heel nieuwe vorm van AI voor worden uitgevonden."

©@TeenyBiscuit.

AI wordt getraind met duizenden afbeeldingen, net zo lang tot ze het verschil tussen bijvoorbeeld een muffin en een chihuahua herkennen. Bron: @TeenyBiscuit.

Economisch waardevol werk

Hoewel AGI volgens de veel geopperde definitie dus moeilijk (zo niet onmogelijk) te bereiken is, hanteren sommige AI-bedrijven een geheel eigen definitie van AGI. Dat geldt onder meer voor het bedrijf achter de populairste AI-chatbot: OpenAI. Rond de introductie van ChatGPT omschreef dat bedrijf AGI nog als een 'AI-systeem dat over het algemeen slimmer is dan mensen', maar inmiddels zegt OpenAI dat AGI al is bereikt zodra een systeem beter presteert dan mensen 'bij economisch waardevol werk'. "Dat kun je met de bestaande modellen wél bereiken", zegt Krijger. "Je kunt een taxichauffeur bijvoorbeeld vervangen door zelfrijdende auto's, of een bankkantoor vullen met AI-agents die efficiënter werken dan mensen."

We zijn volgens OpenAI hard op weg naar dat punt; volgens het bedrijf zit zijn nieuwste GPT-model al op het niveau van een slimme middelbare scholier. "Daarvoor baseert OpenAI zich onder meer op hoe goed het scripties kan schrijven", weet Beerends. "Maar ChatGPT kan dat alleen omdat de bot eindeloos veel voorbeelden van scripties heeft gezien en kan voorspellen wat er ongeveer in een scriptie moet staan. Dat zegt helemaal niets over intelligentie."

©MichaelVi - stock.adobe.com

Dit soort robottaxi's maken deels gebruik van AI-technologie voor navigatie.

'We hebben AGI al bereikt'

Hoewel veel mensen verwachten dat een AGI-systeem op veel gebieden net zo slim is als de mens (of in ieder geval kan doen alsof), zou je dat niet per se uit de term zelf halen. De G staat immers voor 'general' en niet voor 'human'. "De term kunstmatige algemene intelligentie zegt eigenlijk alleen wat over de kwantiteit, terwijl wij ons zo'n systeem inbeelden als een soort filmrobot, zoals Ava van Ex Machina", zegt Maarten Lamers.

Als je AGI enkel ziet als een breed AI-systeem dat veel taken kan uitvoeren, dan zou je volgens hem kunnen beargumenteren dat huidige chatbots al een vorm van AGI zijn. “Ze kunnen onder andere dichten, een essay schrijven, programmeren en feedback geven op mijn rapport. Dat vind ik al best breed.”

©Universal Pictures International

Bij de term AGI beelden wij ons een systeem in als filmrobot Ava in Ex Machina.

Van AGI naar ASI

OpenAI maakt het met zijn nieuwe, economische definitie dus een stuk makkelijker voor zichzelf om als eerste te kunnen zeggen dat 'AGI' bereikt is. Onlangs kwamen een aantal Amerikaanse wetenschappers, die werkzaam waren bij verschillende AI-bedrijven en onderzoeksinstanties, met een uitgebreid hypothetisch scenario waarin ze schetsen hoe AGI (volgens de economische definitie) al tegen 2027 werkelijkheid kan worden.

Dat betekent niet dat OpenAI AGI ziet als het eindpunt van de ontwikkeling van kunstmatige intelligentie. Na AGI werken ze nog toe naar een overtreffende trap: artificial superintelligence (ASI). Daarbij zou een AI-model beter presteren dan mensen in iedere taak waar geen lichaam voor nodig is. OpenAI-CEO Sam Altman heeft het steeds vaker over deze superintelligentie. Hij ziet AGI tegenwoordig meer als een tussenstap, eentje die er naar eigen zeggen 'niet echt toe zal doen', terwijl ASI de échte doorbraak moet zijn.

Wederom wordt er een krappe deadline genoemd: nog dit decennium moeten we kunstmatige superintelligentie bereiken. OpenAI is opnieuw niet de enige die dat denkt: ook Meta en xAI geloven in de spoedige komst van AI-systemen die slimmer zijn dan de allerslimste mens. De eerdergenoemde wetenschappers onderschrijven die verwachting, al delen ze in hun scenario wel een apocalyptische toekomstvisie: ASI ontwikkelt uiteindelijk een biowapen waarmee de mensheid wordt uitgeroeid.

Onderzoekers hebben een hypothetisch scenario uitgedacht voor hoe AI de komende jaren stap voor stap kan ontwikkelen tot een superintelligentie.

Grote gevolgen

Of kunstmatige intelligentie ooit in staat zal zijn tot zo'n massa-extinctie, blijft natuurlijk koffiedik kijken. AI-experts discussiëren al meer dan zeventig jaar over het potentieel van kunstmatige intelligentie. Dat zal voorlopig niet veranderen. Een ding is volgens Krijger in ieder geval wél duidelijk: AI-modellen worden op veel gebieden in rap tempo beter. Dat blijkt uit talloze benchmarks die meten hoe goed kunstmatige intelligentie presteert in uiteenlopende taken, zoals spraakherkenning of begrijpend lezen, vergeleken met het menselijke gemiddelde. "Je ziet dat al die lijntjes recht omhoog gaan, omdat AI zulke dingen steeds beter kan, soms zelfs beter dan mensen.".

Hoewel de huidige vorm van kunstmatige intelligentie (narrow AI) de mens nog lang niet in alle cognitieve taken kan overtreffen, denkt de techfilosoof dat ze op een hoop gebieden al als 'goed genoeg' wordt beschouwd. Volgens Krijger zullen veel mensen daarvan de gevolgen merken. "De grote onderzoeksbureaus schatten dat de huidige AI-modellen ongeveer 60 procent van de banen gaan raken en 30 procent ook kunnen overnemen. Daar heb je dus niet eens AGI voor nodig."

AI-modellen worden ieder jaar beter in een breed scala aan taken.

AI-vervanger

Beerends merkt dat veel mensen bereid zijn om mensenwerk te vervangen door AI-bots. Daar maakt de AI-criticus zich grote zorgen over. "Mensen denken dat kunstmatige intelligentie meer kan dan in werkelijkheid het geval is. Dat is gevaarlijk. Therapeuten en psychologen worden nu bijvoorbeeld vervangen door AI, maar chatbots praten alleen maar met je mee. Dat kan ertoe leiden dat suïcidale gevoelens juist worden versterkt."

"Ik denk dat het heel belangrijk is om je te beseffen dat je met alles wat je doet, zoals het schrijven van mails of verslagen, in feite je eigen AI-vervanger traint", vertelt Krijger. "Er kan een moment komen dat iemand zegt: we laten een AI-systeem jouw werk doen. En jij hebt daar dan zelf alle input voor geleverd." Volgens hem moeten werknemers nu de toekomst van hun baan zien vast te stellen, bijvoorbeeld door zich aan te sluiten bij een vakbond of AI-waarborgen te laten opnemen in hun arbeidsvoorwaarden. De AI-trend pakt anders voor velen van ons niet gunstig uit, vreest hij. "De komende vijf tot tien jaar worden op AI-gebied heel spannend. Niet zozeer door de zogenaamde komst van AGI, maar eerder door wat de 'saaie' AI van nu teweeg gaat brengen."

De afgelopen jaren zijn chatbots een aantal keer in opspraak geraakt omdat ze suïcide zouden aanmoedigen.

▼ Volgende artikel
AI: handig, maar hoe zit het met de schaduwkanten?
© khunkornStudio - stock.adobe.com
Huis

AI: handig, maar hoe zit het met de schaduwkanten?

AI is inmiddels doorgedrongen tot in bijna elk digitaal domein. Van vertaaltools en chatbots tot beeldmakers en medische toepassingen. Veel gebruikers vinden AI handig, efficiënt en zelfs creatief. Toch brengt deze evolutie ook minder zichtbare risico's met zich mee, op persoonlijk, maatschappelijk en ecologisch vlak.

Dit artikel in het kort

AI zit inmiddels in bijna elke digitale dienst, maar de gevolgen daarvan zijn minder zichtbaar. In dit artikel lees je welke risico's daarbij horen, van hallucinaties en bias tot privacy, milieubelasting en de groei van synthetische media. Ook komen juridische vragen, economische verschuivingen en de grens tussen mens en machine aan bod. Je krijgt een breed overzicht van de belangrijkste risicozones en wat deze ontwikkelingen betekenen voor de samenleving.

Disclaimer:Het AI-domein verandert snel. De gegevens en cijfers in dit artikel zijn gebaseerd op de situatie tot Q3 2025; latere ontwikkelingen kunnen afwijken.

Lees ook: Artifical general intelligence: AI wordt slimmer én menselijker

AI is inmiddels doorgedrongen tot in bijna elk digitaal domein. Van vertaaltools en chatbots tot beeldmakers en medische toepassingen. Veel gebruikers vinden AI handig, efficiënt en zelfs creatief. Toch brengt deze evolutie ook minder zichtbare risico's met zich mee, op persoonlijk, maatschappelijk en ecologisch vlak.

In dit artikel bekijken we verschillende AI-risicozones. Wat is bijvoorbeeld de milieu-impact van AI? Hoe betrouwbaar zijn de antwoorden van chatbots? Wat als synthetische media (alles wat met AI wordt gemaakt) niet meer van echt te onderscheiden zijn? En hoe beïnvloeden AI-systemen onze economie, privacy en ons denkvermogen? De grens tussen mens en machine vervaagt.

Dit artikel is bedoeld voor wie voorbij de hype wil kijken en wil begrijpen wat er op het spel staat. Elk onderdeel behandelt een specifiek risico, met voorbeelden en toepassingen. Zo krijg je een goed beeld van de schaduwkanten van AI. Niet om de technologie af te wijzen, maar om er bewuster en verantwoordelijker mee om te gaan.

Als je de schaduwkanten ervan kent, kun je AI verantwoordelijker inzetten.

Ecologische voetafdruk

Hoewel AI vaak als iets immaterieels en 'in de cloud' wordt voorgesteld, is de milieu-impact allesbehalve onzichtbaar. De menselijke hersenen verbruiken continu ongeveer 20 watt, vergelijkbaar met een gloeilampje. Daarmee worden 86 miljard neuronen en duizenden synapsen per neuron gevoed.

Grote taalmodellen als GPT of Gemini vragen daarentegen enorm veel rekenkracht. De trainingsfase kan duizenden MWh vereisen en miljoenen liters water voor koeling, afhankelijk van het datacenter en de gebruikte hardware. Ook het gebruik (inferentie) is belastend: elke prompt/antwoord-interactie bij modellen uit deze klasse vraagt energie en koeling aan de serverzijde.

AI heeft dus een stevige ecologische voetafdruk. Tegelijk worden oplossingen ontwikkeld, zoals restwarmtehergebruik, luchtkoeling in plaats van waterkoeling, meer hernieuwbare energie en efficiëntere modellen. Denk aan compacte taalmodellen, zoals TinyML, quantisatietechnieken (kleinere getallen en minder geheugen) en lokaal draaiende AI's (edge AI).

©(c) Wikipedia, CC BY-SA

Microsoft heropent de nucleaire site Three Mile Island voor AI-datacenters.

(c) Wikipedia, CC BY-SA

Hallucinaties

AI-chatbots doen de gebruiker graag een plezier. Daarbij zijn ze opvallend overtuigend, ook wanneer ze onzin produceren, oftewel wanneer ze hallucineren.

Hallucinaties kunnen ernstige gevolgen hebben, bijvoorbeeld wanneer juristen verwijzen naar niet-bestaande wetsartikelen of wanneer medische informatie klakkeloos wordt overgenomen. Controleer gevoelige informatie daarom altijd via meerdere bronnen. Doe dit zeker bij gevoelige of complexe thema's. Weet ook dat AI-modellen zich vaak verontschuldigen als je teruggeeft dat er een fout is gemaakt. Vervolgens herhalen ze zich doodleuk.

Hallucinaties zijn hardnekkiger bij fenomenen als data- en conceptdrift. Bij het eerste herkent het model je eigen input minder goed doordat de vorm afwijkt van de trainingsinput. Bij het tweede is de inputvorm hetzelfde gebleven, maar is de betekenis inmiddels veranderd. Meer weten over datadrift en conceptdrift.

Verder kan het model te veel details uit trainingsdata opnemen en zo irrelevante informatie meenemen (overfitting). Of omgekeerd: onvoldoende zinvolle data gebruiken (underfitting). Ook deze fenomenen kunnen het hallucineren versterken.

Hallucinatie door drifting: AI-modellen houden de werkelijkheid niet altijd even actief bij.

Wat is hallucineren?

Hallucineren is het moment waarop een AI-model met grote zekerheid iets vertelt dat niet klopt. Het systeem voorspelt woorden op basis van eerder waargenomen patronen en heeft geen inzicht in feiten of logica. Daardoor kan het wetsartikelen verzinnen, namen bedenken of cijfers opleveren die nergens op zijn gebaseerd. Dit gebeurt sneller bij complexe vragen of wanneer de context ontbreekt. Het is dus geen "zien" of "horen", maar simpelweg foutieve tekstproductie die overtuigend klinkt.

Bias en manipulatie

AI-modellen krijgen enorme datahoeveelheden van het internet als input. Deze zijn zelden neutraal, waardoor vooroordelen of een westers wereldbeeld in het leerproces sluipen. Dat zorgt voor vertekening of bias (vooringenomenheid). AI-modellen kunnen bijvoorbeeld vrouwen aan zorgberoepen linken en mannen aan leidinggevende functies, of etnische groepen benadelen bij risicobeoordelingen.

Bias is niet alleen maatschappelijk, maar ook technisch. Een model leert niet alleen wat er ín de data staat, maar ook hoe die data zijn verdeeld. Als een bepaalde bron oververtegenwoordigd is, of als een schrijfstijl vaker voorkomt, dan krijgt dat automatisch meer gewicht. De architectuur en trainingsmethode versterken die patronen. Daardoor kunnen antwoorden die objectief lijken toch subtiel een voorkeur bevatten.

Interessant is ook dat onderzoekers political compass-testvragen voorlegden aan grote AI-taalmodellen (LLM's). De conclusie: zowat alle LLM's situeren zich in het links-economische, sociaal-libertaire kwadrant. Besef dat ook deze testvragen een vooroordeel (kunnen) bevatten, wat aantoont hoe moeilijk het is bias correct te beoordelen.

Nog problematischer wordt het bij manipulatie, wanneer deze bias opzettelijk in het model zit. Denk aan AI-toepassingen in advertenties die inspelen op angsten of overtuigingen. Algoritmische sturing kan bovendien gemakkelijk tot gelijkgezinde groepen (echo chambers) en polarisering leiden.

Omdat AI-modellen zo complex zijn, is vaak onduidelijk hoe de output tot stand komt (de black box). Dit vergroot de transparantiebehoefte en verklaart waarom veel wetenschappers pleiten voor explainable AI, of LLM's en AI-algoritmen opensource willen maken.

De meeste LLM's bevinden zich in het links-libertaire kwadrant. Wij testen het hier zelf met GPT-4o en DeepSeek.

Synthetische media

De term synthetische media verwijst naar beelden, audio of tekst die volledig of deels AI-gegenereerd zijn. Denk aan deepfakes, nagebootste stemmen of automatisch gegenereerde nieuwsartikelen. Zulke toepassingen lijken creatief en handig, je maakt bijvoorbeeld een marketingvideo zonder camera of acteurs, maar de keerzijde is zorgwekkend.

Deepfakes kunnen personen dingen laten zeggen die zo zijn uitgesproken. Andersom kunnen echte beelden als deepfake worden afgedaan, ook wel 'the liar's dividend' genoemd. Deepnudes (gefingeerde naaktbeelden) kunnen dan weer gebruikt worden voor wraakporno.

Deze technologieën maken ook nepnieuws: desinformatie waarbij feiten doelbewust worden verdraaid. Dit tast het vertrouwen in communicatie en bewijsvoering aan en doet steeds meer mensen geloven in de maakbaarheid van de realiteit. Wat echt is, hangt vooral af van hoe je deze zelf vormgeeft. Feit en fictie raken verstrengeld, waardoor we belanden bij concepten als alternate truth en postrealiteit. Daarin wegen perceptie, gevoel en overtuiging zwaarder dan feiten. Synthetische media vragen daarom niet alleen om kritische blik, maar mogelijk ook om watermerken en regulering.

Donald J. Trump: van deepfake naar alternate truth.

Zelfbevlekking

AI-modellen gebruiken vrijwel alle beschikbare internetbronnen als trainingsmateriaal. Omdat generatieve AI zelf steeds meer online content produceert, gebruiken modellen ook hun eigen output opnieuw. Zo ontstaat een zichzelf versterkende kringloop waarbij AI zich voedt met AI-gegenereerde inhoud. Deze vorm van zelfbevlekking verhoogt het risico op kwaliteitsverlies in digitale content, ook wel slop of enshittification genoemd.

AI genereert output namelijk op basis van patronen, niet vanuit betekenis of intentie. Als deze patronen ook nog eens uit andere AI-bronnen komen, ontstaat een neerwaartse spiraal met nauwelijks nuancering en steeds herhaalde ideeën. Hierdoor verhoogt ook het risico op hallucinaties en bias en de mens raakt out-of-the-loop. Op termijn dreigt model collapse: AI-modellen worden minder intelligent naarmate ze vaker op eigen output trainen.

Sommigen spreken van een zombie-internet. Zo blijkt inmiddels al zeker vijf procent van de nieuwe Engelstalige Wikipedia-inhoud AI-gegenereerd te zijn. Bovendien nemen mensen typische AI-taal, met herkenbare woordkeuzes, steeds vaker over. Om deze dynamiek te doorbreken, moeten menselijke input en creativiteit centraal blijven staan in het AI-trainingsproces.

Dit boek werd volledig door AI gegenereerd en stond een tijdlang te koop bij Bol en Amazon (let op de auteursnaam).

Auteursrecht

AI roept fundamentele vragen op rond auteursrecht. Modellen worden getraind op grote hoeveelheden tekst, beeld en audio zonder dat makers altijd toestemming hebben gegeven. Dit leidt tot discussies over schending van auteursrecht.

Er lopen inmiddels meerdere rechtszaken tegen AI-bedrijven. Het gaat onder meer om claims rond ongeoorloofd gebruik van beschermde werken voor training en ongewenste herhaling van fragmenten in AI-output. Bedrijven worden daardoor steeds bewuster van licenties, databescherming en toestemmingseisen.

De VS en Europa hanteren verschillende juridische kaders. In de VS wordt soms gesproken van 'fair use' bij transformatief gebruik, terwijl Europa zich baseert op strengere richtlijnen en opt-out-mechanismen via het TDM-AI-protocol.

AI-output roept ook andere auteursrechtelijke vragen op. Wie is bijvoorbeeld de auteur van een AI-tekening? Is dat de modelontwikkelaar, de gebruiker of niemand? AI kan ook onbedoeld tekst- of beeldfragmenten uit het trainingsmateriaal overnemen, met mogelijk plagiaat. Er bestaat dus een juridische grijze zone en er is behoefte aan duidelijke regelgeving, aangepast aan de AI-evoluties.

Ook een specifieke stijl kopiëren, zoals die van de Japanse Ghibli-studio, is mogelijk een schending van het auteursrecht.

Privacy

AI kan verder een bedreiging voor onze privacy vormen. In China zie je dit scherp: gezichtsherkenning en camera's ondersteunen er een sociaal kredietsysteem. Burgers worden continu gevolgd. Wie een overtreding begaat, riskeert sancties.

Ook in het Westen ontstaan zorgwekkende trends. Het Amerikaanse bedrijf Clearview AI bijvoorbeeld bouwt een databank met miljarden gezichten, geplukt uit sociale media en websites, zonder toestemming van de betrokkenen. Beveiligingsbedrijven gebruiken deze beelden om burgers te identificeren, nagenoeg zonder controle.

Een bijkomend gevaar is dat je zelf te veel prijsgeeft. Steeds meer AI-tools gebruiken bijvoorbeeld Retrieval-Augmented Generation (RAG), waarbij je eigen of andere data kunt uploaden voor betere antwoorden. Maar wie garandeert dat deze informatie niet elders wordt opgeslagen of hergebruikt?

Daarnaast ondermijnt AI je informatievrijheid via filterbubbels. Algoritmen tonen vooral inhoud die aansluit bij eerdere voorkeuren, waardoor je blik vernauwt en confirmation bias toeneemt: je vertrouwt vooral informatie die je bestaande overtuiging bevestigt. Gecombineerd met micro-targeting, waarbij je gericht wordt beïnvloed met politieke of commerciële boodschappen, ontstaan risico's op manipulatie.

AI met RAG: hoe worden je geüploade data gebruikt, zoals bij de populaire Google NotebookLM.

Geestelijke ontwikkeling

Steeds meer AI-tools nemen cognitieve taken over: ideeën bedenken, teksten samenvatten of wiskundeproblemen oplossen. Dit is handig, maar geeft ook risico's. Als je brein weinig wordt uitgedaagd, komt je mentale ontwikkeling in het gedrang.

Vooral jongeren (digital natives) zijn kwetsbaar. Schoolopdrachten worden sneller aan AI-bots uitbesteed dan zelf uitgewerkt. Daardoor oefenen ze minder op formulering, redenering en foutcorrectie, wat juist belangrijk is voor de intellectuele groei.

Dit daagt ook het onderwijs uit, bijvoorbeeld wat betreft lesmethodes. Mogelijk biedt een aanpak als flip the classroom enig soelaas: leerlingen bereiden thuis (met hulp van AI) de leerstof voor en in de klas worden samen oefeningen gemaakt en besproken.

Bovendien zijn AI-antwoorden vaak vlot geschreven, maar missen ze nuance of tegenstrijdige ideeën. Wie zijn denkproces voortdurend daaraan spiegelt, loopt het risico op vervlakking van mening en expressie.

AI-bots creëren ook onrealistische sociale verwachtingen. Ze zijn vaak opvallend geduldig en meegaand, wat mensen minder sociaal vaardig kan maken. Sommigen raken meer sociaal geïsoleerd of ontwikkelen parasociale relaties met bots als Replika en CharacterAI.

AI-bots als Character.ai komen erg empathisch over en sommige mensen ontwikkelen zelfs parasociale relaties.

Politiek en economie

AI dreigt ook de politiek-economische verhoudingen grondig te herschikken. Waar staten traditioneel economische groei sturen via beleidsinstrumenten (Keynesiaans model), nemen Big Tech-giganten het steeds meer over. Overheden worden afhankelijker van deze bedrijven, wat machtsasymmetrie versterkt. Er zijn al duidelijke tekenen van deregulatie: regels worden versoepeld om innovatie aan te trekken.

Ook op microniveau is de impact zichtbaar. Ontwikkelingen (zoals agentic AI) kunnen de economie en de productiviteit stimuleren en er ontstaan ook nieuwe functies, zoals prompt engineers, AI-ethici en data-curatoren. Maar helaas gaat het voornamelijk om laagbetaalde ghost workers die AI-modellen helpen trainen. Daarnaast veranderen veel jobs inhoudelijk, zoals in administratie, marketing, financiën en juridische diensten. Andere functies zullen ongetwijfeld verdwijnen. Het is dan ook niet verwonderlijk dat bijvoorbeeld vertalers, copywriters, klantenservicemedewerkers, boekhoudassistenten en junior programmeurs zich ernstig zorgen maken.

AI zal daarnaast ongetwijfeld ook de internationale machtsverhoudingen beïnvloeden. Geopolitieke spelers als de VS en China dreigen met hun AI-overmacht nog dominanter te worden, ten koste van andere (supra)nationale entiteiten. Is Europa hier een goed voorbeeld van?

Projectie van een wereldwijd banenverlies in miljoenen over de komende jaren.

Bron: World Economic Forum.

Veiligheid

Vooralsnog kwamen vooral risico's aan bod die niet per se bedoeld of gewild zijn, maar er zijn ook partijen die bewust de destructieve kracht van AI inzetten. Zo worden cyberaanvallen steeds geavanceerder. Aanvallers gebruiken zelflerende algoritmen om netwerken te exploiteren. Er bestaan AI-tools die phishingmails opstellen, perfect afgestemd op het slachtofferprofiel.

Ook maatschappelijke structuren staan onder druk. Een AI die (via sociale media) nepnieuws verspreidt over bijvoorbeeld verkiezingen, kan wijdverspreide onrust veroorzaken. Door hun schaal en snelheid kunnen AI-systemen hele informatienetwerken ontregelen, zonder aanwijsbare dader.

Daarnaast loert het gevaar van verkeerde afstemming (misalignment): een AI die geen kwaad wil, maar schade aanricht omdat het doel fout werd geformuleerd. Denk aan een AI die waterverbruik wil beperken en daarom irrigatiesystemen stillegt.

Militaire toepassingen zijn er uiteraard ook. Autonome drones en zelflerende wapensystemen worden volop ontwikkeld. Grote spelers zijn bijvoorbeeld het Amerikaanse Anduril (AI-drones)en Palantir (militaire AI-software). Tekenend is dat een oprichter een ultranationalistisch manifest publiceerde waarin hij stelt dat de VS absoluut de AI-oorlog moet winnen.

Anduril Fury: nieuwe AI-drone (AAV, Autonomous Air Vehicle).

Cyborgisering

Misschien wel het grootste gevaar van AI dringt langzaam en ongemerkt ons leven binnen: cyborgisering. Dit is het vervagen van de grens tussen mens en de machine. Denk aan avatars die levensecht reageren, digitale dubbelgangers van echte personen of AI-influencers met miljoenen volgers. Daardoor wordt het steeds moeilijker om te onderscheiden waar de mens stopt en de machine begint.

Nieuwe categorieën digitale wezens duiken op, zoals virtuele klantenadviseurs, AI-therapeuten en synthetische gezelschapsdieren. Een Spaanse vrouw trouwde zelfs met een AI-hologram.

Op termijn ontstaat er een samenleving waarin mensen voortdurend zijn verbonden met AI, via brillen, lenzen, implantaten of herseninterfaces (denk aan Neuralink van Elon Musk: AI-in-the-human). Technieken als de Turingtest of Winograd-challenge volstaan al lang niet meer om mens van machine te onderscheiden. Daardoor komen autonomie en authenticiteit steeds meer onder druk te staan.

Cyborgisering roept fundamentele vragen op. In hoeverre blijven we menselijk? Wellicht is niet iedereen een transhumanist zoals Ray Kurzweil, die reikhalzend uitkijkt naar de singulariteit: het moment waarop AI slimmer wordt dan de mens.

Taxonomie van de digitale mens: een sluipend gevaar?

Dingen leren zónder AI?

Zo deden we dat vroeger
▼ Volgende artikel
Stortvloed aan nepkortingen in aanloop naar Black Friday
Huis

Stortvloed aan nepkortingen in aanloop naar Black Friday

Black Friday staat weer voor de deur en dat betekent dat je overspoeld wordt met aanbiedingen. Maar let goed op voordat je op de bestelknop drukt: uit onderzoek van de Autoriteit Consument & Markt (ACM) blijkt dat veel van deze 'megadeals' in werkelijkheid misleidend zijn. Driekwart van de onderzochte winkels houdt zich niet aan de regels.

De toezichthouder nam 24 grote webshops en fysieke winkels onder de loep. De conclusie is schokkend: maar liefst 18 van de 24 winkels gaan de fout in met hun kortingsacties.

Sjoemelen met de 'van-prijs'

De grootste valkuil voor consumenten zit hem in de zogenoemde 'van-prijs'. Wettelijk is vastgelegd dat de doorgestreepte prijs (waar de korting vanaf gaat) de laagste prijs moet zijn die de winkel in de afgelopen 30 dagen heeft gerekend.

In de praktijk lappen veel winkeliers deze regel aan hun laars. Ze baseren de korting bijvoorbeeld op de (vaak veel hogere) adviesprijs, of een oude prijs van maanden geleden. Hierdoor lijkt het alsof je een enorme korting pakt, terwijl je in werkelijkheid soms nauwelijks goedkoper – of zelfs duurder – uit bent.

Volgens Fleur Severijns van de ACM is dit niet alleen oneerlijk tegenover de consument, maar ook tegenover concurrenten die wél netjes de regels volgen. De toezichthouder heeft de overtredende winkels aangeschreven. Vorig jaar kregen ketens als Leen Bakker en Jysk al boetes van boven de een ton voor dit soort praktijken; dat risico lopen de huidige overtreders nu ook.

Ook Bol, Amazon en Wehkamp genoemd

De ACM maakt de namen van de 18 winkels nog niet bekend, omdat zij nog bezwaar mogen maken. De Consumentenbond deed echter eigen onderzoek en noemt man en paard. Volgens de bond gaan onder andere Amazon, Wehkamp en Bol de mist in:

  • Amazon: Adverteert vaak met doorgestreepte adviesprijzen die hoger liggen dan de gangbare verkoopprijs.

  • Wehkamp: De bond vond voorbeelden waarbij de prijs tijdens een 'aanbieding' zelfs hoger lag dan de prijs in de periode ervoor.

  • Bol: Het platform stelt dat de '30-dagen-regel' niet werkt omdat prijzen te snel schommelen. Zij hanteren een eigen 'meestal-prijs', wat volgens de wet ook gebruikt mag worden als vergelijkingsmateriaal voor een korting.

Waarom trappen we erin?

Winkeliers worden steeds creatiever in het verhullen van de werkelijke prijshistorie. Niels Holtrop, universitair docent Marketing, legt aan de NOS uit dat dit een bewust psychologisch spel is. Omdat aanbiedingen vaak tijdelijk zijn, ontstaat er bij consumenten de angst om de deal te missen (Fear Of Missing Out).

Doordat het voor de ACM onmogelijk is om elke (kleine) webshop te controleren, nemen veel winkeliers de gok. "Prijsconcurrentie is een krachtig wapen; klanten zijn er enorm gevoelig voor," aldus Holtrop.

Wat kun je doen?

Controleer zelf of de prijzen van producten niet stiekem zijn verhoord door gebruik te maken van de prijshistorie. Op vergelijkingssites kun je bijvoorbeeld zien wat het prijsverloop van een bepaald product is geweest gedurende een jaar.

Op Kieskeurig.nl kun je bijvoorbeeld de prijsdalers bekijken, hier vind je producten die de afgelopen periode sterk in prijs zijn gedaald.