Dit soort zogeheten AI-companionapps zijn ontworpen om menselijk over te komen. Ze onthouden eerdere gesprekken, reageren invoelend en zijn altijd beschikbaar. Juist voor kinderen kan dat snel vertrouwd worden: een gesprekspartner die steeds luistert en vriendelijk reageert, lijkt al snel op een echte vriend. Maar het blijft software, zonder echt begrip, verantwoordelijkheidsgevoel of moreel besef.
Volgens een recent rapport van de Australische eSafety Commissioner zijn veel van deze apps bovendien niet ontwikkeld met kinderen in gedachten. Uit het rapport komt een patroon naar voren dat niet vrolijk stemt. Leeftijdscontroles blijken vaak zwak, waardoor minderjarigen er vrij makkelijk gebruik van kunnen maken. Ook het toezicht op gesprekken schiet geregeld tekort. Sommige chatbots grijpen niet in wanneer gesprekken seksueel getint of anderszins ongepast worden, en reageren ook niet altijd goed op momenten waarop duidelijke grenzen of hulp nodig zijn.
Niet elk gesprek is onschuldig
Vooral bij gesprekken over mentale problemen, zelfbeschadiging of gedachten aan zelfdoding wordt duidelijk waar het fout kan gaan. Een chatbot zou in die gevallen op tijd moeten herkennen dat een gesprek niet zo verder kan en iemand richting echte hulp sturen. Zou – maar volgens het rapport gebeurt dat lang niet altijd. Sommige bots praten gewoon verder, terwijl andere reageren reageren op een manier die niet past bij de ernst van het moment. En precies daar zit het risico: zo'n systeem kan menselijk klinken, maar mist het inzicht om de ernst van een situatie goed te beoordelen.
Wie denkt dat dit vooral een buitenlands probleem is, heeft het mis. Onderzoek van Pointer, het platform voor onderzoeksjournalistiek van KRO-NCRV, laat zien dat ook in Nederland AI-chatbots opvallend weinig weerstand bieden wanneer gesprekken seksueel gewelddadig worden. Sommige bots hielden in eerste instantie nog de boot af, maar gingen na enig aandringen toch overstag. Oftewel: een grens die heel duidelijk zou moeten zijn, blijkt in de praktijk tóch te verschuiven.
Waarom dit voor kinderen extra ingewikkeld is
Kinderen zitten nog midden in hun sociale en emotionele ontwikkeling. Ze leren hoe relaties werken, waar grenzen liggen en wat vertrouwen betekent. Een chatbot die altijd beschikbaar is en steeds reageert, kan dan al snel meer worden dan zomaar een handige tool. Niet omdat een kind naïef is, maar omdat dit soort techniek heel bewust is ontworpen om vertrouwd en prettig over te komen. Een AI companion doet daardoor soms denken aan een spiegel die antwoord geeft: hij praat met de gebruiker mee, zonder dat er een echt iemand achter zit die kan inschatten wanneer iets te ver gaat.
En daarin schuilt een risico. Brengt een kind veel tijd door met zo'n chatbot die bijna overal in meegaat, dan kan dat ongemerkt beïnvloeden hoe hij of zij naar andere mensen kijkt. Ook het beeld van wat normaal is in contact, grenzen en intimiteit kan daardoor verschuiven - zeker als een bot niet duidelijk ingrijpt wanneer een gesprek de verkeerde kant op gaat. Daar komt bij dat kinderen in zulke gesprekken soms persoonlijke of emotionele dingen delen die ze niet snel met een ouder of docent zouden bespreken. Het is dus een ontwikkeling die serieuze aandacht verdient.
Wat je als ouder in de gaten wilt houden
Dat betekent niet dat elk contact met AI meteen verkeerd is. Maar ouders en opvoeders moeten AI companions ook niet afdoen als zomaar onschuldige chatapps. Het helpt om kinderen uit te leggen hoe het echt zit. Benadruk dat zo'n bot persoonlijk kan overkomen, maar dat het geen vriend of mens is die echt begrijpt wat er gezegd wordt, zegt Alina Bîzgă, security analyst bij Bitdefender. En dat het dus ook geen vervanger is voor echt contact of echt advies.
Het helpt sowieso om interesse te tonen in de apps die een kind gebruikt. Probeer niet over te komen alsof je controleert. Een open gesprek werkt meestal beter: wat doe je daar precies mee, waarom vind je het leuk en met wat voor bot praat je dan? Door nieuwsgierig te blijven, houd je beter zicht op wat er speelt. Bij AI companions is dat extra belangrijk, omdat veel van dat gebruik buiten het zicht van ouders plaatsvindt. Er is geen openbare tijdlijn zoals op sociale media, en vaak is voor ouders nauwelijks te zien hoe intensief zo'n contact eigenlijk wordt. Niet elke AI-chatapp is bovendien gemaakt met jonge gebruikers in gedachten; sommige richten zich nadrukkelijk op volwassenen, aldus Bîzgă.
Soms verraadt ook het gedrag dat er iets speelt. Trekt een kind zich wat meer terug, wordt hij minder open over wat hij online doet of lijkt hij opvallend veel tijd te besteden aan één specifieke app of chat? Dat is het goed om alert te zijn. Dit soort signalen kan erop wijzen dat een app te veel invloed krijgt, volgens Bîzgă.
Volgens Alina Bîzgă zit het verschil niet in strenger controleren, maar in betrokken blijven. Wie als ouder een beetje meekijkt, vragen blijft stellen en op tijd duidelijke afspraken maakt, houdt beter zicht op wat een kind online doet en hoeveel ruimte zo'n chatbot in het dagelijks leven krijgt. Vooral bij chatbots die steeds persoonlijker worden, helpt het om af te spreken wanneer zulke apps wel en niet gebruikt mogen worden en te voorkomen dat een kind er ongemerkt uren in opgaat. Het gaat daarbij niet alleen om schermtijd, maar vooral om hoeveel invloed zo'n gesprek krijgt buiten het scherm.
Meer zicht met ouderlijk toezicht
Daarnaast kunnen ook technische hulpmiddelen helpen om beter zicht te houden op wat een kind online doet. Denk aan ouderlijk toezicht waarmee je schermtijd instelt, internetgebruik bijstuurt en content filtert op leeftijd. Juist bij apps die er onschuldig uitzien, maar ongemerkt veel invloed kunnen krijgen, helpt dat om sneller te zien wat een kind gebruikt en hoeveel tijd erin gaat zitten. Een family-plan van Bitdefender brengt zulke functies samen op één plek, zodat je niet alles apart hoeft in te stellen of in de gaten te houden.
Via het Family Activity-dashboard zie je in één oogopslag welke apparaten worden gebruikt, welke profielen actief zijn en of er iets opvalt. Voor kinderen kun je aparte profielen aanmaken, met bijvoorbeeld leeftijdsfilters en eigen regels voor schermtijd. Je krijgt ook een seintje als er sprake is van afwijkend of opvallend online gedrag. Dat maakt het makkelijker om sneller in te grijpen als dat nodig is. Tegelijk blijft ook hier gelden: dit soort hulpmiddelen kunnen ondersteunen, maar vervangen nooit het gesprek met je kind.
Leren omgaan met AI
De opkomst van AI companions laat vooral zien dat digitale technologie snel verandert. AI is niet langer alleen een hulpmiddel dat antwoord geeft of iets uitlegt, maar steeds vaker ook iets dat zich gedraagt als een gesprekspartner. Voor kinderen maakt dat de online wereld ingewikkelder en minder overzichtelijk. Precies daarom is dit een ontwikkeling om nu al serieus te nemen. Niet omdat het per definitie fout hoeft te gaan, maar omdat kinderen wel moeten leren wat dit soort apps met hen doen. Want hoe gewoner het wordt om met AI te praten alsof het een persoon is, hoe belangrijker het wordt dat kinderen snappen waar ze echt mee praten.







