ID.nl logo
5 veelgemaakte fouten met de vaatwasser
© Ilja - stock.adobe.com
Huis

5 veelgemaakte fouten met de vaatwasser

De vaatwasser is een huishoudelijk apparaat dat we massaal hebben omarmd, omdat het ons veel geld, tijd en energie kan besparen (als in: de energie die jij normaal gesproken besteedt aan het afwassen). Maar dat betekent niet dat iedereen de huishoudhulp correct gebruikt. Dit zijn vijf veelgemaakte fouten.

Om ervoor te zorgen dat je de vaatwasser correct gebruikt, kun je de onderstaande lijst met veelgemaakte fouten doornemen.

  • Let er bijvoorbeeld op dat je vóór elke wasbeurt de juiste instellingen gebruikt

  • Doe niet te veel, maar ook zeker niet te weinig in de vaatwasser

  • Zorg ervoor dat je hem op tijd schoonmaakt; goed onderhoud is belangrijk!

  • Ook interessant: 9 veelgemaakte fouten bij het drogen van je was

Vaatwassers heb je in allerlei soorten en maten en met verschillende soorten droogtechnieken. Voordat je een vaatwasser in huis haalt, is het van belang dat je er eentje kiest die bij jouw behoeften past en qua formaat geschikt is voor jouw huishouden. Weet je eenmaal wat je nodig hebt en is de boel geïnstalleerd? Dan is het verstandig om je even in te lezen over het gebruik, want je kunt een hoop problemen voorkomen door de onderstaande tips op te volgen.

Vaatwasser toch kapot?

Kijk hier voor een nieuwe die binnen jouw budget past!

Stop niet te veel of te weinig in de vaatwasser

Hoewel het verleidelijk is om de vaatwasser lekker vol te gooien, is dat toch niet aan te raden. In de handleiding van het apparaat staat vaak netjes beschreven hoe het zit met de capaciteit, zodat je kunt opzoeken hoeveel vaat er precies in kan. Bovendien zegt de indeling van de machine ook al een hoop: de ruimtes tussen de verschillende rekken geven aan waar borden of pannen het best kunnen worden geplaatst, en vaak ook het type bord (bijvoorbeeld dunne of diepe borden).

Datzelfde geldt voor bekers, kommen en glazen, die je doorgaans op het rekje bovenop kwijt kunt. Je kunt die aanbevelingen negeren, maar daar gaat de vaatwasser niet beter door schoonmaken. Soms komt de vuile vaat er vies of nat uit als alles te dicht op elkaar staat. De spullen in de vaatwasser mogen elkaar eigenlijk niet aanraken en natuurlijk geen openingen (voor het water) blokkeren. Stop er dus niet te veel in, maar aan de andere kant: stop er ook niet te weinig vuile vaat in.

Dat heeft namelijk als nadeel dat je de vaatwasser mogelijk vaker moet gebruiken dan nodig. Je verbruikt meer water en energie, en uiteindelijk verkort dat ook de levensduur van het apparaat. Heeft jouw vaatwasser een automatische stand? Dat is mooi, want daarmee beperk je het water- en stroomverbruik. Maar dan nog gebruik je het apparaat een keer vaker dan nodig. Soms kan het niet anders (als er bijvoorbeeld een feestje in aantocht is), maar probeer dat tot het minimum te beperken.

©africa-studio.com (Olga Yastremska and Leonid Yastremskiy)

Juiste instellingen en op tijd schoonmaken

Over instellingen gesproken: zorg ervoor dat je per wasbeurt de juiste modus gebruikt. Als de knopjes op de vaatwasser je weinig zeggen, pak dan de handleiding er dan even bij en ga alle functies langs. Bepaalde standen zijn specifiek bedoeld voor bepaalde spullen. Zo is een delicate stand vanwege de lagere temperaturen vriendelijk voor glas. Wil je potten en pannen schoonmaken die flink smerig zijn? Dan heb je daar weer een hete stand voor nodig, die schadelijk kunnen zijn voor je glazen.

🔴 TIP! Heeft je vaatwasser een ecostand? Maak daar dan gebruik van. Hoewel het apparaat dan langer bezig is, bespaar je toch energie en water. Deze stand kun je niet gebruiken voor sterk vervuilde vaat.

In het verlengde van het juist gebruik willen we ook het schoonmaken onder de aandacht brengen. Want een vaatwasser is zo schoon als de persoon die hem gebruikt. Zeep- en etensresten kunnen ervoor zorgen dat de vaat(wasser) stinkt of vuil blijft, en mogelijk gaat het apparaat zelfs eerder kapot. Door hem maandelijks van een schoonmaakbeurt te voorzien, voorkom je een hoop ellende. Check de filters, loop de randen langs en maak alle accessoires in de cabine schoon.

©VLADYSLAV LEHIR

Maak gebruik van een derde rek

Mogelijk kun je er nog een derde rek toevoegen en anders moet je hierop letten als je een vaatwasser koopt. Normaal gesproken hebben vaatwasser twee rekken: één voor potten, pannen en borden en één voor bekers, kopjes en glazen. Met een derde rek aan boord heb je voldoende ruimte voor het bestek. Dat is om meerdere redenen voordelig: niet alleen gaat het inladen sneller en hoef je minder diep te bukken, ook worden de vorken, messen en lepels beter schoongemaakt.

Als je ze op zo’n rek aan de bovenkant legt, hebben ze namelijk veel meer ruimte dan in de traditionele bestekbakjes. Bovendien kun je veel meer bestek kwijt op zo’n bovenlaag. Kortom: dat derde rek biedt eigenlijk alleen maar voordelen. Sommige derde lagen bieden ruimte voor groter keukengerei, maar dat zal per vaatwasser verschillen. Dit soort opties zijn doorgaans alleen weggelegd voor premium-modellen, maar zijn zeker de investering waard.

▼ Volgende artikel
AI: handig, maar hoe zit het met de schaduwkanten?
© khunkornStudio - stock.adobe.com
Huis

AI: handig, maar hoe zit het met de schaduwkanten?

AI is inmiddels doorgedrongen tot in bijna elk digitaal domein. Van vertaaltools en chatbots tot beeldmakers en medische toepassingen. Veel gebruikers vinden AI handig, efficiënt en zelfs creatief. Toch brengt deze evolutie ook minder zichtbare risico's met zich mee, op persoonlijk, maatschappelijk en ecologisch vlak.

Dit artikel in het kort

AI zit inmiddels in bijna elke digitale dienst, maar de gevolgen daarvan zijn minder zichtbaar. In dit artikel lees je welke risico's daarbij horen, van hallucinaties en bias tot privacy, milieubelasting en de groei van synthetische media. Ook komen juridische vragen, economische verschuivingen en de grens tussen mens en machine aan bod. Je krijgt een breed overzicht van de belangrijkste risicozones en wat deze ontwikkelingen betekenen voor de samenleving.

Disclaimer:Het AI-domein verandert snel. De gegevens en cijfers in dit artikel zijn gebaseerd op de situatie tot Q3 2025; latere ontwikkelingen kunnen afwijken.

Lees ook: Artifical general intelligence: AI wordt slimmer én menselijker

AI is inmiddels doorgedrongen tot in bijna elk digitaal domein. Van vertaaltools en chatbots tot beeldmakers en medische toepassingen. Veel gebruikers vinden AI handig, efficiënt en zelfs creatief. Toch brengt deze evolutie ook minder zichtbare risico's met zich mee, op persoonlijk, maatschappelijk en ecologisch vlak.

In dit artikel bekijken we verschillende AI-risicozones. Wat is bijvoorbeeld de milieu-impact van AI? Hoe betrouwbaar zijn de antwoorden van chatbots? Wat als synthetische media (alles wat met AI wordt gemaakt) niet meer van echt te onderscheiden zijn? En hoe beïnvloeden AI-systemen onze economie, privacy en ons denkvermogen? De grens tussen mens en machine vervaagt.

Dit artikel is bedoeld voor wie voorbij de hype wil kijken en wil begrijpen wat er op het spel staat. Elk onderdeel behandelt een specifiek risico, met voorbeelden en toepassingen. Zo krijg je een goed beeld van de schaduwkanten van AI. Niet om de technologie af te wijzen, maar om er bewuster en verantwoordelijker mee om te gaan.

Als je de schaduwkanten ervan kent, kun je AI verantwoordelijker inzetten.

Ecologische voetafdruk

Hoewel AI vaak als iets immaterieels en 'in de cloud' wordt voorgesteld, is de milieu-impact allesbehalve onzichtbaar. De menselijke hersenen verbruiken continu ongeveer 20 watt, vergelijkbaar met een gloeilampje. Daarmee worden 86 miljard neuronen en duizenden synapsen per neuron gevoed.

Grote taalmodellen als GPT of Gemini vragen daarentegen enorm veel rekenkracht. De trainingsfase kan duizenden MWh vereisen en miljoenen liters water voor koeling, afhankelijk van het datacenter en de gebruikte hardware. Ook het gebruik (inferentie) is belastend: elke prompt/antwoord-interactie bij modellen uit deze klasse vraagt energie en koeling aan de serverzijde.

AI heeft dus een stevige ecologische voetafdruk. Tegelijk worden oplossingen ontwikkeld, zoals restwarmtehergebruik, luchtkoeling in plaats van waterkoeling, meer hernieuwbare energie en efficiëntere modellen. Denk aan compacte taalmodellen, zoals TinyML, quantisatietechnieken (kleinere getallen en minder geheugen) en lokaal draaiende AI's (edge AI).

©(c) Wikipedia, CC BY-SA

Microsoft heropent de nucleaire site Three Mile Island voor AI-datacenters.

(c) Wikipedia, CC BY-SA

Hallucinaties

AI-chatbots doen de gebruiker graag een plezier. Daarbij zijn ze opvallend overtuigend, ook wanneer ze onzin produceren, oftewel wanneer ze hallucineren.

Hallucinaties kunnen ernstige gevolgen hebben, bijvoorbeeld wanneer juristen verwijzen naar niet-bestaande wetsartikelen of wanneer medische informatie klakkeloos wordt overgenomen. Controleer gevoelige informatie daarom altijd via meerdere bronnen. Doe dit zeker bij gevoelige of complexe thema's. Weet ook dat AI-modellen zich vaak verontschuldigen als je teruggeeft dat er een fout is gemaakt. Vervolgens herhalen ze zich doodleuk.

Hallucinaties zijn hardnekkiger bij fenomenen als data- en conceptdrift. Bij het eerste herkent het model je eigen input minder goed doordat de vorm afwijkt van de trainingsinput. Bij het tweede is de inputvorm hetzelfde gebleven, maar is de betekenis inmiddels veranderd. Meer weten over datadrift en conceptdrift.

Verder kan het model te veel details uit trainingsdata opnemen en zo irrelevante informatie meenemen (overfitting). Of omgekeerd: onvoldoende zinvolle data gebruiken (underfitting). Ook deze fenomenen kunnen het hallucineren versterken.

Hallucinatie door drifting: AI-modellen houden de werkelijkheid niet altijd even actief bij.

Wat is hallucineren?

Hallucineren is het moment waarop een AI-model met grote zekerheid iets vertelt dat niet klopt. Het systeem voorspelt woorden op basis van eerder waargenomen patronen en heeft geen inzicht in feiten of logica. Daardoor kan het wetsartikelen verzinnen, namen bedenken of cijfers opleveren die nergens op zijn gebaseerd. Dit gebeurt sneller bij complexe vragen of wanneer de context ontbreekt. Het is dus geen "zien" of "horen", maar simpelweg foutieve tekstproductie die overtuigend klinkt.

Bias en manipulatie

AI-modellen krijgen enorme datahoeveelheden van het internet als input. Deze zijn zelden neutraal, waardoor vooroordelen of een westers wereldbeeld in het leerproces sluipen. Dat zorgt voor vertekening of bias (vooringenomenheid). AI-modellen kunnen bijvoorbeeld vrouwen aan zorgberoepen linken en mannen aan leidinggevende functies, of etnische groepen benadelen bij risicobeoordelingen.

Bias is niet alleen maatschappelijk, maar ook technisch. Een model leert niet alleen wat er ín de data staat, maar ook hoe die data zijn verdeeld. Als een bepaalde bron oververtegenwoordigd is, of als een schrijfstijl vaker voorkomt, dan krijgt dat automatisch meer gewicht. De architectuur en trainingsmethode versterken die patronen. Daardoor kunnen antwoorden die objectief lijken toch subtiel een voorkeur bevatten.

Interessant is ook dat onderzoekers political compass-testvragen voorlegden aan grote AI-taalmodellen (LLM's). De conclusie: zowat alle LLM's situeren zich in het links-economische, sociaal-libertaire kwadrant. Besef dat ook deze testvragen een vooroordeel (kunnen) bevatten, wat aantoont hoe moeilijk het is bias correct te beoordelen.

Nog problematischer wordt het bij manipulatie, wanneer deze bias opzettelijk in het model zit. Denk aan AI-toepassingen in advertenties die inspelen op angsten of overtuigingen. Algoritmische sturing kan bovendien gemakkelijk tot gelijkgezinde groepen (echo chambers) en polarisering leiden.

Omdat AI-modellen zo complex zijn, is vaak onduidelijk hoe de output tot stand komt (de black box). Dit vergroot de transparantiebehoefte en verklaart waarom veel wetenschappers pleiten voor explainable AI, of LLM's en AI-algoritmen opensource willen maken.

De meeste LLM's bevinden zich in het links-libertaire kwadrant. Wij testen het hier zelf met GPT-4o en DeepSeek.

Synthetische media

De term synthetische media verwijst naar beelden, audio of tekst die volledig of deels AI-gegenereerd zijn. Denk aan deepfakes, nagebootste stemmen of automatisch gegenereerde nieuwsartikelen. Zulke toepassingen lijken creatief en handig, je maakt bijvoorbeeld een marketingvideo zonder camera of acteurs, maar de keerzijde is zorgwekkend.

Deepfakes kunnen personen dingen laten zeggen die zo zijn uitgesproken. Andersom kunnen echte beelden als deepfake worden afgedaan, ook wel 'the liar's dividend' genoemd. Deepnudes (gefingeerde naaktbeelden) kunnen dan weer gebruikt worden voor wraakporno.

Deze technologieën maken ook nepnieuws: desinformatie waarbij feiten doelbewust worden verdraaid. Dit tast het vertrouwen in communicatie en bewijsvoering aan en doet steeds meer mensen geloven in de maakbaarheid van de realiteit. Wat echt is, hangt vooral af van hoe je deze zelf vormgeeft. Feit en fictie raken verstrengeld, waardoor we belanden bij concepten als alternate truth en postrealiteit. Daarin wegen perceptie, gevoel en overtuiging zwaarder dan feiten. Synthetische media vragen daarom niet alleen om kritische blik, maar mogelijk ook om watermerken en regulering.

Donald J. Trump: van deepfake naar alternate truth.

Zelfbevlekking

AI-modellen gebruiken vrijwel alle beschikbare internetbronnen als trainingsmateriaal. Omdat generatieve AI zelf steeds meer online content produceert, gebruiken modellen ook hun eigen output opnieuw. Zo ontstaat een zichzelf versterkende kringloop waarbij AI zich voedt met AI-gegenereerde inhoud. Deze vorm van zelfbevlekking verhoogt het risico op kwaliteitsverlies in digitale content, ook wel slop of enshittification genoemd.

AI genereert output namelijk op basis van patronen, niet vanuit betekenis of intentie. Als deze patronen ook nog eens uit andere AI-bronnen komen, ontstaat een neerwaartse spiraal met nauwelijks nuancering en steeds herhaalde ideeën. Hierdoor verhoogt ook het risico op hallucinaties en bias en de mens raakt out-of-the-loop. Op termijn dreigt model collapse: AI-modellen worden minder intelligent naarmate ze vaker op eigen output trainen.

Sommigen spreken van een zombie-internet. Zo blijkt inmiddels al zeker vijf procent van de nieuwe Engelstalige Wikipedia-inhoud AI-gegenereerd te zijn. Bovendien nemen mensen typische AI-taal, met herkenbare woordkeuzes, steeds vaker over. Om deze dynamiek te doorbreken, moeten menselijke input en creativiteit centraal blijven staan in het AI-trainingsproces.

Dit boek werd volledig door AI gegenereerd en stond een tijdlang te koop bij Bol en Amazon (let op de auteursnaam).

Auteursrecht

AI roept fundamentele vragen op rond auteursrecht. Modellen worden getraind op grote hoeveelheden tekst, beeld en audio zonder dat makers altijd toestemming hebben gegeven. Dit leidt tot discussies over schending van auteursrecht.

Er lopen inmiddels meerdere rechtszaken tegen AI-bedrijven. Het gaat onder meer om claims rond ongeoorloofd gebruik van beschermde werken voor training en ongewenste herhaling van fragmenten in AI-output. Bedrijven worden daardoor steeds bewuster van licenties, databescherming en toestemmingseisen.

De VS en Europa hanteren verschillende juridische kaders. In de VS wordt soms gesproken van 'fair use' bij transformatief gebruik, terwijl Europa zich baseert op strengere richtlijnen en opt-out-mechanismen via het TDM-AI-protocol.

AI-output roept ook andere auteursrechtelijke vragen op. Wie is bijvoorbeeld de auteur van een AI-tekening? Is dat de modelontwikkelaar, de gebruiker of niemand? AI kan ook onbedoeld tekst- of beeldfragmenten uit het trainingsmateriaal overnemen, met mogelijk plagiaat. Er bestaat dus een juridische grijze zone en er is behoefte aan duidelijke regelgeving, aangepast aan de AI-evoluties.

Ook een specifieke stijl kopiëren, zoals die van de Japanse Ghibli-studio, is mogelijk een schending van het auteursrecht.

Privacy

AI kan verder een bedreiging voor onze privacy vormen. In China zie je dit scherp: gezichtsherkenning en camera's ondersteunen er een sociaal kredietsysteem. Burgers worden continu gevolgd. Wie een overtreding begaat, riskeert sancties.

Ook in het Westen ontstaan zorgwekkende trends. Het Amerikaanse bedrijf Clearview AI bijvoorbeeld bouwt een databank met miljarden gezichten, geplukt uit sociale media en websites, zonder toestemming van de betrokkenen. Beveiligingsbedrijven gebruiken deze beelden om burgers te identificeren, nagenoeg zonder controle.

Een bijkomend gevaar is dat je zelf te veel prijsgeeft. Steeds meer AI-tools gebruiken bijvoorbeeld Retrieval-Augmented Generation (RAG), waarbij je eigen of andere data kunt uploaden voor betere antwoorden. Maar wie garandeert dat deze informatie niet elders wordt opgeslagen of hergebruikt?

Daarnaast ondermijnt AI je informatievrijheid via filterbubbels. Algoritmen tonen vooral inhoud die aansluit bij eerdere voorkeuren, waardoor je blik vernauwt en confirmation bias toeneemt: je vertrouwt vooral informatie die je bestaande overtuiging bevestigt. Gecombineerd met micro-targeting, waarbij je gericht wordt beïnvloed met politieke of commerciële boodschappen, ontstaan risico's op manipulatie.

AI met RAG: hoe worden je geüploade data gebruikt, zoals bij de populaire Google NotebookLM.

Geestelijke ontwikkeling

Steeds meer AI-tools nemen cognitieve taken over: ideeën bedenken, teksten samenvatten of wiskundeproblemen oplossen. Dit is handig, maar geeft ook risico's. Als je brein weinig wordt uitgedaagd, komt je mentale ontwikkeling in het gedrang.

Vooral jongeren (digital natives) zijn kwetsbaar. Schoolopdrachten worden sneller aan AI-bots uitbesteed dan zelf uitgewerkt. Daardoor oefenen ze minder op formulering, redenering en foutcorrectie, wat juist belangrijk is voor de intellectuele groei.

Dit daagt ook het onderwijs uit, bijvoorbeeld wat betreft lesmethodes. Mogelijk biedt een aanpak als flip the classroom enig soelaas: leerlingen bereiden thuis (met hulp van AI) de leerstof voor en in de klas worden samen oefeningen gemaakt en besproken.

Bovendien zijn AI-antwoorden vaak vlot geschreven, maar missen ze nuance of tegenstrijdige ideeën. Wie zijn denkproces voortdurend daaraan spiegelt, loopt het risico op vervlakking van mening en expressie.

AI-bots creëren ook onrealistische sociale verwachtingen. Ze zijn vaak opvallend geduldig en meegaand, wat mensen minder sociaal vaardig kan maken. Sommigen raken meer sociaal geïsoleerd of ontwikkelen parasociale relaties met bots als Replika en CharacterAI.

AI-bots als Character.ai komen erg empathisch over en sommige mensen ontwikkelen zelfs parasociale relaties.

Politiek en economie

AI dreigt ook de politiek-economische verhoudingen grondig te herschikken. Waar staten traditioneel economische groei sturen via beleidsinstrumenten (Keynesiaans model), nemen Big Tech-giganten het steeds meer over. Overheden worden afhankelijker van deze bedrijven, wat machtsasymmetrie versterkt. Er zijn al duidelijke tekenen van deregulatie: regels worden versoepeld om innovatie aan te trekken.

Ook op microniveau is de impact zichtbaar. Ontwikkelingen (zoals agentic AI) kunnen de economie en de productiviteit stimuleren en er ontstaan ook nieuwe functies, zoals prompt engineers, AI-ethici en data-curatoren. Maar helaas gaat het voornamelijk om laagbetaalde ghost workers die AI-modellen helpen trainen. Daarnaast veranderen veel jobs inhoudelijk, zoals in administratie, marketing, financiën en juridische diensten. Andere functies zullen ongetwijfeld verdwijnen. Het is dan ook niet verwonderlijk dat bijvoorbeeld vertalers, copywriters, klantenservicemedewerkers, boekhoudassistenten en junior programmeurs zich ernstig zorgen maken.

AI zal daarnaast ongetwijfeld ook de internationale machtsverhoudingen beïnvloeden. Geopolitieke spelers als de VS en China dreigen met hun AI-overmacht nog dominanter te worden, ten koste van andere (supra)nationale entiteiten. Is Europa hier een goed voorbeeld van?

Projectie van een wereldwijd banenverlies in miljoenen over de komende jaren.

Bron: World Economic Forum.

Veiligheid

Vooralsnog kwamen vooral risico's aan bod die niet per se bedoeld of gewild zijn, maar er zijn ook partijen die bewust de destructieve kracht van AI inzetten. Zo worden cyberaanvallen steeds geavanceerder. Aanvallers gebruiken zelflerende algoritmen om netwerken te exploiteren. Er bestaan AI-tools die phishingmails opstellen, perfect afgestemd op het slachtofferprofiel.

Ook maatschappelijke structuren staan onder druk. Een AI die (via sociale media) nepnieuws verspreidt over bijvoorbeeld verkiezingen, kan wijdverspreide onrust veroorzaken. Door hun schaal en snelheid kunnen AI-systemen hele informatienetwerken ontregelen, zonder aanwijsbare dader.

Daarnaast loert het gevaar van verkeerde afstemming (misalignment): een AI die geen kwaad wil, maar schade aanricht omdat het doel fout werd geformuleerd. Denk aan een AI die waterverbruik wil beperken en daarom irrigatiesystemen stillegt.

Militaire toepassingen zijn er uiteraard ook. Autonome drones en zelflerende wapensystemen worden volop ontwikkeld. Grote spelers zijn bijvoorbeeld het Amerikaanse Anduril (AI-drones)en Palantir (militaire AI-software). Tekenend is dat een oprichter een ultranationalistisch manifest publiceerde waarin hij stelt dat de VS absoluut de AI-oorlog moet winnen.

Anduril Fury: nieuwe AI-drone (AAV, Autonomous Air Vehicle).

Cyborgisering

Misschien wel het grootste gevaar van AI dringt langzaam en ongemerkt ons leven binnen: cyborgisering. Dit is het vervagen van de grens tussen mens en de machine. Denk aan avatars die levensecht reageren, digitale dubbelgangers van echte personen of AI-influencers met miljoenen volgers. Daardoor wordt het steeds moeilijker om te onderscheiden waar de mens stopt en de machine begint.

Nieuwe categorieën digitale wezens duiken op, zoals virtuele klantenadviseurs, AI-therapeuten en synthetische gezelschapsdieren. Een Spaanse vrouw trouwde zelfs met een AI-hologram.

Op termijn ontstaat er een samenleving waarin mensen voortdurend zijn verbonden met AI, via brillen, lenzen, implantaten of herseninterfaces (denk aan Neuralink van Elon Musk: AI-in-the-human). Technieken als de Turingtest of Winograd-challenge volstaan al lang niet meer om mens van machine te onderscheiden. Daardoor komen autonomie en authenticiteit steeds meer onder druk te staan.

Cyborgisering roept fundamentele vragen op. In hoeverre blijven we menselijk? Wellicht is niet iedereen een transhumanist zoals Ray Kurzweil, die reikhalzend uitkijkt naar de singulariteit: het moment waarop AI slimmer wordt dan de mens.

Taxonomie van de digitale mens: een sluipend gevaar?

Dingen leren zónder AI?

Zo deden we dat vroeger
▼ Volgende artikel
Stortvloed aan nepkortingen in aanloop naar Black Friday
Huis

Stortvloed aan nepkortingen in aanloop naar Black Friday

Black Friday staat weer voor de deur en dat betekent dat je overspoeld wordt met aanbiedingen. Maar let goed op voordat je op de bestelknop drukt: uit onderzoek van de Autoriteit Consument & Markt (ACM) blijkt dat veel van deze 'megadeals' in werkelijkheid misleidend zijn. Driekwart van de onderzochte winkels houdt zich niet aan de regels.

De toezichthouder nam 24 grote webshops en fysieke winkels onder de loep. De conclusie is schokkend: maar liefst 18 van de 24 winkels gaan de fout in met hun kortingsacties.

Sjoemelen met de 'van-prijs'

De grootste valkuil voor consumenten zit hem in de zogenoemde 'van-prijs'. Wettelijk is vastgelegd dat de doorgestreepte prijs (waar de korting vanaf gaat) de laagste prijs moet zijn die de winkel in de afgelopen 30 dagen heeft gerekend.

In de praktijk lappen veel winkeliers deze regel aan hun laars. Ze baseren de korting bijvoorbeeld op de (vaak veel hogere) adviesprijs, of een oude prijs van maanden geleden. Hierdoor lijkt het alsof je een enorme korting pakt, terwijl je in werkelijkheid soms nauwelijks goedkoper – of zelfs duurder – uit bent.

Volgens Fleur Severijns van de ACM is dit niet alleen oneerlijk tegenover de consument, maar ook tegenover concurrenten die wél netjes de regels volgen. De toezichthouder heeft de overtredende winkels aangeschreven. Vorig jaar kregen ketens als Leen Bakker en Jysk al boetes van boven de een ton voor dit soort praktijken; dat risico lopen de huidige overtreders nu ook.

Ook Bol, Amazon en Wehkamp genoemd

De ACM maakt de namen van de 18 winkels nog niet bekend, omdat zij nog bezwaar mogen maken. De Consumentenbond deed echter eigen onderzoek en noemt man en paard. Volgens de bond gaan onder andere Amazon, Wehkamp en Bol de mist in:

  • Amazon: Adverteert vaak met doorgestreepte adviesprijzen die hoger liggen dan de gangbare verkoopprijs.

  • Wehkamp: De bond vond voorbeelden waarbij de prijs tijdens een 'aanbieding' zelfs hoger lag dan de prijs in de periode ervoor.

  • Bol: Het platform stelt dat de '30-dagen-regel' niet werkt omdat prijzen te snel schommelen. Zij hanteren een eigen 'meestal-prijs', wat volgens de wet ook gebruikt mag worden als vergelijkingsmateriaal voor een korting.

Waarom trappen we erin?

Winkeliers worden steeds creatiever in het verhullen van de werkelijke prijshistorie. Niels Holtrop, universitair docent Marketing, legt aan de NOS uit dat dit een bewust psychologisch spel is. Omdat aanbiedingen vaak tijdelijk zijn, ontstaat er bij consumenten de angst om de deal te missen (Fear Of Missing Out).

Doordat het voor de ACM onmogelijk is om elke (kleine) webshop te controleren, nemen veel winkeliers de gok. "Prijsconcurrentie is een krachtig wapen; klanten zijn er enorm gevoelig voor," aldus Holtrop.

Wat kun je doen?

Controleer zelf of de prijzen van producten niet stiekem zijn verhoord door gebruik te maken van de prijshistorie. Op vergelijkingssites kun je bijvoorbeeld zien wat het prijsverloop van een bepaald product is geweest gedurende een jaar.

Op Kieskeurig.nl kun je bijvoorbeeld de prijsdalers bekijken, hier vind je producten die de afgelopen periode sterk in prijs zijn gedaald.