ID.nl logo
Hoe gaan we om met AI?
© Reshift Digital
Huis

Hoe gaan we om met AI?

Zelfrijdende auto’s op de weg, slimme assistenten in huis en software die bepaalt of je een lening krijgt - het is allemaal geen toekomstmuziek meer. AI heeft een steeds grotere impact op ons dagelijks leven en verstookt ook heel wat energie met de bijbehorende CO₂-uitstoot. Reden te meer om eens dieper na te denken over hoe we als maatschappij met AI willen omgaan.

AI (artificial intelligence, ofwel kunstmatige intelligentie) speelt een steeds belangrijkere rol in ons dagelijks leven. De technologie biedt heel wat voordelen: slimme assistenten verstaan je spraak, je smartphone verbetert je typefouten en binnenkort hoeven we misschien zelf niet meer te rijden omdat onze auto dat voor ons doet.

Maar het gebruik van AI roept ook heel wat vragen op. Niet alleen over privacy, maar zelfs nog veel fundamenteler: wíllen we al die taken wel door computers laten uitvoeren? Willen we bijvoorbeeld wel volledig door een algoritme laten bepalen wie een lening krijgt, zonder enige menselijke inbreng? En nog extremer: willen we wel een drone in oorlogsgebied automatisch laten bepalen of iemand een burger of vijandige soldaat is om die dan neer te schieten?

01 Van grondrechten tot ethische beginselen

In april 2019 publiceerde de ‘High-Level Expert Group on AI’ van de Europese Commissie ethische richtlijnen voor betrouwbare AI. Dit deden ze om een kader te bieden om over dit soort vragen na te denken en beslissingen over het gebruik van AI te kunnen nemen die mensen in hun waarde laten.

De expertgroep baseert zich op grondrechten die in de EU-verdragen, het Handvest van de grondrechten van de EU en de internationale mensenrechtenwetgeving opgenomen zijn. Het gaat dan bijvoorbeeld om respect voor de menselijke waardigheid, vrijheid van het individu, respect voor democratie, justitie en de rechtsstaat, gelijkheid, non-discriminatie en solidariteit en rechten van burgers (zoals het recht op behoorlijk bestuur en het recht op inzage in openbare documenten). Bij de ontwikkeling en het gebruik van AI mogen die grondrechten nooit in het gedrang komen, vindt de expertgroep.

De auteurs noemen in hun rapport vier ethische beginselen die in die grondrechten geworteld zijn en die ontwikkelaars en gebruikers van AI altijd zouden moeten naleven: respect voor de menselijke autonomie, preventie van schade, rechtvaardigheid en verantwoording. Door deze beginselen na te leven, zouden we met AI het individuele en collectieve welzijn kunnen verbeteren.

©PXimport

02 Respect voor de menselijke autonomie

Een belangrijk grondrecht is de vrijheid van het individu: ieder is vrij om zijn eigen levenskeuzes te maken. Daaronder vallen ook de vrijheid van meningsuiting en het recht op een privéleven. Een AI-systeem mag mensen daarom niet onterecht onderwerpen of tot iets dwingen, maar ook niet misleiden of manipuleren.

Een AI-systeem dat dit ethische beginsel omarmt, zou juist ontworpen moeten zijn om de menselijke cognitieve, sociale en culturele vaardigheden aan te vullen en te versterken. Zo zou een AI-systeem op de werkvloer dat respect heeft voor de autonomie van de werknemers juist ondersteunend zijn en het werk nog zinvoller maken. Bovendien betekent respect voor de menselijke autonomie ook dat er altijd menselijke controle moet zijn op de werkprocessen van het AI-systeem.

03 Preventie van schade

Een AI-systeem mag geen schade veroorzaken of vergroten bij mensen, zowel op fysiek als mentaal gebied. Hieronder vallen ook regels dat het systeem robuust en veilig moet zijn, zodat het niet misbruikt kan worden. Maar het gaat verder: een AI-systeem dat bijvoorbeeld ongelijkheid vergroot of de machtsverhoudingen tussen werkgever en werknemers verandert doordat die eerste meer informatie krijgt over zijn werknemers, gaat in tegen deze richtlijn.

Ook tussen een bedrijf en zijn klanten of consumenten, of tussen een overheid en zijn burgers is er die scheeftrekking van de machtsverhoudingen. We zien dan ook momenteel dat veel bedrijven en overheden AI juist (willen) inzetten om hun macht te vergroten, en dat is een rechtstreekse inbreuk op dit beginsel.

04 Rechtvaardigheid

Rechtvaardigheid is een breed begrip dat ook nog eens cultureel bepaald is. Dit is waarschijnlijk dan ook het moeilijkste ethische beginsel om in de praktijk te brengen. Toch zijn er enkele algemene regels: een AI-systeem zou niemand mogen discrimineren, stigmatiseren, ongelijke kansen geven of arbitrair in zijn keuzevrijheid beperken.

Discriminatie hoeft overigens niet bewust ingebouwd te zijn: het kan ook een ‘bug’ zijn. Zo werkt gezichtsherkenning doorgaans minder goed bij een donkere huid, waardoor gekleurde personen vaker verkeerd geïdentificeerd worden.

Rechtvaardigheid betekent ook dat tegengestelde belangen altijd afgewogen moeten worden en dat de inzet van een AI-systeem evenredig moet zijn met het doel. De inzet van gezichtsherkenning om iemand publiekelijk aan de schandpaal te nagelen na het oversteken bij rood licht, is bijvoorbeeld een onevenredig gebruik van de technologie en dus niet rechtvaardig. Tenminste in Europa; in China vindt men dit heel normaal.

05 Verantwoording

Minstens zo belangrijk als de vorige beginselen is dat de werking van een AI-systeem verantwoord moet kunnen worden. De processen van het systeem dienen transparant te zijn en de mogelijkheden en het doel dienen openbaar te zijn. Bovendien moeten de beslissingen die een AI-systeem neemt te verklaren zijn voor wie er de gevolgen van ondervindt. Als je een aanvraag voor een lening doet en die wordt geweigerd door het systeem, heb je recht op een betere verklaring dan “Computer says no”. De computer moet een redenering kunnen geven als: je bent geweigerd omdat je loon te laag is en je in het verleden een lening tijdelijk niet hebt afbetaald. Als je zo’n antwoord krijgt, kun je dit tenminste aanvechten door tegenargumenten te geven.

06 Checklist voor bedrijven

Allemaal goed en wel, maar dat blijven vrij vage ethische richtlijnen. Hoe werk je dat in de praktijk uit? Verrassend genoeg biedt het rapport van de Europese Commissie aan de voorgaande beginselen ook heel praktische richtlijnen in de vorm van een lijst met zeven concrete vereisten waaraan elk AI-systeem zou moeten voldoen. Op basis van feedback is er in juli 2020 een herziene versie van die richtlijnen gepubliceerd: Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment.

Bij elk van deze vereisten worden methodes vermeld die bedrijven kunnen gebruiken om hun AI-systeem aan de vereisten te laten voldoen. Eén van die concrete vereisten is bijvoorbeeld het belang van privacy en ‘data governance’ (gegevenskwaliteitsbeheer). De checklist beklemtoont dat verzamelde persoonsgegevens vertekend, onvolledig, onnauwkeurig, of fout kunnen zijn. Dit moet verholpen worden vóórdat het systeem met deze gegevens getraind wordt. Bovendien moet elke stap - zoals het plannen, trainen, testen en installeren - getest en gedocumenteerd worden om de integriteit te waarborgen. En de algoritmes, gegevens en ontwerpprocessen moeten te evalueren zijn door interne en externe controleurs.

Bij de vereisten staat ook dat een AI-systeem zich tegenover een gebruiker niet als mens mag voordoen: het moet altijd als AI-systeem herkenbaar zijn. Bovendien moet een AI-systeem toegankelijk zijn voor iedereen ongeacht, leeftijd, geslacht of beperkingen. Opmerkelijk is ook dat de checklist erop wijst dat de energieconsumptie tijdens het trainen van een AI-systeem geminimaliseerd moet worden. Bedrijven die met AI bezig zijn, kunnen de richtlijnen consulteren of een webtools voor de checklist volgen.

©PXimport

07 Van ethiek naar wetgeving

Ethische richtlijnen zijn nuttig. Maar volgens digitale burgerrrechtenorganisatie Acces Now en consumentenverenigingen ANEC en BEUC (die alle drie een lid in de expertgroep hadden) is dit maar een eerste stap. Zonder bijbehorende wetgeving en controles kunnen we niet verzekeren dat AI-systemen de rechten van gebruikers respecteren. Aan de wetgeving wordt al gewerkt (zie het kader ‘Europese regelgeving rond AI’), maar zal die gehandhaafd kunnen worden?

Access Now signaleert ook dat de Europese Commissie in de expertgroep voornamelijk vertegenwoordigers uit het bedrijfsleven heeft geplaatst, en dat de richtlijnen daardoor niet voldoende de mens centraal stellen. De organisatie stelt ook voor om de uitdagingen rond AI meer in termen van mensenrechten te bespreken, zoals ze in 2018 hebben gedaan in hun publicatie ‘Human rights in the age of artificial intelligence’.

08 Wie is er verantwoordelijk?

Iets anders waar het rapport van de Europese Commissie aan voorbijgaat, is het probleem van verantwoordelijkheid. Als een zelfrijdende auto door een fout een dodelijk ongeval veroorzaakt, wie is dan de schuldige? De auto? Maar apparaten zijn geen levende wezens, dus daar kunnen we geen verantwoordelijkheid aan toekennen.

De producent dan? Op zich verschilt een AI-systeem zoals een zelfrijdende auto niet zoveel van elk ander product. Als een klassieke auto door een fout plots tijdens een manoeuvre blokkeert en daardoor een ongeval veroorzaakt, zal de producent verantwoordelijk gesteld worden. Zo ook bij een zelfrijdende auto.

Europese regelgeving rond AI

De ethische richtlijnen voor betrouwbare AI die de ‘High-Level Expert Group on AI’ van de Europese Commissie in 2019 publiceerde waren slechts een eerste stap. In april heeft de expertgroep ook een voorstel gedaan voor een geharmoniseerde Europese regelgeving. De huidige wetgeving geeft immers onvoldoende garanties over het betrouwbaar inzetten van AI met respect voor mensenrechten. De nieuwe voorgestelde regelgeving wil vooral de transparantie van AI-systemen verhogen en de risico’s voor de veiligheid en fundamentele rechten minimaliseren. Daarbij ligt de focus op het gebruik van AI in toepassingen met hoge risico’s, zoals in rekrutering, bij het bepalen van de kredietwaardigheid en bij gerechtelijke besluitvorming. Aan deze systemen zullen specifieke vereisten worden opgelegd, zoals het gebruik van datasets van hoge kwaliteit en menselijke controle.

09 Complexe oorzaken

Maar het is veel complexer dan dat: een zelfrijdend systeem bestaat uit zoveel subsystemen van zoveel andere bedrijven, en is getraind op zoveel data uit allerlei bronnen, dat het heel moeilijk te bepalen is wat precies de fout veroorzaakt heeft. Misschien ligt de fout wel in een verkeerde training door een werknemer die op een vrijdagavond vroeger naar huis wilde, waardoor de auto de situatie verkeerd ingeschat heeft. Of misschien kwam de auto in een situatie waarin er gewoon geen juiste oplossing was (zie het kader ‘Het trolleyprobleem’).

Stellen we dan degene die de keuze in een algoritme gegoten heeft verantwoordelijk voor elke dode die uit die keuze voortvloeit? En die complexiteit leidt weer tot andere problemen. Elon Musk heeft aangegeven dat Tesla de verantwoordelijkheid aanvaardt in het geval van een ongeval, op voorwaarde dat de software een fout gemaakt heeft. En hoe bepaal je dat? Door de auto tijdens het rijden continu alle mogelijke gegevens te laten verzamelen en naar Tesla te sturen. We kopen de verantwoordelijkheid van de producent dus af met onze privacy.

10 Te veel vertrouwen in AI

Producenten van AI-systemen stellen de capaciteiten altijd mooier voor dan ze zijn. Daardoor hebben politici, overheidsdiensten maar ook wij allemaal te veel vertrouwen in AI, terwijl veel systemen nog helemaal niet zo goed werken dat we ze in de plaats van menselijke experts zouden kunnen gebruiken. Je kunt je schouder ophalen met de boodschap dat het allemaal wel zal verbeteren, maar ondertussen wordt AI wel in heel wat domeinen toegepast of overwogen waar het juist tot extra risico’s leidt. Het ‘Berkman Klein Center for Internet & Society’ van de Universiteit van Harvard publiceerde in 2018 een overzicht van de risico’s in het rapport ‘Artificial Intelligence & Human Rights: Opportunities & Risks’.

Het trolleyprobleem

Een klassiek gedachtenexperiment in de ethiek is het trolleyprobleem: een op hol geslagen tram staat op het punt vijf op het spoor vastgebonden personen dood te rijden, maar je kunt aan een hendel trekken om de tram van spoor te doen veranderen, waarna die een enkele vastgebonden persoon doodrijdt. Zou jij aan de hendel trekken? Door de handeling maak je jezelf immers medeplichtig aan de dood van die ene persoon. Het gedachtenexperiment, dat overigens niet zonder kritiek is, wordt ook vaak gebruikt in ethische dilemma’s op het gebied van zelfrijdende auto’s. Als een auto een botsing niet kan vermijden, kiest die dan voor een botsing met vijf inzittenden of met een enkele inzittende? Of kiest de auto er zelfs voor om zijn eigen inzittenden op te offeren en tegen een boom te crashen in plaats van tegen een andere auto? Onderzoekers van het MIT hebben op hun website Moral Machine een boel van deze scenario’s met een zelfrijdende auto voorgesteld waar ze bezoekers vragen om een verscheurende keuze te maken.

©PXimport

11 Mensenrechten onder druk

Het rapport gaat met zes domeinen in op de impact van AI op mensenrechten. Opvallend is dat er maar een domein is waarin de auteurs de positieve impact groter zien dan de negatieve impact: diagnostiek in de gezondheidszorg. In het strafrecht, de financiële sector, onderwijs, online content moderation en human resources weegt momenteel de negatieve impact door of is de impact nog onduidelijk.

De problemen zijn afhankelijk van het domein, maar hetzelfde komt vaak terug: het systeem beoordeelt iemand nog te vaak fout en er is geen enkel verweer tegen doordat de beslissing niet transparant genomen wordt. Omdat de gebruikers (politiemensen, rechters, hr-personen, bankiers) blindelings vertrouwen in de technologie waarmee ze mensen beoordelen, zijn ze niet geneigd om de bezwaren van de slachtoffers serieus te nemen. Het is nu eenmaal gemakkelijk om de verantwoordelijkheid voor een moeilijke beslissing naar een computer door te schuiven.

12 Dichter bij huis

Dit is geen ver-van-mijn-bedshow. In Nederland koppelde de overheid van 2014 tot 2020 persoonsgegevens van burgers uit verschillende databases aan elkaar om risicoprofielen op te stellen. Het systeem heette SyRI (Systeem Risico Indicatie) en was ondanks grote bezwaren van het toenmalige College Bescherming Persoonsgegevens en de Raad van State ingevoerd, zonder enige vorm van inzicht in wat er met de gegevens van burgers gebeurt.

De gemeenten, het UWV, de Sociale Verzekeringsbank, de Inspectie SZW en de Belastingdienst konden allemaal van SyRI gebruikmaken als ze bijvoorbeeld fraude met uitkeringen, toeslagen of belastingen vermoedden. Het systeem ging dan aan het rekenen en bepaalde zo welke adressen een verhoogd risico op fraude hadden. Dat kon niet zomaar: er was een hele procedure. Een gemeente kon bijvoorbeeld toestemming vragen om een specifieke wijk te onderzoeken.

In de vijf jaar dat het systeem actief was, hebben vijf gemeenten dat gedaan, maar uit onderzoek van de Volkskrant bleek dat bij geen van die algoritmische onderzoeken een fraudegeval ontdekt werd. Gegevens waren vaak niet meer actueel of verkeerd ingevuld, of er was te weinig personeel. SyRI was bovendien helemaal niet transparant: bewoners van ‘zwakkere’ wijken kwamen onder een vergrootglas te liggen terwijl ze helemaal niet wisten welke privacygevoelige gegevens over hen gebruikt werden. Door het groeiende protest over de gang van zaken besloot Rotterdam om het fraudeonderzoek met SyRI stop te zetten. In het begin van 2020 oordeelde de rechtbank dat de wetgeving die de inzet van SyRI regelde in strijd was met artikel 8 van het Verdrag voor de Rechten voor de Mens, dat het recht op respect voor het privéleven beschermt.

AI voor iedereen

Ondertussen profiteren bedrijven zoals Google, Facebook en Amazon van de grote hoeveelheden gegevens waarover ze beschikken om krachtige AI-toepassingen te trainen, die zelden in het voordeel van gebruikers zijn. Als je de website Google AI zou bezoeken, zou je niet geloven dat dit hetzelfde bedrijf is dat 80% van het webverkeer traceert met cookies of trackers. Als we even voorbijgaan aan de privacy-inbreuken van Google, bevat de website van Google AI een interessante houding tegenover AI. Google wil met AI naar eigen zeggen technologieën ontwikkelen die belangrijke problemen oplossen en mensen in hun dagelijks leven helpen.

©PXimport

De mens centraal

Het bedrijf somt zelfs enkele principes op die het volgt in zijn keuze om specifieke AI-toepassingen al dan niet te ontwikkelen. Zo mag een AI-technologie volgens Google geen vooroordelen creëren of versterken, moet ze verantwoording kunnen geven en moet ze de maatschappij van voordeel zijn. Google heeft zelfs een People + AI Guidebook gepubliceerd voor wie zelf een AI-systeem ontwikkelt en daarbij wil weten hoe dit het best de mens centraal stelt. Hoe mooi al deze principes en richtlijnen ook zien, Google krijgt veel kritiek van onderzoekers omdat het zelf deze richtlijnen vaak overtreedt.

15 Energieslokoppen

AI heeft nog een ander probleem: technieken zoals deep learning vragen enorm veel rekenkracht. Bij deep learning wordt een neuraal netwerk opgesteld met een groot aantal lagen neuronen tussen invoer en uitvoer. De beste netwerken worden altijd groter. Zo had GPT-2 van OpenAI in 2019 ‘slechts’ 1,5 miljard parameters nodig, terwijl de opvolger GPT-3 vorig jaar maar liefst 175 miljard parameters vereiste. Ook de rekenkracht die nodig was om beide modellen te trainen nam sterk toe: GPT-2 vereiste enkele tientallen petaflopdagen, terwijl dat bij GPT-3 al meerdere duizenden petaflopdagen bedroeg. Honderd keer zoveel rekenkracht, en dus energieverbruik, op een jaar tijd.

Energieverbruik betekent meestal ook een CO₂-voetafdruk. In 2019 publiceerden computerwetenschappers van de University of Massachusetts de studie ‘Energy and Policy Considerations for Deep Learning in NLP’. Daarin schatten ze dat het productieklaar maken van een enkel neuraal netwerk even veel CO₂ uitstoot als vijf auto’s tijdens hun hele levensduur. En in 2020 schatten studenten van de universiteit van Kopenhagen dat het trainen van GPT-3 een even grote CO₂-voetafdruk heeft als 700.000 km rijden met een nieuwe auto. Ze ontwikkelden een tool, carbontracker om het energieverbruik en de CO₂-voetafdruk van het trainen van een deeplearningmodel te schatten.

©PXimport

16 Inzicht in de CO₂-voetafdruk

In hun publicatie ‘Quantifying the Carbon Emissions of Machine Learning’ hebben onderzoekers van Element AI en het instituut Mila in Montréal de factoren blootgelegd die een impact hebben op de CO₂-voetafdruk van het trainen van een deeplearningmodel. Op basis hiervan hebben ze de Machine Learning Emissions Calculator ontwikkeld. Je vult hier in bij welke cloudprovider en in welke regio je het model traint, om welk hardwaretype het gaat en hoeveel uren het trainen in totaal duurde.

Je krijgt dan niet alleen de CO₂-uitstoot te zien, maar ook suggesties om die te verbeteren, bijvoorbeeld het model in een andere regio trainen of naar een andere cloudprovider overstappen. Daar zijn grote verschillen tussen. Zo draait het Google Cloud Platform voor een groter deel op hernieuwbare energie dan Amazon Web Services. Bedrijven die de impact van hun AI-toepassingen op het milieu willen beperken, kunnen op deze manier de juiste keuzes maken.

©PXimport

17 Steeds minder verbetering

Het gigantische energieverbruik van de steeds groter wordende AI-modellen is vaak ook gewoon niet meer te verantwoorden. Want de modellen worden wel beter, maar het energieverbruik groeit sterker dan de verbetering van de prestaties. Dat is al jaren zo. Het computervisiemodel ResNeXt uit 2017 verbruikte bijvoorbeeld 35% meer energie bij het trainen dan de voorganger ResNet uit 2015, maar was slechts 0,5% nauwkeuriger.

Als AI-onderzoekers op dezelfde manier blijven doorgaan, zullen ze dus grotere en grotere modellen maken die steeds meer energie vragen, en dat om steeds kleiner wordende verbeteringen te realiseren. Een van de redenen waarom deze verspilling blijft gebeuren, is omdat veel AI-onderzoekers geobsedeerd zijn om met hun algoritme op de eerste plaats te raken in een van de vele gepubliceerde benchmarks. Het levert de onderzoekers faam op, zelfs al is hun algoritme maar een fractie van een procent beter dan de nummer twee.

18 Intelligenter dan domme berekeningen

AI-onderzoekers zouden dus beter ook naar de energiekosten kijken, en wetenschappelijke artikels en onderzoeksvoorstellen zouden hierop ook beoordeeld moeten worden. Maar het is ook duidelijk dat de huidige aanpak van steeds maar grotere modellen niet meer vol te houden is. We hebben vooral nieuwe fundamentele inzichten in AI nodig. Zodat we AI-algoritmes kunnen ontwikkelen die niet alleen intelligenter zijn dan brute rekenkracht, maar ook niet zoveel kostbare energie verspillen. Zo komt ons menselijke brein toe met een gemiddeld energieverbruik van nog geen 20 watt!

▼ Volgende artikel
Docker op je NAS: zo draai je Plex, Home Assistant en meer
© Andrii - stock.adobe.com
Huis

Docker op je NAS: zo draai je Plex, Home Assistant en meer

Een NAS is voor de meeste gebruikers veel meer dan een netwerkschijf. Je kunt er eenvoudig extra toepassingen op draaien, bijvoorbeeld voor extra back-upmogelijkheden, productiviteit, multimedia en thuisautomatisering. Daarvoor is het vaak ook krachtig genoeg. Toepassingen kunnen bovendien bestanden op je NAS benutten. De makkelijkste manier om toepassingen te installeren en beheren is via Docker. We laten zien hoe je hiermee werkt op een NAS van Synology of QNAP.

In dit artikel

Je leest hoe Docker op een NAS werkt en waar je op moet letten bij Synology en QNAP. Je ziet hoe je images binnenhaalt, containers opzet en opslag goed regelt met bind mounts en volumes, zodat configuratie en data netjes op je NAS blijven staan. Ook leggen we uit hoe poortkoppelingen werken, wanneer Docker Compose handiger is dan losse containers en hoe je met Portainer het beheer overzichtelijker maakt.

Lees ook: Bouw je eigen dashboard met Homepage: al je webapplicaties overzichtelijk op één plek

Je hebt meestal geen zware server nodig voor toepassingen als Plex, Jellyfin, SABnzbd of Home Assistant. Een NAS is meestal krachtig genoeg. Soms is hooguit wat extra geheugen wenselijk. Zo heb je behalve je opslag ook al je toepassingen centraal. Mis je softwareopties op je NAS, bijvoorbeeld voor back-up of synchronisatie, dan is dat óók eenvoudig op te lossen met extra software. Maar hoe installeer je zulke toepassingen? Soms kun je een pakket installeren, bijvoorbeeld van SynoCommunity. Maar je moet dan precies de juiste variant vinden en er kunnen afhankelijkheden zijn, zoals php of Apache. Met Docker ben je veel flexibeler. Toepassingen zijn niet meer afhankelijk van de inrichting van je NAS en worden bovendien sneller bijgewerkt. Maar hoe werk je hier in de praktijk mee op een NAS? In dit artikel laten we dat zien. We beginnen met algemene uitleg over het werken met Docker op een NAS. Daarna behandelen we het downloaden van images en het maken en configureren van containers. We richten ons daarbij voornamelijk op Synology en QNAP. Heb je een NAS van een ander merk, dan zul je merken dat veel principes hetzelfde zijn. Bij het merk Ugreen lijkt de software bovendien sterk op die van Synology.

Containers of virtuele machines

Bij Docker draait een toepassing in een lichte en geïsoleerde container. De image, het uitgangspunt van een container, bevat alles wat de toepassing nodig heeft. Gegevens worden buiten de container opgeslagen, bijvoorbeeld in een gedeelde map op de NAS zelf. Een update is eenvoudig: je herbouwt gewoon de container op basis van een nieuwe image. Er zijn ook alternatieven, zowel bij QNAP als Synology. Zo kun je met virtuele machines werken, via Virtual Machine Manager (Synology) of Virtualization Station (QNAP). Maar in zo'n virtuele machine moet je een heel besturingssysteem installeren. Daar is een NAS niet altijd krachtig genoeg voor. Iets praktischer zijn de lichtgewicht Linux-containers die je bij QNAP kunt opzetten, maar dat vraagt meer technische kennis. Gevorderde gebruikers kunnen daarnaast bij QNAP vaak Kubernetes inzetten voor containerbeheer. Dat biedt veel mogelijkheden voor schaalbare omgevingen, maar is voor de meeste thuistoepassingen onnodig complex. Om snel een toepassing op je NAS te installeren, is Docker vrijwel ongeslagen.

Wat heb je nodig?

Niet alle modellen van Synology en QNAP ondersteunen Docker. Synology vereist een model met x86-cpu van Intel of AMD. Bij ARM-modellen kun je het soms via een omweg installeren, maar dat is niet officieel en ook niet zonder risico's. Verder hangt het van het model af. Vooral de Plus-series (zoals de DS224+ en DS923+) en hogere modellen ondersteunen Docker. Je kunt het eenvoudig controleren door in Synology Package Center te zoeken naar Container Manager (DSM 7.2 of hoger) of (als je een oudere DSM-versie hebt) naar Docker. Bij QNAP is de toepassing, onder de naam Container Station, beschikbaar via App Center. Het is geschikt voor de meeste niet al te oude modellen. Zowel bij Synology als QNAP is 2 GB werkgeheugen aanbevolen, maar we raden minimaal 4 GB RAM aan. Voor dit artikel gebruiken we een wat oudere Synology DS918+ en QNAP TS-453Be. Beide komen nog goed mee en beschikken over recente software.

Container Manager kun je vinden in Synology Package Center.

Opslag bij Docker

Belangrijke gegevens zoals configuratiebestanden, databases en cachebestanden worden in principe buiten een container bewaard. Dat kan op twee manieren. Normaal zal Docker voor de paden in de container die persistent moeten zijn een anoniem volume gebruiken. Dat krijgt een lange hash als naam. Je kunt ook zelf een naam toewijzen. We noemen dat dan een named volume. Die kun je makkelijker herkennen of hergebruiken in andere containers. De tweede optie is een zogeheten bind mount. Je koppelt dan de persistente paden in de container aan mappen op de host (het systeem waarop Docker draait), zoals je NAS. Zeker bij een NAS van Synology is dat het meest praktisch. Synology verbergt in de webinterface namelijk volumes, ook al zijn ze er wel! Bij een bind mount zie je de bestanden altijd netjes in de gedeelde mappen, zodat jij ze zelf kunt raadplegen of back-uppen.

QNAP maakt volumes met opslag voor een container wél zichtbaar.

Opslag bij een NAS

Voor het organiseren van je bestanden op een NAS gebruik je standaard al gedeelde mappen. Ga je met Docker werken, dan zul je óók zo'n map gebruiken voor de opslag voor je containers. Synology maakt die map standaard onder /docker. Bij QNAP is dat (meestal) /Container. Stel dat je WordPress wilt installeren. Het persistente pad in de container is in dit geval /var/www/html. Daar worden alle websitebestanden opgeslagen. Bij Synology zul je dan een map zoals /docker/wordpress maken die je bij de configuratie koppelt aan het container-pad /var/www/html. Er kunnen ook meerdere paden zijn. SearXNG gebruikt in de container bijvoorbeeld /etc/searxng voor de configuratie (zoals settings.yml) en /var/cache/searxng voor data en cachebestanden. Beide kun je dan koppelen met de NAS, bijvoorbeeld onder /docker/searxng/config en /docker/searxng/cache. Gebruik eventueel de bestandsbeheerder (zoals File Station) om de mappen vooraf aan te maken of aangemaakte bestanden te bekijken!

Het is handiger om gegevens van containers in een gedeelde map te bewaren.
Bestanden op je NAS gebruiken

Het mooie van Docker op een NAS is dat je een container toegang kunt geven tot bestanden op die NAS, zoals foto's, video's, documenten en back-ups. Je koppelt daarvoor gewoon de gewenste gedeelde mappen of submappen. Op die manier kun je bijvoorbeeld de muziekspeler NaviDrome direct toegang tot de muziek op de NAS geven. De muziek kun je daarna netjes georganiseerd bekijken en afspelen via de vlotte webinterface. Het werkt ook samen met verschillende bekende apps. Ook bijvoorbeeld voor video's zijn goede toepassingen beschikbaar, zoals Plex en Jellyfin. Of probeer eens een toepassing als Immich of Photoprism voor je fotobibliotheek.

Met NaviDrome kun je heel handig de muziek op je NAS beluisteren.

Werken met poorten

Containers gebruiken vaak één of meerdere poorten voor bijvoorbeeld een webinterface. Een voorbeeld is de webserver nginx met http-poort 80. Bij de configuratie koppel je die interne poort 80 aan een poort op de host en daarmee je lokale netwerk. Je kunt soms hetzelfde poortnummer (in dit voorbeeld 80) kiezen, maar dat hoeft niet. In dit geval is dat ook af te raden. Liever gebruik je een hogere, vrije poort. Let goed op de bezette poorten van de NAS zelf. Dat zijn er vaak best veel. Een voorbeeld is de veelgebruikte poort 8080 die QNAP voor de webinterface gebruikt. Bij Synology zie je een overzicht van gebruikte poorten in Configuratiescherm / Infocenter op het tabje Service. Bij QNAP ga je naar Systeem / Systeemstatus / Systeemdiensten. Een blok als 6000-6999 is bij beide merken een goede optie. Heb je een container gestart, dan moet je deze vaak even de tijd geven om te starten voordat je de webinterface kunt benaderen via de ingestelde poort.

Je maakt een koppeling tussen poorten op de host en poorten in de container.

Docker Compose

Bij een NAS kun je een container relatief makkelijk via een wizard starten. Maar de details die je opgeeft, zoals poorten en volumes, kun je naderhand niet aanpassen. Wil je iets veranderen, dan zul je een nieuwe container moeten maken met de juiste instellingen. Bij zowel Synology als QNAP kun je ook werken met Docker Compose. Bij Synology heet dit een project, QNAP noemt het een toepassing. Je kunt dan de instellingen voor één of meerdere containers beheren in één yaml-bestand, meestal met de naam docker-compose.yml. Een groot voordeel is dat je dan eenvoudiger achteraf de configuratie kunt aanpassen. Het werken met meerdere containers is bovendien veel overzichtelijker. Je groepeert ze samen in één bestand, ook wel 'stack' genoemd. En je kunt alle containers in één handeling starten, stoppen of verwijderen. Bij problemen zul je overigens wel nog steeds de individuele containers moeten inspecteren (zie kader 'Problemen oplossen').

Via een wizard kies je vooraf de gewenste instellingen voor een container.
Problemen oplossen

Heb je een probleem met een container? Open dan het overzicht met containers. Klik vervolgens op de naam van de container. De logboeken die je hier kunt bekijken, geven vaak goede aanwijzingen voor problemen. Ook als je met Docker Compose werkt, zul je bij problemen de individuele containers moeten inspecteren. Soms is het ook weleens handig om opnieuw te beginnen. Stop daarvoor eerst de relevante containers, verwijder de volumes én bestanden die in de gekozen gedeelde mappen zijn gemaakt en start je project opnieuw.

Synology: Docker installeren

Docker is meestal niet standaard geïnstalleerd. Je logt eerst in bij DSM, het besturingssysteem van je NAS. Vervolgens installeer je de toepassing via

Package Center. De toepassing heet Container Manager (sinds DSM 7.2) of (bij een eerdere versie) Docker. Bij de installatie wordt gevraagd om een brugnetwerk te configureren. Dat is het netwerk waarop containers intern communiceren. Je hoeft dit subnet (172.17.0.0/16) niet te veranderen, tenzij dit conflicteert met jouw eigen netwerk (wat heel zeldzaam is).

Installeer de toepassing via de downloadtool van je NAS.

Synology: images downloaden

Om een container met een bepaalde toepassing te starten, heb je een image nodig. Open daarvoor Container Manager en ga naar Register. Hier kun je images op naam opzoeken. Dubbelklik dan op een image om deze te downloaden. Vaak zul je de officiële of populairste optie kiezen. De images van LinuxServer.io zijn ook altijd goed. Omdat ze dezelfde opbouw en documentatie volgen, zijn ze herkenbaar en makkelijk te gebruiken. Je kunt bij het downloaden een tag kiezen. Vaak kies je latest voor de laatste stabiele versie. Alle images die je hebt gedownload, vind je terug onder Image. Als er updates zijn, kun je die daar ook downloaden. Je containers blijven overigens draaien op de versie waarmee ze zijn gemaakt. Pas als je een nieuwe container start, wordt de nieuwe image gebruikt.

Je kunt direct binnen Container Manager de gewenste images downloaden.

Synology: container maken

We gaan als voorbeeld een container voor SearXNG maken, een privacyvriendelijke zoekmachine die live resultaten bij andere zoekmachines ophaalt. Ga hiervoor naar Container en kies Maken. We gebruiken de image searxng/searxng. Bij het maken van de container hoef je bij Algemene instellingen niet veel te veranderen. Wel handig is de optie Automatisch opnieuw starten inschakelen, voor hogere beschikbaarheid. Op het tweede scherm, bij Geavanceerde instellingen, zie je onder het kopje Poortinstellingen dat deze toepassing in de container poort 8080 gebruikt. Bij Lokale poort kies je de lokale poort (op de host), zoals 8080 (of iets anders, als deze al in gebruik is). Na het maken van de container kun je de zoekmachine bereiken via de gekozen lokale poort, zoals http://ip-NAS:8080. Onder het kopje Volume-instellingen maak je zoals eerder toegelicht een bind mount. Koppel /docker/searxng/config met /etc/searxng en koppel /docker/searxng/cache met /var/cache/searxng. Via het venster kun je naar de map op de NAS bladeren om deze aan te wijzen (en eventueel ook aan te maken).

We maken koppelingen tussen gedeelde mappen en volumes in de container.

Synology: lokale bestanden gebruiken

Een van de voordelen is dat toepassingen bestanden op de NAS kunnen gebruiken. We noemden NaviDrome al, een populaire muziekspeler. Bij het maken van deze container koppel je poort 4533 aan de lokale poort, zoals 4533. Bij de volumes moet je opletten. NaviDrome gebruikt /data voor gegevensopslag en /music voor muziek. Koppel bij Volume-instellingen daarom bijvoorbeeld /docker/navidrome/data aan /data. Staat je muziek op de NAS onder /music/albums, dan koppel je precies die map aan /music in de container. Kies hier eventueel voor alleen leestoegang, omdat deze toepassing geen bestanden hoeft te wijzigen. Na het starten van de container zul je het programma even de tijd moeten geven om alle muziek te indexeren.

We geven NaviDrome toegang tot muziek op de NAS.

Synology: project maken

Wil je bij Synology met Docker Compose werken dan ga je naar Project en kies je Maken. Je kunt bij Bron kiezen om zelf een docker-compose.yml te uploaden, maar ook een nieuw bestand maken. Dat laatste heeft meestal de voorkeur. Je kunt de configuratie dan in het venster plakken en meteen nog wat persoonlijke aanpassingen maken. We nemen WordPress als voorbeeld dat twee containers heeft: één voor WordPress zelf en één voor een database (zoals MySQL of MariaDB). Je zet ze samen in één project en beheert ze daarna als geheel, in plaats van als twee losse containers. Bij Naam van project vullen we in wordpress (alleen kleine letters). Bij Pad kiezen we een gedeelde map op de NAS, zoals /docker/wordpress. Bij Bron kiezen we voor het maken van een docker-compose.yml. Hieronder zie je het voorbeeld voor de officiële image voor WordPress, waar we wat aanpassingen in gaan maken voor de NAS:

services:

  wordpress:

    image: wordpress

    restart: always

    ports:

      - 8080:80

    environment:

      WORDPRESS_DB_HOST: db

      WORDPRESS_DB_USER: exampleuser

      WORDPRESS_DB_PASSWORD: examplepass

      WORDPRESS_DB_NAME: exampledb

    volumes:

      - wordpress:/var/www/html

  db:

    image: mysql:8.0

    restart: always

    environment:

      MYSQL_DATABASE: exampledb

      MYSQL_USER: exampleuser

      MYSQL_PASSWORD: examplepass

      MYSQL_RANDOM_ROOT_PASSWORD: '1'

    volumes:

      - db:/var/lib/mysql

volumes:

  wordpress:

  db:

Begin met het maken van een nieuw project.

Synology: configuratie aanpassen

Hoewel de configuratie werkt, zijn enkele aanpassingen wel wenselijk. In het voorbeeld worden twee named volumes gebruikt, terwijl bind mounts handiger zijn, zeker bij Synology. Daarom halen we de onderste drie regels weg. We maken op de NAS de mappen /docker/wordpress/db en /docker/wordpress/html aan. Ten slotte passen we het volume aan voor de twee containers. Voor WordPress wordt dit als volgt:

- /volume1/docker/wordpress/html:/var/www/html

Voor de database passen we het aan naar:

- /volume1/docker/wordpress/db:/var/lib/mysql

Controleer op jouw NAS of de volumenaam volume1 klopt. Kies ook een betere gebruikersnaam en een sterker wachtwoord voor de database. Let wel op: wat je bij WORDPRESS_DB_USER en WORDPRESS_DB_PASSWORD invult, moet hetzelfde zijn als bij MYSQL_USER en MYSQL_PASSWORD. MySQL maakt met die toegangsgegevens de database, terwijl WordPress ze gebruikt om daar toegang toe te krijgen.

Je kunt de configuratie via een YAML-bestand aanpassen.

Nieuwe NAS? Kijk en vergelijk op Kieskeurig.nl

QNAP: Docker installeren

Om Docker te installeren op je NAS van QNAP log je eerst in bij het besturingssysteem QTS. Daarna installeer je de toepassing via App Center. Je vindt het onder de naam Container Station. De installatie wijst zichzelf. Als je de toepassing de eerste keer start, wordt gevraagd waar je gegevens van containers op wilt slaan. Je kunt de standaardmap /Container accepteren.

Installeer de toepassing via de downloadtool van je NAS.

QNAP: image zoeken en gebruiken

Voor het zoeken van een image open je Container Station en klik je op Verkennen. Hier kun je images op naam opzoeken. Voor Docker gebruik je de resultaten van Docker Hub, de centrale verzamelplek voor Docker-images. Kies bij de gewenste image de optie Implementeer. Je kunt dan een tag kiezen (zoals latest). Vervolgens kun je direct de container configureren. Dit behandelen we in de volgende stap. Voor een overzicht van alle gedownloade images kun je naar Installatiekopieën. Wij installeren ook in dit voorbeeld een container voor SearXNG.

Gebruik voor Docker de resultaten van Docker Hub.

QNAP: container configureren

Bij de configuratie van de container kan de optie Standaardpoort voor web-URL wat verwarrend zijn. In feite maakt Container Station op basis van die poort een klikbare link die je in de webinterface ziet om de container te openen in je browser. Je kunt het dus zien als een soort shortcut. Je moet daaronder dus nog steeds de benodigde poorten openstellen. In dit voorbeeld vul je dus achter Host een poortnummer in, zoals 8000 (8080 is bij QNAP bezet!). Verander de poort bij Container (8080) niet. Vul bij Standaardpoort voor web-URL ook 8000 in, zodat de shortcut ook werkt.

Om andere opties in te kunnen stellen, zoals opslag, klik je op Uitgebreide instellingen.

Let bij de configuratie van de container vooral op de lokale poort.

QNAP: opslag configureren

SearXNG heeft in de container de persistente paden /etc/searxng en /var/cache/searxng. Bij QNAP kun je prima met (anonieme of named) volumes werken. In dit voorbeeld zullen we dat doen voor de wegwerpbare cachebestanden. Voor de configuratiebestanden maken we via File Station vooraf een map aan onder /Container/searxng/config. Achter Volume vullen we nu de naam searxngcache in, in het deel waar bij Container het pad /var/cache/searxng staat. Hier wordt dan een named volume voor gemaakt. We verwijderen de andere optie (met het pad /etc/searxng). Via het pijltje achter Voeg volume toe kiezen we Gekoppelde hostlocatie binden. Blader dan achter Host naar de zojuist gemaakte map (/Container/searxng/config). Achter Container vul je het pad /etc/searxng in. SearXNG zal zijn configuratie nu in de gekozen map bewaren en de cache in een named volume. Rond het maken van de container af. Die zal daarna worden gestart. Onder Volumes zie je alle volumes die zijn gemaakt, zoals searxngcache. Merk op dat In gebruik hier betekent dat het volume is gekoppeld aan een container, en dus niets over de status van de container zegt! Je kunt ongebruikte volumes eventueel verwijderen.

We gebruiken een named volume voor cache en een bind mount voor de configuratie.

QNAP: toepassingen

QNAP ondersteunt het werken met Docker Compose. Hiervoor ga je naar Toepassing en kies je Maken. Bij Naam van de toepassing vul je een herkenbare naam in. Daaronder kun je de yaml-code invullen. Voor SearXNG, ingesteld zoals hiervoor met een bind mount voor de configuratiebestanden en een named volume voor cache, vul je het in zoals hieronder. Let op het absolute pad /share/Container/searxng/config. Dat is hoe je naar die map moet verwijzen. De code is als volgt:

services:

  searxng:

    image: searxng/searxng

    container_name: searxng

    restart: unless-stopped

    ports:

      - "8000:8080"

    volumes:

      - /share/Container/searxng/config:/etc/searxng

      - searxngcache:/var/cache/searxng

volumes:

  searxngcache:

Het maken van eventuele aanpassingen is niet heel intuïtief. Je gaat hiervoor naar Toepassingen en klikt achter de toepassing op het instellingenicoontje. Kies dan de optie Opnieuw maken. Je kunt nu de yaml-code bewerken. Na het maken van de aanpassingen zal een nieuwe container worden opgebouwd met deze nieuwe configuratie.

QNAP ondersteunt ook het werken met Docker Compose.
Beheer containers op je NAS met Portainer

Het kan om meerdere redenen praktisch zijn om Portainer te installeren op je NAS, een grafische webinterface voor het beheer van je containers. Het is wat overzichtelijker en er blijft, zeker in vergelijking met Container Manager van Synology, minder verborgen. Je kunt Portainer gewoon via Docker installeren. Het is handig eerst een map te maken voor Portainer, waar het zijn configuratie persistent kan bewaren. Maak dan een project in Container Manager met de onderstaande configuratie:

services:

  portainer:

    image: portainer/portainer-ce:latest

    container_name: portainer

    restart: always

    ports:

      - "9443:9443"   # HTTPS toegang

      - "9000:9000"   # (optioneel, oudere HTTP-poort)

    volumes:

      - /var/run/docker.sock:/var/run/docker.sock

      - /volume1/docker/portainer:/data

Bij QNAP kun je dezelfde configuratie gebruiken, maar vervang dan /volume1/docker/portainer:/data door /share/Container/portainer:/data. Na het starten zie je op https://ip-NAS:9443 (of http://ip-NAS:9000) de webinterface van Portainer. De eerste keer wordt gevraagd om een wachtwoord aan te maken. Portainer heeft (ook) een kleine leercurve, maar het geeft je veel opties, en werkt op elk systeem hetzelfde.

Je kunt nu in Portainer alles rondom Docker beheren, zoals containers en images.
▼ Volgende artikel
Liebherr IRd 3900: waarom dit de favoriete inbouwkoelkast van 2025 is
Huis

Liebherr IRd 3900: waarom dit de favoriete inbouwkoelkast van 2025 is

Wat maakt een koelkast de allerbeste van het jaar? Niet een glanzende folder vol beloftes, maar de dagelijkse ervaringen van echte gebruikers. De Liebherr IRd 3900 is door consumenten van Kieskeurig.nl bekroond met de prestigieuze Best Reviewed van het Jaar-award 2025. Van de slimme EasyFresh-technologie tot het fluisterstille ontwerp en de praktische indeling: lees waarom dit model als de absolute favoriet uit de bus kwam en waarom gebruikers er zo enthousiast over zijn.

Partnerbijdrage - in samenwerking met Liebherr

Wie een inbouwkoelkast zoekt, heeft enorm veel keuze, maar één model wist het afgelopen jaar de harten van de Nederlandse consument echt te veroveren. Met zijn doordachte design, gebruiksvriendelijke bediening en bewezen betrouwbaarheid is de Liebherr IRd 3900 uitgeroepen tot Best Reviewed van het Jaar 2025. In dit artikel lees je wat deze inbouwkoelkast zo bijzonder maakt – en waarom gebruikers er zo lovend over zijn.

De stem van de consument: Best Reviewed 2025

De beste keuze volgens consumenten – dat is waar het bij Best Reviewed 2025 om draait. Want niets zegt zo veel als de ervaring van andere gebruikers. Jaarlijks delen duizenden consumenten hun eerlijke mening op Kieskeurig.nl. Hun reviews vormen de basis voor de Best Reviewed-awards. De producten die deze titel verdienen, hebben zich een heel jaar lang bewezen in de praktijk: ze blinken uit in kwaliteit, gebruiksgemak en klanttevredenheid. Absolute consumentenfavorieten dus – en in de categorie inbouwkoelkasten is de Liebherr IRd 3900 de winnaar geworden.

Van EasyFresh tot verstelbare indeling

De Liebherr IRd 3900 is een inbouwkoelkast die laat zien waarom het Duitse merk al jaren bekendstaat om betrouwbaarheid en technische vernieuwing. Deze koelkast combineert een strak, tijdloos design met praktische functies die het dagelijks leven makkelijker maken. Dankzij het EasyFresh-systeem blijven groenten en fruit langer vers: de ideale luchtvochtigheid in de lade voorkomt uitdroging en zorgt dat smaak en textuur behouden blijven. Dat maakt het apparaat niet alleen zuinig in gebruik, maar helpt ook voedsel langer goed te houden en verspilling te beperken.

©Liebherr

Wie de deur opent, merkt direct de doordachte indeling. Het interieur en de deurvakken zijn over de volledige hoogte verstelbaar, zodat je er moeiteloos alles in kwijt kunt wat koel moet blijven: of dat nu hoge flessen zijn of een brede ovenschotel. Fijn daarbij is dat de glazen draagplateaus tot wel 30 kg kunnen dragen. Daarbij zorgt de heldere LED-plafondverlichting voor een perfect overzicht, zelfs wanneer de koelkast vol is. De bediening verloopt via een intuïtief Touch-display, waarmee je supersnel de temperatuur of functies kunt aanpassen. Bovendien is de IRd 3900 voorbereid op SmartHome-toepassingen (accessoire). Liebherr biedt, na registratie, maar liefst 10 jaar garantie op dit model – dat doe je als merk natuurlijk alleen maar wanneer je helemaal overtuigd bent van je product.

©Liebherr

Waarom gebruikers enthousiast zijn

Die combinatie van slimme technologie en gebruiksgemak is ook precies wat consumenten zo waarderen. Uit tientallen reviews op Kieskeurig.nl blijkt dat gebruikers de IRd 3900 een uitzonderlijk hoge gemiddelde score van 9,1 geven. De koelkast wordt geroemd om zijn stille werking – "Dan zet je hem aan en hoor je nagenoeg niets! Heerlijk stille koelkast!" – en om de praktische indeling die volgens velen "fijn en flexibel" is. Ook wat betreft dagelijks gemak scoort de IRd 3900 hoog. "Door het digitale display makkelijk in te stellen naar de gewenste koeltemperatuur", zegt een van de reviewers. Een ander voegt daar nog aan toe: "Mooie heldere verlichting … Makkelijke display, goed zichtbaar en makkelijk te bedienen." Daarnaast valt op dat veel reviewers de energiezuinigheid en afwerking noemen als pluspunten: het apparaat voelt degelijk aan en doet precies wat het belooft.

©Liebherr

Een optelsom van kwaliteiten

De reden dat de Liebherr IRd 3900 de titel Best Reviewed van het Jaar 2025 heeft gewonnen, ligt dus in de optelsom van al deze kwaliteiten. Hij combineert gedegen techniek met praktische voordelen die in het dagelijks leven écht verschil maken. Of het nu gaat om de versheid van producten, het handige display of het overzichtelijke interieur: deze inbouwkoelkast weet consumenten te overtuigen in alles wat ertoe doet. En dat maakt de Liebherr IRd 3900 niet alleen een technisch sterk product, maar vooral een betrouwbare huisgenoot waar mensen jarenlang plezier van hebben.

Een eerlijk oordeel

Natuurlijk is geen enkel product perfect. Gebruikers op Kieskeurig.nl zijn ook kritisch: sommige kopers vinden de groente- en fruitlade aan de kleine kant of noemen dat er sneller condens kan ontstaan. Een paar mensen geven ook aan dat je even moet wennen aan het instellen via het display, en dat de montage van de deur wat meer aandacht vraagt. Tegelijk zie je waarom dat voor de meeste kopers geen struikelblok is. Ze benadrukken vooral hoe stil de koelkast is, hoe ruim hij aanvoelt en hoe makkelijk je de indeling aanpast aan wat je in huis haalt. Daardoor wegen die minpunten voor veel mensen niet op tegen wat je dagelijks merkt: rust in de keuken, goed overzicht en een indeling die je naar eigen wens kunt aanpassen.

Ontdek alle pluspunten van de Liebherr IRd 3900

Op Kieskeurig.nl