ID.nl logo
Alles over kunstmatige intelligentie in processors
© PXimport
Huis

Alles over kunstmatige intelligentie in processors

Meer en meer apparaten gebruiken gespecialiseerde chips voor kunstmatige intelligentie. Zo heeft de Google Pixel 6 een AI-chip en is de iPhone al jaren voorzien van een Neural Engine. Wat is er zo speciaal aan deze chips en welke taken kunnen ze versnellen?

Standaardprocessors zijn ontworpen om zo snel mogelijk instructies na elkaar uit te voeren. Die race naar steeds snellere kloksnelheden heeft al een tijdje moeten plaatsmaken voor parallellisatie: hierbij voeren meerdere processorkernen op hetzelfde moment instructies uit. Maar de meeste software maakt daarvan geen efficiënt gebruik. Je tekstverwerker haalt niet zoveel voordeel uit acht gelijktijdig werkende processorkernen.

Deep learning

Maar er zijn heel wat gespecialiseerde toepassingen die wel profiteren van verregaande parallellisatie. Vooral in AI (kunstmatige intelligentie) en dan in het bijzonder deep learning, een vorm van neurale netwerken. Deze algoritmen profiteren ervan om dezelfde instructies op grote hoeveelheden verschillende data tegelijk uit te voeren. Dat vereist een heel ander soort processor.

Neurale netwerken bootsen de werking van de hersenen na, die een biologisch neuraal netwerk vormen: een kluwen van ontzettend veel verbindingen tussen neuronen (hersencellen). Een kunstmatig neuraal netwerk bestaat meestal uit meerdere lagen: een invoerlaag van neuronen die de invoer van een probleem voorstellen (bijvoorbeeld een foto), een uitvoerlaag van neuronen die de oplossing van het probleem voorstellen (bijvoorbeeld de naam van de persoon op de foto), en een of meer tussenliggende lagen die berekeningen uitvoeren. Bij een groot aantal lagen tussen en uitvoer spreken we van deep learning.

©PXimport

Tensors

De data in deep learning worden opgeslagen in de vorm van tensors. Een tensor is een veralgemening van een vector of matrix naar meerdere dimensies. We kunnen een tensor beschrijven aan de hand van drie primaire eigenschappen: de rang, de vorm en het datatype. De rang van een tensor is het aantal assen. Zo is de rang van een matrix 2, van een vector 1 en van een getal 0.

De vorm van een tensor is het aantal elementen volgens elke as van de tensor. Stel dat je een tensor van rang 2 aanmaakt met op de eerste rij de getallen 1 en 2, op de tweede rij de getallen 3 en 4, en op de derde rij de getallen 5 en 6. Dan is de vorm van deze tensor de vector (en dus ook een tensor, namelijk van rang 1) [3, 2]. De tensor heeft namelijk drie rijen van 2 elementen.

Het datatype van een tensor beschrijft welke getallen de tensor bevat. Dat kan bijvoorbeeld float32 zijn (kommagetallen van 32 bit), of int8 (gehele getallen van 8 bit).

©PXimport

Machine learning met tensors

Voor elke taak waarvoor je een neuraal netwerk wilt trainen, moet je dus de data omzetten in tensors. Een afbeelding waarin je objecten wilt herkennen, zet je dan om in een tensor van rang 3: de vorm is dan [hoogte, breedte, kanalen], waarbij kanalen voor de kleurkanalen zoals rood, groen en blauw staat.

Vaak verwerken algoritmen in machine learning maar een deel van de data tegelijk. In ons voorbeeld van objectherkenning worden dan meerdere afbeeldingen in een batch onderverdeeld. We werken dan met een tensor van rang 4 met als vorm [samples, hoogte, breedte, kanalen]: de eerste as bevat het aantal samples in een batch.

Deep learning met GPU’s

Toen deep learning rond 2010 na jarenlange ontwikkeling eindelijk doorbrak, was dat vooral door de opkomst van snelle GPU’s (graphical processing units). Onderzoekers ontdekten dat de chips die in grafische kaarten zitten om sneller beelden te renderen, ook uitstekend uitgerust waren voor deep learning, in het bijzonder bij volledig verbonden neurale netwerken.

Computerwetenschapper Andrew Ng bepaalde dat deep learning-systemen met een factor 100 versneld konden worden door gebruik van GPU’s. Niet langer had men weken nodig om algoritmen voor handschriftherkenning of objectdetectie te trainen, maar slechts dagen.

Een GPU bestaat dan ook gemakkelijk uit duizenden processorkernen. Bovendien maakt een GPU gebruik van het SIMD-paradigma (zie kader ‘SIMD’): dezelfde bewerking wordt op duizenden stukjes data tegelijk uitgevoerd. Dat is ideaal voor deep learning, wat een heleboel tensorbewerkingen nodig heeft op grote hoeveelheden data.

Grafische kaart voor AI

In het begin werden voor AI-taken gewoon grafische kaarten voor consumenten gebruikt. Ondertussen produceert Nvidia ook GPU’s, ontwikkelbordjes en volledige servers die specifiek zijn ontworpen voor deep learning. Dat alles doet het bedrijf onder de naam Jetson. De prijzen van de Jetson Developer Kits beginnen bij 75 euro.

De prestaties van deze GPU’s variëren van 472 gigaflops (472 miljard floating-point-bewerkingen per seconde) op de 128-core Nvidia Maxwell-GPU in de Jetson Nano tot 200 tops (200 biljoen bewerkingen per seconde) op de 2048-core Nvidia Ampere-GPU met 64 tensor-cores (te vergelijken met de tensor processing units van Google, zie verder) in de later dit jaar verwachte Jetson AGX Orin. Wat al deze GPU’s gemeen hebben, is dat ze met Nvidia’s toolkit CUDA (Compute Unified Device Architecture) te programmeren zijn.

©PXimport

SIMD

Computerwetenschapper Michael J. Flynn stelde in 1966 een invloedrijke classificatie op van computerarchitecturen volgens hun parallellisme. Deze werkt op basis van twee parameters: het aantal instructies dat tegelijk wordt uitgevoerd en het aantal datastromen dat tegelijk wordt verwerkt.

Een computer zonder parallellisme, zoals de pc vóór de komst van multicore-processors, valt onder single instruction, single data (SISD). Een GPU die dezelfde instructie op meerdere data tegelijk uitvoert, valt onder single instruction, multiple data (SIMD). Maar ook moderne processors ondersteunen gedeeltelijk SIMD-instructies, zoals Advanced Vector Extensions (AVX) op Intel- en AMD-processors, de Neon-extensie op ARM-processors en AltiVec op PowerPC.

Multiple instruction, single data is nogal ongewoon. De boordcomputer van de Space Shuttle gebruikt deze aanpak voor foutentolerantie. Multiple instruction, multiple data is de architectuur voor alle vormen van gedistribueerde systemen.

Overigens zijn moderne GPU’s geen perfecte implementatie van SIMD meer, maar eerder van single instruction, multiple threads (SIMT): je voert meerdere threads uit die elk SIMD toepassen.

Tensor processing unit

Hoewel GPU’s al een hele prestatiewinst bieden ten opzichte van CPU’s voor deep learning, kunnen de prestaties nog met zeker een factor 10 verbeteren door application-specific integrated circuits (ASIC) te gebruiken. Die chips hoeven immers geen rekening te houden met de GPU-architectuur en zijn speciaal ontworpen voor berekeningen met lagere precisie. Door berekeningen bij benadering uit te voeren, in plaats van exact tot op zoveel cijfers na de komma, gaan ze veel sneller. Die precisie is immers in veel toepassingen met neurale netwerken niet nodig.

Google ontwikkelde in 2015 zijn tensor processing unit (TPU), een ASIC voor machine learning. De TPU’s zijn ontworpen om met een laag verbruik zoveel mogelijk berekeningen uit te voeren met een lage precisie (doorgaans 8 bit). Specifiek voor convolutional neural networks zijn TPU’s heel geschikt.

TPU’s in de cloud

Het bedrijf zette de TPU’s eerst in zijn eigen datacenters in, en dat blijft het ook nu nog doen. Zo verwerken TPU’s foto’s van Google Photos, tekst van Google Street View en worden de chips ook gebruikt in het zoekalgoritme RankBrain. Google Translate, Google Assistant, Gmail, al deze diensten draaien op TPU’s.

Sinds 2018 biedt Google zijn TPU’s ook aan als onderdeel van het Google Cloud Platform. De dienst heet Cloud TPU. Zo heeft de tweede generatie van de Cloud TPU een snelheid van 45 teraflops. Daarvan worden vier chips op één module geplaatst, met een totale snelheid van 180 teraflops. Google assembleert 64 van die modules tot een ‘pod’ van 256 Cloud TPU-chips met een totale snelheid van 11,5 petaflops.

©PXimport

TPU’s lokaal

In 2019 kwam Google met een nieuwe productlijn TPU’s, de Edge TPU. In tegenstelling tot de Cloud TPU’s zijn deze bedoeld voor edge computing: berekeningen op lokale apparaten. De Edge TPU is in staat om vier biljoen bewerkingen per seconde uit te voeren met een vermogensverbruik van slechts 2 W.

Google biedt zijn Edge TPU-producten aan onder de merknaam Coral. Tot de beschikbare producten behoren ontwikkelbordjes van allerlei afmetingen, M.2-insteekkaartjes en de USB Accelerator die je eenvoudig via usb op je laptop of Raspberry Pi aansluit. De Edge TPU wordt ook aan andere fabrikanten gelicentieerd. Zo biedt Asus zijn ontwikkelbordje Tinker Edge T aan, evenals een PCIe-kaart waarin 8 of 16 Edge TPU-chips zijn geïntegreerd.

De Edge TPU programmeer je met TensorFlow Lite, een lichtgewicht framework voor deep learning. Aangezien de chip alleen 8bit-bewerkingen ondersteunt, moet het neurale netwerk getraind worden zodat het hiermee rekening houdt, of je kwantiseert een netwerk tot 8 bit.

Verder zijn de bewerkingen die de Edge TPU ondersteunt ook beperkt, waardoor de chip voornamelijk nuttig is voor inference, en niet voor het trainen van netwerken. Een voorbeeld van inference is het detecteren van objecten in foto’s. De training van het neurale netwerk dat je daarvoor gebruikt, moet op een ander platform gebeuren.

©PXimport

TPU in je broekzak

In 2019 bracht Google zijn telefoon Pixel 4 uit met een Neural Core. Deze chip was een aangepaste versie van de Edge TPU en hielp met het ontgrendelen via je gezicht, een snellere Google Assistant en een slimmere camera.

In de Pixel 5 verdween de Neural Core vreemd genoeg, maar in de Pixel 6 maakte de Edge TPU een comeback, deze keer ingebouwd in een nieuwe SoC, de Google Tensor. Deze bevat zowel een CPU als een GPU, TPU en nog andere versnellerhardware.

De TPU verbetert de automatische spraakherkenning van Google Assistant en helpt ook het automatische ondertitelingssysteem Live Caption zonder de batterij snel leeg te trekken. En met het neuraal netwerk HDRnet verbetert de TPU beelden met een breed bereik aan helderheden. Door de TPU voor deze taken te gebruiken, hoeft de Pixel 6 minder vaak verbinding te leggen met de Cloud TPU’s van Google zelf. Dat komt de batterijduur ten goede.

Telefoons met AI

Google is niet de enige die gespecialiseerde AI-chips in zijn telefoons steekt. In 2018 introduceerde Samsung zijn Exynos 9820 met een neural processing unit (NPU). De AI-versnellerchip zit onder andere in de Samsung Galaxy S10.

Ook Qualcomm heeft in zijn recente Snapdragon-SoC’s een zogeheten AI Engine ingebouwd. De module die MediaTek in zijn SoC’s heeft ingebouwd, heet een artificial intelligence processing unit (APU). AI is tegenwoordig al zo ingeburgerd in telefoons dat elke serieuze SoC-fabrikant dit inbouwt.

©PXimport

Apple Neural Engine

Ook Apple heeft AI-versnellerhardware. Die dook voor het eerst op in de A11 Bionic-SoC die Apple ontwierp voor de iPhone 8, iPhone 8 Plus en iPhone X van september 2017. Apple noemt deze hardware een Neural Engine. In de A11 bestond die uit twee cores die tot 600 miljard bewerkingen per seconde konden uitvoeren. De versneller werd gebruikt voor Face ID, Animoji en andere taken waarbij intelligentie nodig is.

In de A12 (onder andere gebruikt in de iPhone XR) voerde Apple het aantal cores in de Neural Engine op naar acht, met een snelheid van 5 biljoen bewerkingen per seconde. Niet alleen was dat negen keer sneller, maar de nieuwe versie verbruikte ook tien keer minder vermogen. In de A13 (van de iPhone 11) bleef het aantal kernen op 8 steken. Het resultaat was 20% sneller (6 biljoen bewerkingen per seconde) en 15% zuiniger.

Sneller en ook voor derden

In de A14 (van de iPhone 12) werd het aantal cores van de Neural Engine verdubbeld tot 16, met een snelheid tot 11 biljoen bewerkingen per seconde. In de Apple M1, de eerste door Apple zelf ontworpen ARM-SoC voor Macs, zat zo goed als dezelfde versie van de Neural Engine. In de Apple A15 (van de iPhone 13) werd de snelheid van de 16-core Neural Engine opgevoerd tot 15,8 biljoen bewerkingen per seconde.

Oorspronkelijk was de kracht van de Neural Engine alleen beschikbaar voor apps van Apple zelf. Maar ondertussen kunnen ook third-party app-ontwikkelaars ervan gebruikmaken via het framework Core ML dat Apple aanbiedt voor machine learning. App-ontwikkelaars die zware analysetaken uitvoeren, doen er goed aan om dat via Core ML te doen. Door deze taken op de Neural Engine uit te voeren, werken ze immers energie-efficiënter en blijft de batterij van de iPhone langer meegaan.

©PXimport

Black box

Het is belangrijk om te weten dat een TPU, NPU, Neural Engine of hoe het ook heet altijd is geoptimaliseerd voor een specifiek type bewerkingen. Een neuraal netwerk bestaat altijd uit verschillende lagen en die kunnen van verschillende types zijn. Niet elke AI-versnellerchip ondersteunt alle types. Ook de ondersteunde datatypes hangen af van de hardware: alleen gehele getallen of ook kommagetallen, en 8, 16 of 32 bit?

De bijbehorende ontwikkeltools moeten je normaliter helpen om een neuraal netwerk aan te passen op de versnellerhardware. Maar de Neural Engine en Core ML van Apple zijn een black box. Apple geeft third-party ontwikkelaars geen richtlijnen over hoe ze hun modellen kunnen optimaliseren om in Core ML gebruik te maken van de Neural Engine. Er is zelfs geen documentatie over welke types lagen ondersteund worden door de Neural Engine. Matthijs Hollemans heeft door te experimenteren wel wat bevindingen over de Neural Engine kunnen publiceren.

TensorFlow-modellen 

Bij de Edge TPU ziet het plaatje er al heel wat inzichtelijker uit. Google heeft uitgebreide documentatie over de compatibiliteit van TensorFlow-modellen op de Edge TPU. Allereerst is er de beperking dat de Edge TPU alleen feed-forward neurale netwerken kan uitvoeren. Hierbij vormen de verbindingen tussen neuronen geen cyclus, maar vloeit de informatie maar in één richting. Dit in tegenstelling tot de recurrent neural networks, waarvoor CPU’s overigens nog altijd goed geschikt zijn. De tweede beperking is dat de Edge TPU alleen TensorFlow Lite-modellen met 8bit-voorstellingen van data kan uitvoeren.

Je traint een model nooit rechtstreeks met TensorFlow Lite. Je traint eerst een TensorFlow-model, dat werkt met floating-point getallen van 32 bit. Dit zet je dan met de TensorFlow Lite Converter om naar een TensorFlow Lite-model met 8bit-getallen en compileer je tot een .tflite-bestand dat je op de Edge TPU kunt uitvoeren.

©PXimport

Deels op de CPU

Zelfs als je een model voor de Edge TPU hebt gemaakt dat intern gekwantiseerd is tot 8bit-getallen, zijn de invoertensors mogelijk nog 32bit-kommagetallen. De Edge TPU-compiler heeft dan een kwantisatiebewerking in het begin van je model toegevoegd. Ook aan het einde van je model komt dan een bewerking die de 8bit-uitvoer weer omzet naar 32 bit. Beide bewerkingen worden op de CPU uitgevoerd. Dat hoeft niet zo’n probleem te zijn en levert doorgaans maar een kleine vertraging op.

Als de Edge TPU Compiler een niet-ondersteunde bewerking tegenkomt, compileert hij de bewerkingen vóór die bewerking voor de Edge TPU. Alle bewerkingen daarna worden dan op de CPU uitgevoerd. De compiler vertelt je ook hoeveel bewerkingen hij op de Edge TPU kan uitvoeren en voor hoeveel hij de CPU nodig heeft. Zelfs als maar een kleine fractie van de bewerkingen op de CPU wordt uitgevoerd, kan dat een grote impact op de prestaties hebben. Je moet er altijd naar streven om 100% van het model op de Edge TPU te kunnen draaien.

Coprocessors

Het idee van een AI-versneller, al dan niet ingebouwd in een SoC, is niet zo nieuw. Al in de jaren 1980 werden processors uitgerust met zogenoemde coprocessors om specifieke taken sneller uit te voeren. Zo hadden Intels eerste x86-CPU’s bijbehorende x87-FPU’s (floating-point units): de 8086 kreeg hulp van de 8087 voor berekeningen met kommagetallen, de 80286 van de 80287 en de 80386 van de 80387. De 80486 was de eerste in de reeks met een ingebouwde FPU.

©PXimport

▼ Volgende artikel
Hoe betrouwbaar zijn weer- en regenapps eigenlijk?
© Kaspars Grinvalds
Huis

Hoe betrouwbaar zijn weer- en regenapps eigenlijk?

Wel of niet een terrasje pakken? Jas mee of hoeft dat niet? Vanavond de BBQ aan of toch maar binnen de airfryer? Even snel de weerapp checken is inmiddels een automatisme geworden. Vooral in de zomer bekijken we massaal de regenradar. Maar hoe betrouwbaar zijn die voorspellingen eigenlijk? Waarom kloppen ze soms tot op de minuut, en lijken ze op andere momenten nergens op? En kun je erop vertrouwen als je je planning erop afstemt?

☀️⛅☔ In dit artikel lees je:

• Hoe weerapps aan hun data komen • Waarom voorspellingen soms wel, en soms niet kloppen • Hoe je een weerapp zo goed mogelijk interpreteert • Waarom het weer (vooral lokaal!) toch altijd blijft verrassen

Lees ook: De handigste apps voor een onvergetelijke zomer

Van meting tot melding: hoe een app aan zijn data komt

Weerapps maken geen eigen voorspellingen, maar gebruiken data van meteorologische instituten zoals het KNMI, ECMWF (European Centre for Medium-Range Weather Forecasts) of het Amerikaanse NOAA (National Oceanic and Atmospheric Administration). Die instellingen verwerken gigantische hoeveelheden informatie uit weerstations, satellieten, vliegtuigen, weerballonnen en radars. Op basis daarvan draaien ze computermodellen die het weer proberen te voorspellen. Zo'n model analyseert bijvoorbeeld hoe luchtdruksystemen zich bewegen, hoe windrichtingen veranderen en wat de temperatuurverschillen zijn in verschillende lagen van de atmosfeer.

Een weerapp kiest één of meer van die modellen als basis en combineert dat met eigen algoritmes en visualisaties. De bekende buienradars gaan nog een stap verder en laten regen zien die al is gevallen of onderweg is. Daarvoor gebruiken ze gegevens van neerslagradars, die elk kwartier of zelfs elke vijf minuten een nieuwe 'foto' maken van waar regenbuien zich bevinden en hoe die zich verplaatsen.

Waarom voorspellingen wél en soms juist níet kloppen

In grote lijnen zijn de verwachtingen van weerapps vaak behoorlijk accuraat, zeker als het om de eerstkomende uren gaat. Hoe dichter je bij het moment zit, hoe betrouwbaarder de voorspelling. Dat komt omdat het weer zich op korte termijn minder grillig gedraagt dan op langere termijn. Je kunt een bui redelijk goed volgen over een tijdsbestek van een uur of twee, maar het is veel lastiger om drie dagen vooruit exact te zeggen wanneer en waar die bui valt.

Vooral bij regenval in de zomer zit daar vaak de grootste afwijking. Zomerse buien ontstaan door opwarming van de lucht en ontwikkelen zich snel en lokaal. Op het ene moment lijkt er nog niets aan de hand, en tien minuten later valt er een wolkbreuk in één wijk, terwijl een paar straten verderop de stoep droog blijft. Dat maakt het haast onmogelijk om op straatniveau precies te voorspellen waar het gaat regenen.

Daarnaast hangt veel af van welk weermodel de app gebruikt. Het Europese ECMWF-model wordt wereldwijd gezien als zeer nauwkeurig, maar is ook duur om te gebruiken. Sommige apps kiezen daarom voor Amerikaanse modellen of zelfs simpelere versies om kosten te besparen. Dat maakt de ene app betrouwbaarder dan de andere, ook al lijken ze qua uiterlijk op elkaar.

©ID.nl

De weerapp goed interpreteren

Wie slim omgaat met weerapps, kan er veel profijt van hebben. Kijk niet alleen naar het icoontje van een zon of wolk, maar naar de verwachte neerslag in millimeters en het tijdstip daarvan. Bekijk ook de regenradar in beweging en niet als stilstaand beeld: je ziet dan hoe snel een bui zich verplaatst en of je die kunt ontwijken.

Veel apps geven tegenwoordig ook aan hoe 'zeker' een voorspelling is. Staat er bijvoorbeeld 40% kans op regen? Dan betekent dat: op 4 van de 10 vergelijkbare dagen in het verleden viel er daadwerkelijk neerslag. Het is geen gokje, maar een inschatting op basis van modelberekeningen. En hoe hoger dat percentage, hoe groter de kans dat het ook echt nat wordt.

Waarom het weer (vooral lokaal!) blijft verrassen

Ondanks alle technologie blijft het weer een natuurverschijnsel met een eigen wil. Geen enkel model is feilloos. Kleine veranderingen in luchtdruk of windrichting kunnen grote gevolgen hebben, zeker in een land als Nederland waar zee, rivieren en open vlaktes allemaal invloed uitoefenen. Dat verklaart waarom het soms ineens hard begint te regenen terwijl je app nog droog weer beloofde – of andersom.

Toch is de betrouwbaarheid van de meeste apps de afgelopen jaren sterk toegenomen. Snellere computers, betere satellietbeelden en geavanceerdere modellen zorgen ervoor dat de inschattingen steeds dichter bij de werkelijkheid komen. Maar honderd procent garantie biedt geen enkele app, en dat is misschien maar goed ook: want we moeten natuurlijk wel íéts hebben om over te klagen, toch?

Regen én harde wind?

Kijk voor stormparaplu's

▼ Volgende artikel
10 tips om meer uit je robotstofzuiger te halen
© Mustafa_Art
Huis

10 tips om meer uit je robotstofzuiger te halen

Een robotstofzuiger scheelt flink wat werk, maar alleen als je hem goed gebruikt. Wie er net een in huis heeft, merkt al snel dat hij niet alles vanzelf doet. En ook als je al langer een robotstofzuiger gebruikt, valt er vaak nog winst te halen. Met deze tien praktische tips werkt je robotstofzuiger beter – en hoef jij minder te doen!

In het kort

Een robotstofzuiger kan je flink wat werk uit handen nemen, maar alleen als je hem goed gebruikt. Met deze 10 slimme tips werkt hij beter, blijft hij langer mee gaan en past hij zich aan jouw huishouden aan. Van zones instellen tot onderhoud: zo maak je er écht een huishoudhulp van.

Lees ook: Hier moet je op letten wanneer je een robotstofzuiger wilt kopen

1. Laat hem eerst je huis leren kennen

Veel robotstofzuigers kunnen een plattegrond van je woning maken. Dat kost eenmalig wat tijd, maar levert daarna veel gemak op. Tijdens zo'n verkenningsronde reinigt hij meestal nog niet, maar scant hij alleen. Geef hem de ruimte en zorg dat er geen spullen over de vloer slingeren. Als de kaart eenmaal is aangemaakt, kun je zones instellen, schoonmaakschema's maken en no-go-gebieden markeren.

2. Zorg voor voldoende licht

Robotstofzuigers met optische sensoren hebben licht nodig om goed te navigeren. Als je hem 's avonds laat rijden terwijl de lampen uit zijn, herkent hij obstakels minder goed. Plan het schoonmaken liever overdag of laat een lamp aan in de ruimte waar hij aan het werk is. Als het apparaat regelmatig moeite heeft om meubels of muren goed te herkennen, komt dat mogelijk door te weinig licht.

Licht, laser & optische sensoren

De lichtbehoefte van robotstofzuigers verschilt sterk per navigatiesysteem. Modellen met LiDAR-technologie (lasernavigatie) werken uitstekend in het donker omdat ze zelf licht uitstralen om obstakels te detecteren. Camera-gebaseerde robots daarentegen zijn afhankelijk van omgevingslicht om hun omgeving te kunnen 'zien' en hebben problemen in donkere ruimtes. Goedkopere modellen met alleen infrarood- of aanrakingssensoren navigeren weliswaar zonder licht, maar werken veel minder nauwkeurig en rijden vaker tegen obstakels aan.

3. Stel schoonmaakzones en kamers in

In de app van de meeste modellen kun je na de kaartopbouw aangeven welke kamers of delen van het huis wanneer moeten worden schoongemaakt. Dat is handig als je bijvoorbeeld elke ochtend de gang en keuken wilt laten doen, maar de slaapkamers alleen op zaterdag. Door het schoonmaken slim te verdelen, werkt de robotstofzuiger efficiënter en hoeft hij tussendoor minder vaak op te laden.

©Wesley Akkerman | ID.nl

4. Gebruik virtuele afbakeningen waar nodig

Veel modellen bieden de mogelijkheid om virtuele grenzen aan te maken: gebieden waar de robotstofzuiger niet mag komen. Denk aan een speelkleed met speelgoed, een losse kabel achter de bank of een plek waar de vloer nat kan zijn. In plaats van zo'n verboden plek elke keer handmatig af te schermen, door er bijvoorbeeld iets voor te zetten, stel je die zones gewoon één keer digitaal in. Het apparaat houdt daar vanaf dan automatisch rekening mee en weet dat hij daar niet meer mag komen.

5. Dweilen? Wees voorzichtig met schoonmaakmiddelen

Kan jouw robotstofzuiger ook dweilen? Gebruik dan alleen het aanbevolen reinigingsmiddel of gewoon water. Veel gewone schoonmaakmiddelen zijn te sterk of laten resten achter, waardoor leidingen of sproeiers kunnen verstoppen. Sommige robotstofzuigers hebben een speciaal reservoir voor schoonmaakmiddel, maar dat geldt niet voor elk model. Iets om naar te kijken voordat je een robotstofzuiger gaat kopen.

6. Maak borstels, wieltjes en sensoren regelmatig schoon

Haren, stof en vuil hopen zich snel op rond de draaiende onderdelen van de robotzuiger. Vooral huisdierharen kunnen oor problemen zorgen. Maak elke week de hoofdborstel los, controleer de zijborstels en veeg vuil weg met een droge doek of meegeleverd hulpstuk. Vergeet ook de val- en navigatiesensoren niet: die kunnen door stof minder goed functioneren, wat de navigatie beïnvloedt.

©Vershinin Evgenii

7. Leeg het stofreservoir af en toe ook zelf

Veel robotstofzuigers hebben een zelflegende functie. Handig, maar ook dan is het slim om af en toe zelf te controleren of alles goed blijft werken. Het stofreservoir is meestal klein en raakt sneller verstopt dan je denkt. Leeg het na een paar schoonmaakbeurten, zeker als je merkt dat hij minder vuil opzuigt of als hij zelf aangeeft dat het reservoir leeg is, maar je toch nog stof en kruimels op de vloer ziet liggen.

8. Zet het laadstation op een vaste plek

Een robotstofzuiger onthoudt zijn omgeving en zoekt na elke beurt zijn laadstation op. Verplaats je dat station naar een andere plek, dan moet hij opnieuw leren waar hij zich bevindt. Zet het station dus op een centrale, bereikbare plek waar voldoende ruimte is en laat het daar staan. Zo voorkom je dat hij de weg kwijt raakt of fouten maakt bij het navigeren.

9. Pas op bij huisdieren

Een ongelukje van een huisdier kan vervelende gevolgen hebben als de stofzuiger erdoorheen rijdt. Laat hem daarom liever schoonmaken op momenten dat je huisdieren buiten zijn of je zeker weet dat de vloer schoon is. Zo voorkom je niet alleen vieze sporen, maar ook schade aan het apparaat en extra schoonmaakwerk achteraf.

©Надія Коваль - stock.adobe.com

10. Automatiseer waar het kan, maar houd controle

Robotstofzuigers zijn bedoeld om werk uit handen te nemen. Toch blijft het verstandig om regelmatig de app te openen, meldingen te controleren en updates uit te voeren. Soms kun je met een kleine aanpassing – zoals het verplaatsen van een kabel, het instellen van een extra schoonmaakbeurt op vrijdag – het resultaat flink verbeteren.

Robotstofzuiger klaar? Zuigen maar!

Het is simpel: hoe beter je robotstofzuiger weet wat hij moet doen, hoe beter hij zijn werk doet. Met deze tips zorg je ervoor dat dat het geval is. En ja, je moet zelf ook af en toe nog wat doen, zoals het stofreservoir controleren of dierenhaar uit de wieltjes te peuteren, maar dat kost hooguit een paar minuutjes van je tijd. Want je weet nu hoe je ervoor zorgt dat de omstandigheden zo goed mogelijk zijn én hoe je hem 'traint'. En daarmee komt hij dicht in de buurt van je ideale huishoudhulp!


🤖 🧹 Accessoires voor je robotstofzuiger?

Je vindt ze