ID.nl logo
Alles over kunstmatige intelligentie in processors
© Reshift Digital
Huis

Alles over kunstmatige intelligentie in processors

Meer en meer apparaten gebruiken gespecialiseerde chips voor kunstmatige intelligentie. Zo heeft de Google Pixel 6 een AI-chip en is de iPhone al jaren voorzien van een Neural Engine. Wat is er zo speciaal aan deze chips en welke taken kunnen ze versnellen?

Standaardprocessors zijn ontworpen om zo snel mogelijk instructies na elkaar uit te voeren. Die race naar steeds snellere kloksnelheden heeft al een tijdje moeten plaatsmaken voor parallellisatie: hierbij voeren meerdere processorkernen op hetzelfde moment instructies uit. Maar de meeste software maakt daarvan geen efficiënt gebruik. Je tekstverwerker haalt niet zoveel voordeel uit acht gelijktijdig werkende processorkernen.

Deep learning

Maar er zijn heel wat gespecialiseerde toepassingen die wel profiteren van verregaande parallellisatie. Vooral in AI (kunstmatige intelligentie) en dan in het bijzonder deep learning, een vorm van neurale netwerken. Deze algoritmen profiteren ervan om dezelfde instructies op grote hoeveelheden verschillende data tegelijk uit te voeren. Dat vereist een heel ander soort processor.

Neurale netwerken bootsen de werking van de hersenen na, die een biologisch neuraal netwerk vormen: een kluwen van ontzettend veel verbindingen tussen neuronen (hersencellen). Een kunstmatig neuraal netwerk bestaat meestal uit meerdere lagen: een invoerlaag van neuronen die de invoer van een probleem voorstellen (bijvoorbeeld een foto), een uitvoerlaag van neuronen die de oplossing van het probleem voorstellen (bijvoorbeeld de naam van de persoon op de foto), en een of meer tussenliggende lagen die berekeningen uitvoeren. Bij een groot aantal lagen tussen en uitvoer spreken we van deep learning.

©PXimport

Tensors

De data in deep learning worden opgeslagen in de vorm van tensors. Een tensor is een veralgemening van een vector of matrix naar meerdere dimensies. We kunnen een tensor beschrijven aan de hand van drie primaire eigenschappen: de rang, de vorm en het datatype. De rang van een tensor is het aantal assen. Zo is de rang van een matrix 2, van een vector 1 en van een getal 0.

De vorm van een tensor is het aantal elementen volgens elke as van de tensor. Stel dat je een tensor van rang 2 aanmaakt met op de eerste rij de getallen 1 en 2, op de tweede rij de getallen 3 en 4, en op de derde rij de getallen 5 en 6. Dan is de vorm van deze tensor de vector (en dus ook een tensor, namelijk van rang 1) [3, 2]. De tensor heeft namelijk drie rijen van 2 elementen.

Het datatype van een tensor beschrijft welke getallen de tensor bevat. Dat kan bijvoorbeeld float32 zijn (kommagetallen van 32 bit), of int8 (gehele getallen van 8 bit).

©PXimport

Machine learning met tensors

Voor elke taak waarvoor je een neuraal netwerk wilt trainen, moet je dus de data omzetten in tensors. Een afbeelding waarin je objecten wilt herkennen, zet je dan om in een tensor van rang 3: de vorm is dan [hoogte, breedte, kanalen], waarbij kanalen voor de kleurkanalen zoals rood, groen en blauw staat.

Vaak verwerken algoritmen in machine learning maar een deel van de data tegelijk. In ons voorbeeld van objectherkenning worden dan meerdere afbeeldingen in een batch onderverdeeld. We werken dan met een tensor van rang 4 met als vorm [samples, hoogte, breedte, kanalen]: de eerste as bevat het aantal samples in een batch.

Deep learning met GPU’s

Toen deep learning rond 2010 na jarenlange ontwikkeling eindelijk doorbrak, was dat vooral door de opkomst van snelle GPU’s (graphical processing units). Onderzoekers ontdekten dat de chips die in grafische kaarten zitten om sneller beelden te renderen, ook uitstekend uitgerust waren voor deep learning, in het bijzonder bij volledig verbonden neurale netwerken.

Computerwetenschapper Andrew Ng bepaalde dat deep learning-systemen met een factor 100 versneld konden worden door gebruik van GPU’s. Niet langer had men weken nodig om algoritmen voor handschriftherkenning of objectdetectie te trainen, maar slechts dagen.

Een GPU bestaat dan ook gemakkelijk uit duizenden processorkernen. Bovendien maakt een GPU gebruik van het SIMD-paradigma (zie kader ‘SIMD’): dezelfde bewerking wordt op duizenden stukjes data tegelijk uitgevoerd. Dat is ideaal voor deep learning, wat een heleboel tensorbewerkingen nodig heeft op grote hoeveelheden data.

Grafische kaart voor AI

In het begin werden voor AI-taken gewoon grafische kaarten voor consumenten gebruikt. Ondertussen produceert Nvidia ook GPU’s, ontwikkelbordjes en volledige servers die specifiek zijn ontworpen voor deep learning. Dat alles doet het bedrijf onder de naam Jetson. De prijzen van de Jetson Developer Kits beginnen bij 75 euro.

De prestaties van deze GPU’s variëren van 472 gigaflops (472 miljard floating-point-bewerkingen per seconde) op de 128-core Nvidia Maxwell-GPU in de Jetson Nano tot 200 tops (200 biljoen bewerkingen per seconde) op de 2048-core Nvidia Ampere-GPU met 64 tensor-cores (te vergelijken met de tensor processing units van Google, zie verder) in de later dit jaar verwachte Jetson AGX Orin. Wat al deze GPU’s gemeen hebben, is dat ze met Nvidia’s toolkit CUDA (Compute Unified Device Architecture) te programmeren zijn.

©PXimport

SIMD

Computerwetenschapper Michael J. Flynn stelde in 1966 een invloedrijke classificatie op van computerarchitecturen volgens hun parallellisme. Deze werkt op basis van twee parameters: het aantal instructies dat tegelijk wordt uitgevoerd en het aantal datastromen dat tegelijk wordt verwerkt.

Een computer zonder parallellisme, zoals de pc vóór de komst van multicore-processors, valt onder single instruction, single data (SISD). Een GPU die dezelfde instructie op meerdere data tegelijk uitvoert, valt onder single instruction, multiple data (SIMD). Maar ook moderne processors ondersteunen gedeeltelijk SIMD-instructies, zoals Advanced Vector Extensions (AVX) op Intel- en AMD-processors, de Neon-extensie op ARM-processors en AltiVec op PowerPC.

Multiple instruction, single data is nogal ongewoon. De boordcomputer van de Space Shuttle gebruikt deze aanpak voor foutentolerantie. Multiple instruction, multiple data is de architectuur voor alle vormen van gedistribueerde systemen.

Overigens zijn moderne GPU’s geen perfecte implementatie van SIMD meer, maar eerder van single instruction, multiple threads (SIMT): je voert meerdere threads uit die elk SIMD toepassen.

Tensor processing unit

Hoewel GPU’s al een hele prestatiewinst bieden ten opzichte van CPU’s voor deep learning, kunnen de prestaties nog met zeker een factor 10 verbeteren door application-specific integrated circuits (ASIC) te gebruiken. Die chips hoeven immers geen rekening te houden met de GPU-architectuur en zijn speciaal ontworpen voor berekeningen met lagere precisie. Door berekeningen bij benadering uit te voeren, in plaats van exact tot op zoveel cijfers na de komma, gaan ze veel sneller. Die precisie is immers in veel toepassingen met neurale netwerken niet nodig.

Google ontwikkelde in 2015 zijn tensor processing unit (TPU), een ASIC voor machine learning. De TPU’s zijn ontworpen om met een laag verbruik zoveel mogelijk berekeningen uit te voeren met een lage precisie (doorgaans 8 bit). Specifiek voor convolutional neural networks zijn TPU’s heel geschikt.

TPU’s in de cloud

Het bedrijf zette de TPU’s eerst in zijn eigen datacenters in, en dat blijft het ook nu nog doen. Zo verwerken TPU’s foto’s van Google Photos, tekst van Google Street View en worden de chips ook gebruikt in het zoekalgoritme RankBrain. Google Translate, Google Assistant, Gmail, al deze diensten draaien op TPU’s.

Sinds 2018 biedt Google zijn TPU’s ook aan als onderdeel van het Google Cloud Platform. De dienst heet Cloud TPU. Zo heeft de tweede generatie van de Cloud TPU een snelheid van 45 teraflops. Daarvan worden vier chips op één module geplaatst, met een totale snelheid van 180 teraflops. Google assembleert 64 van die modules tot een ‘pod’ van 256 Cloud TPU-chips met een totale snelheid van 11,5 petaflops.

©PXimport

TPU’s lokaal

In 2019 kwam Google met een nieuwe productlijn TPU’s, de Edge TPU. In tegenstelling tot de Cloud TPU’s zijn deze bedoeld voor edge computing: berekeningen op lokale apparaten. De Edge TPU is in staat om vier biljoen bewerkingen per seconde uit te voeren met een vermogensverbruik van slechts 2 W.

Google biedt zijn Edge TPU-producten aan onder de merknaam Coral. Tot de beschikbare producten behoren ontwikkelbordjes van allerlei afmetingen, M.2-insteekkaartjes en de USB Accelerator die je eenvoudig via usb op je laptop of Raspberry Pi aansluit. De Edge TPU wordt ook aan andere fabrikanten gelicentieerd. Zo biedt Asus zijn ontwikkelbordje Tinker Edge T aan, evenals een PCIe-kaart waarin 8 of 16 Edge TPU-chips zijn geïntegreerd.

De Edge TPU programmeer je met TensorFlow Lite, een lichtgewicht framework voor deep learning. Aangezien de chip alleen 8bit-bewerkingen ondersteunt, moet het neurale netwerk getraind worden zodat het hiermee rekening houdt, of je kwantiseert een netwerk tot 8 bit.

Verder zijn de bewerkingen die de Edge TPU ondersteunt ook beperkt, waardoor de chip voornamelijk nuttig is voor inference, en niet voor het trainen van netwerken. Een voorbeeld van inference is het detecteren van objecten in foto’s. De training van het neurale netwerk dat je daarvoor gebruikt, moet op een ander platform gebeuren.

©PXimport

TPU in je broekzak

In 2019 bracht Google zijn telefoon Pixel 4 uit met een Neural Core. Deze chip was een aangepaste versie van de Edge TPU en hielp met het ontgrendelen via je gezicht, een snellere Google Assistant en een slimmere camera.

In de Pixel 5 verdween de Neural Core vreemd genoeg, maar in de Pixel 6 maakte de Edge TPU een comeback, deze keer ingebouwd in een nieuwe SoC, de Google Tensor. Deze bevat zowel een CPU als een GPU, TPU en nog andere versnellerhardware.

De TPU verbetert de automatische spraakherkenning van Google Assistant en helpt ook het automatische ondertitelingssysteem Live Caption zonder de batterij snel leeg te trekken. En met het neuraal netwerk HDRnet verbetert de TPU beelden met een breed bereik aan helderheden. Door de TPU voor deze taken te gebruiken, hoeft de Pixel 6 minder vaak verbinding te leggen met de Cloud TPU’s van Google zelf. Dat komt de batterijduur ten goede.

Telefoons met AI

Google is niet de enige die gespecialiseerde AI-chips in zijn telefoons steekt. In 2018 introduceerde Samsung zijn Exynos 9820 met een neural processing unit (NPU). De AI-versnellerchip zit onder andere in de Samsung Galaxy S10.

Ook Qualcomm heeft in zijn recente Snapdragon-SoC’s een zogeheten AI Engine ingebouwd. De module die MediaTek in zijn SoC’s heeft ingebouwd, heet een artificial intelligence processing unit (APU). AI is tegenwoordig al zo ingeburgerd in telefoons dat elke serieuze SoC-fabrikant dit inbouwt.

©PXimport

Apple Neural Engine

Ook Apple heeft AI-versnellerhardware. Die dook voor het eerst op in de A11 Bionic-SoC die Apple ontwierp voor de iPhone 8, iPhone 8 Plus en iPhone X van september 2017. Apple noemt deze hardware een Neural Engine. In de A11 bestond die uit twee cores die tot 600 miljard bewerkingen per seconde konden uitvoeren. De versneller werd gebruikt voor Face ID, Animoji en andere taken waarbij intelligentie nodig is.

In de A12 (onder andere gebruikt in de iPhone XR) voerde Apple het aantal cores in de Neural Engine op naar acht, met een snelheid van 5 biljoen bewerkingen per seconde. Niet alleen was dat negen keer sneller, maar de nieuwe versie verbruikte ook tien keer minder vermogen. In de A13 (van de iPhone 11) bleef het aantal kernen op 8 steken. Het resultaat was 20% sneller (6 biljoen bewerkingen per seconde) en 15% zuiniger.

Sneller en ook voor derden

In de A14 (van de iPhone 12) werd het aantal cores van de Neural Engine verdubbeld tot 16, met een snelheid tot 11 biljoen bewerkingen per seconde. In de Apple M1, de eerste door Apple zelf ontworpen ARM-SoC voor Macs, zat zo goed als dezelfde versie van de Neural Engine. In de Apple A15 (van de iPhone 13) werd de snelheid van de 16-core Neural Engine opgevoerd tot 15,8 biljoen bewerkingen per seconde.

Oorspronkelijk was de kracht van de Neural Engine alleen beschikbaar voor apps van Apple zelf. Maar ondertussen kunnen ook third-party app-ontwikkelaars ervan gebruikmaken via het framework Core ML dat Apple aanbiedt voor machine learning. App-ontwikkelaars die zware analysetaken uitvoeren, doen er goed aan om dat via Core ML te doen. Door deze taken op de Neural Engine uit te voeren, werken ze immers energie-efficiënter en blijft de batterij van de iPhone langer meegaan.

©PXimport

Black box

Het is belangrijk om te weten dat een TPU, NPU, Neural Engine of hoe het ook heet altijd is geoptimaliseerd voor een specifiek type bewerkingen. Een neuraal netwerk bestaat altijd uit verschillende lagen en die kunnen van verschillende types zijn. Niet elke AI-versnellerchip ondersteunt alle types. Ook de ondersteunde datatypes hangen af van de hardware: alleen gehele getallen of ook kommagetallen, en 8, 16 of 32 bit?

De bijbehorende ontwikkeltools moeten je normaliter helpen om een neuraal netwerk aan te passen op de versnellerhardware. Maar de Neural Engine en Core ML van Apple zijn een black box. Apple geeft third-party ontwikkelaars geen richtlijnen over hoe ze hun modellen kunnen optimaliseren om in Core ML gebruik te maken van de Neural Engine. Er is zelfs geen documentatie over welke types lagen ondersteund worden door de Neural Engine. Matthijs Hollemans heeft door te experimenteren wel wat bevindingen over de Neural Engine kunnen publiceren.

TensorFlow-modellen 

Bij de Edge TPU ziet het plaatje er al heel wat inzichtelijker uit. Google heeft uitgebreide documentatie over de compatibiliteit van TensorFlow-modellen op de Edge TPU. Allereerst is er de beperking dat de Edge TPU alleen feed-forward neurale netwerken kan uitvoeren. Hierbij vormen de verbindingen tussen neuronen geen cyclus, maar vloeit de informatie maar in één richting. Dit in tegenstelling tot de recurrent neural networks, waarvoor CPU’s overigens nog altijd goed geschikt zijn. De tweede beperking is dat de Edge TPU alleen TensorFlow Lite-modellen met 8bit-voorstellingen van data kan uitvoeren.

Je traint een model nooit rechtstreeks met TensorFlow Lite. Je traint eerst een TensorFlow-model, dat werkt met floating-point getallen van 32 bit. Dit zet je dan met de TensorFlow Lite Converter om naar een TensorFlow Lite-model met 8bit-getallen en compileer je tot een .tflite-bestand dat je op de Edge TPU kunt uitvoeren.

©PXimport

Deels op de CPU

Zelfs als je een model voor de Edge TPU hebt gemaakt dat intern gekwantiseerd is tot 8bit-getallen, zijn de invoertensors mogelijk nog 32bit-kommagetallen. De Edge TPU-compiler heeft dan een kwantisatiebewerking in het begin van je model toegevoegd. Ook aan het einde van je model komt dan een bewerking die de 8bit-uitvoer weer omzet naar 32 bit. Beide bewerkingen worden op de CPU uitgevoerd. Dat hoeft niet zo’n probleem te zijn en levert doorgaans maar een kleine vertraging op.

Als de Edge TPU Compiler een niet-ondersteunde bewerking tegenkomt, compileert hij de bewerkingen vóór die bewerking voor de Edge TPU. Alle bewerkingen daarna worden dan op de CPU uitgevoerd. De compiler vertelt je ook hoeveel bewerkingen hij op de Edge TPU kan uitvoeren en voor hoeveel hij de CPU nodig heeft. Zelfs als maar een kleine fractie van de bewerkingen op de CPU wordt uitgevoerd, kan dat een grote impact op de prestaties hebben. Je moet er altijd naar streven om 100% van het model op de Edge TPU te kunnen draaien.

Coprocessors

Het idee van een AI-versneller, al dan niet ingebouwd in een SoC, is niet zo nieuw. Al in de jaren 1980 werden processors uitgerust met zogenoemde coprocessors om specifieke taken sneller uit te voeren. Zo hadden Intels eerste x86-CPU’s bijbehorende x87-FPU’s (floating-point units): de 8086 kreeg hulp van de 8087 voor berekeningen met kommagetallen, de 80286 van de 80287 en de 80386 van de 80387. De 80486 was de eerste in de reeks met een ingebouwde FPU.

©PXimport

▼ Volgende artikel
Waar voor je geld: 5 elektrische kachels voor extra bijverwarming
© ID.nl
Energie

Waar voor je geld: 5 elektrische kachels voor extra bijverwarming

Bij ID.nl zijn we gek op producten waar je niet de hoofdprijs voor betaalt of je van extra gemakken voorzien. Nu de meteorologische hefst is begonnen en de temperaturen verder dalen is het tijd om te kijken of je je huis beter kunt verwarmen. Met een extra elektrisch kacheltje bijvoorbeeld.

In de koudere maanden van het jaar kan het soms heerlijk zijn om een extra warmtebron in huis te hebben. Bijverwarming is dan een uitkomst. Of je nu een koude hoek in de woonkamer wilt opwarmen, je thuiskantoor wilt verwarmen zonder de thermostaat in de hele woning omhoog te zetten, of gewoon snel wat extra warmte wilt creëren; er is een grote verscheidenheid aan elektrische kachels beschikbaar. Wij vonden vijf verschillende soorten bijverwarming, van keramische ventilatorkachels tot infrarood panelen om de ruimtes in je huis snel te verwarmen.

De'Longhi TCH8993ER.BC

Met een vermogen van 2400 watt kan deze keramische torenkachel van De'Longhi snel een grote ruimte verwarmen. Deze kachel is bovendien uitgerust met een Eco-Energy functie, die ervoor zorgt dat hij de gewenste temperatuur bereikt met zo min mogelijk energieverbruik. Dit is niet alleen goed voor je portemonnee, maar ook voor het milieu. De kachel heeft ook een handige afstandsbediening, zodat je vanuit je luie stoel de instellingen kunt aanpassen. Verder beschikt dit model over een tip-over-beveiliging, een geruststellende gedachte als je huisdieren of kleine kinderen hebt. De kachel schakelt zichzelf automatisch uit als hij per ongeluk omvalt. Door de keramische technologie wordt de lucht niet uitgedroogd en verbranden er geen stofdeeltjes, wat zorgt voor een schonere en aangenamere warmte.

Wattage: 2400W
Type verwarming: Keramische torenkachel
Beveiligingsopties: Omvallen en oververhitting

Inventum KC222WOS Ceramic Fan Heater

De Inventum KC222WOS is een compact model. Deze keramische kachel heeft niet alleen twee warmtestanden (1200 en 2000 watt), maar ook een handige oscillatiefunctie. Met de 60° draaibeweging wordt de warme lucht gelijkmatig over een groter gebied verspreid, waardoor je minder last hebt van koude plekken in de ruimte. Verder is de temperatuur traploos instelbaar, wat de kachel zeer flexibel in gebruik maakt. Ook dit apparaat is voorzien van belangrijke veiligheidsfuncties zoals omvalbeveiliging en oververhittingsbeveiliging. Dit betekent dat de kachel automatisch uitschakelt bij te hoge temperaturen of als hij per ongeluk omvalt. De geïntegreerde handgreep en het lichte gewicht maken het eenvoudig om de kachel van de ene naar de andere kamer te verplaatsen.

Wattage: 1200W en 2000W
Type verwarming: Keramische ventilator
Beveiligingsopties: Omvallen en oververhitting

Princess 348254 Slimme infrarood paneelverwarming

Een heel andere manier van verwarmen vind je bij deze Princess 348254. In tegenstelling tot convectorkachels die de lucht verwarmen, richten infrarood panelen zich op het direct verwarmen van mensen en objecten in de kamer. De warmte is direct voelbaar en bovendien droogt de lucht niet uit. Dit model is ook nog eens 'slim'. Met de bijbehorende app kun je de kachel namelijk overal bedienen, of je nu op de bank zit of onderweg bent. Zo kun je de kachel aanzetten voordat je thuiskomt, zodat je in een heerlijk warme kamer binnenstapt. Het paneel is met 540 watt relatief energiezuinig en kan zowel aan de muur worden bevestigd als vrijstaand worden gebruikt.

Wattage: 540W
Type verwarming: Infrarood
Beveiligingsopties: Oververhitting

ICQN Infraroodkachel

De ICQN infraroodkachel richt op het verwarmen van een klein kantoor of een aparte ruimte in huis. Met een vermogen van 900 watt levert deze kachel gerichte warmte. Het compacte en lichte ontwerp maakt het apparaat zeer handzaam en gemakkelijk te verplaatsen naar elke plek waar je extra warmte nodig hebt. De kachel werkt via een infraroodpaneel, dat warmte uitstraalt die direct op objecten en mensen gericht is, vergelijkbaar met de warmte van de zon. Dit betekent dat je de warmte meteen voelt zodra je het aanzet.

Wattage: 900W
Type verwarming: Infrarood
Beveiligingsopties: Omvallen en oververhitting

Inventum KC221W

Deze compacte keramische kachel is perfect voor het snel verwarmen van kleine tot middelgrote ruimtes, zoals een caravan, zolderkamer, of studeerkamer. Met een maximaal vermogen van 2000 watt genereert hij snel een aangename temperatuur. De kachel heeft twee warmtestanden en een aparte ventilatorstand voor in de zomer, zodat je er het hele jaar door plezier van hebt. Dankzij de traploos instelbare thermostaat kun je de temperatuur nauwkeurig naar wens instellen, en de kachel zorgt er zelf voor dat de ruimte op die temperatuur blijft. Een controlelampje laat je zien wanneer het apparaat in werking is. Het geïntegreerde handvat maakt hem gemakkelijk te verplaatsen en de omvalbeveiliging en oververhittingsbeveiliging zorgen voor een veilige gebruikservaring. Een no-nonsense kachel die doet wat hij moet doen.

Wattage: 2000W
Type verwarming: Keramische kachelventilator
Beveiligingsopties: Omvallen en oververhitting

▼ Volgende artikel
Dit wil je: WhatsApp als je slimme notitieboek
© amnaj
Huis

Dit wil je: WhatsApp als je slimme notitieboek

WhatsApp gebruik je vooral om te appen, maar het kan ook je handigste metgezel zijn. Door ideeën, taken en documenten direct in je eigen chat te zetten, ontstaat een systeem dat je altijd bij de hand hebt. In dit artikel lees je hoe je WhatsApp verandert in een slim notitieboek waarmee je gedachten en bestanden nooit meer zoekraken.

In dit artikel ontdek je:
  • Hoe je een notitiechat met jezelf start en slim gebruikt
  • Waarom WhatsApp sneller werkt dan traditionele notitie-apps
  • Manieren om structuur en takenlijsten overzichtelijk te houden
  • Hoe je documenten, bonnetjes en scans bewaart en terugvindt
  • Tips om je notitiechat veilig, opgeruimd en praktisch te houden

Ook interessant: Chatfilters in WhatsApp: zo houd je je chats overzichtelijk

WhatsApp is de plek waar we eindeloos appen: van gênante groepsfoto’s tot boodschappenlijstjes van je partner. Maar dezelfde app kan meer, véél meer. Zie het als je digitale notitieboekje: altijd open, altijd bij de hand en verrassend krachtig. Waar veel notitie-apps al snel vergeten worden, schuift WhatsApp elke dag vanzelf je scherm in. Dat maakt de drempel om iets vast te leggen lager dan ooit. En het mooiste? Je hoeft geen nieuwe app te leren gebruiken, want WhatsApp zit vermoedelijk al diep in je dagelijkse routine.

Praat met jezelf

De slimste chat is er eentje met jezelf. Dat klinkt misschien een beetje raar, maar het werkt verrassend goed. In recente versies van WhatsApp kun je simpelweg je eigen naam kiezen in het contactenoverzicht en een gesprek starten. Lukt dat niet, stuur dan een berichtje naar je eigen nummer (al is het maar 'hallo') en je hebt je persoonlijke notitieboek geopend. Vanaf dat moment staat er een privéruimte voor je klaar waarin je ideeën, lijstjes en bestanden kwijt kunt. Zet die chat bovenaan vast, zodat hij nooit wegzakt tussen familieberichten, werkdiscussies en de eindeloze stroom aan grappige gifjes van vrienden. Het voelt in eerste instantie een beetje gek, maar na een week wil, nee kún je niet meer zonder.

Snel noteren zonder gedoe

Een idee is vaak vluchtig. Je staat bij de kassa, bent onderweg met de trein of ligt net in bed om te gaan slapen als je opeens denkt: dit moet ik onthouden! Het noteren mislukt meestal niet door een gebrek aan apps, maar door de extra moeite die het kost. Geloof ons, WhatsApp maakt dat verschil. Je opent de app toch al tientallen keren per dag, dus een korte notitie intikken is geen extra drempel. Begin met een korte eerste regel die fungeert als titel, plak er een link of losse gedachte onder en klaar. Voeg een foto of screenshot toe als geheugensteuntje. Heb je geen zin om te typen? Neem een spraakbericht op. Later kun je die afspelen op je laptop en desnoods omzetten naar tekst (superhandig: je kunt spraakberichten direct in WhatsApp laten transcriberen). Het voelt minder aan als 'notities maken' en meer als gewoon appen, en juist dat maakt het zo laagdrempelig.

Structuur die niet in de weg zit

De grootste valkuil van digitale notities is overstructureren. Je begint enthousiast met mappen, categorieën en kleurcodes, en drie weken later is het systeem te ingewikkeld om nog bij te kunnen houden. Bij WhatsApp werkt dat anders. Begin met één centrale notitie-chat en gebruik simpele labels als 'Werk', 'Idee' en 'Boodschappen'. Dankzij de zoekfunctie vind je berichten razendsnel terug. Toch behoefte aan meer onderverdeling? Maak dan aparte themagroepen met alleen jezelf. Voeg kort iemand toe, verwijder die weer en je hebt een solo-chat met een duidelijke naam en profielfoto. Een geel vlak voor 'Bonnetjes', een rood vlak voor 'Reiskosten': herkenbaar in één oogopslag. Zo heb je structuur zonder dat het systeem in de weg zit.

©Yuri Arucrs peopleimages.com

Takenlijst in WhatsApp-stijl

WhatsApp is geen taken-app, maar je kunt de functies slim inzetten. Markeer actiepunten met een ster en gebruik de antwoord-functie om updates en voortgang eraan vast te knopen. Stel: je noteert 'Bel de loodgieter' en krijgt later extra informatie. Door die informatie als reply op het oorspronkelijke bericht te zetten, blijft de hele geschiedenis bij elkaar. Klaar met de taak? Verwijder de ster of sluit af met een korte reply: 'Gedaan, 17 september'. Zo blijft je takenlijst overzichtelijk en in samenhang. Je ziet niet alleen wat je moest doen, maar ook hoe het liep. Dat geeft meer grip dan losse to-dolijstjes die uit elkaar vallen.

Je eigen archiefkast

Iedereen heeft bonnetjes, facturen, pdf's en foto's van whiteboards die ergens rondslingeren. WhatsApp kan die rol van digitale schoenendoos verrassend goed overnemen. Alles wat je in je notitie-chat plaatst, wordt automatisch gesorteerd op type. Zoek je dat ene aankoopbewijs? Open de mediabibliotheek, filter op documenten en je hebt het binnen seconden teruggevonden. Ook foto's, links en screenshots kun je daar terugvinden. Door de ingebouwde documentmodus van de camera worden scans vlak en goed leesbaar, zodat je geen aparte scan-app meer nodig hebt. Je notitie-chat groeit zo ongemerkt uit tot een compleet persoonlijk archief, zonder dat het chaotisch aanvoelt.

©PaeGaG - stock.adobe.com

Extra vaart met WhatsApp Web

Op je telefoon is WhatsApp al handig, maar pas op de laptop of desktop gaat het echt vliegen. Via WhatsApp Web of de desktop-app kopieer je moeiteloos lange teksten, codefragmenten en bestanden naar je notitie-chat. Andersom stuur je materiaal net zo makkelijk weer terug naar andere programma’s. De zoekfunctie werkt veel fijner met een toetsenbord en met sneltoetsen kun je in een oogwenk informatie uit elke app doorsluizen naar WhatsApp. Het voelt bijna alsof je een lichte projectmanagementtool gebruikt, maar dan in een jasje dat je al jaren kent.

Automatiseren voor luie slimmeriken

Deelknoppen en snelkoppelingen maken het nóg efficiënter. In Android deel je vanuit vrijwel elke app direct naar WhatsApp en stel je jouw notitie-chat in als standaardontvanger. Binnen iOS maak je via Opdrachten een actie die geselecteerde tekst met één tik doorstuurt naar jouw notitie-chat. Daarmee bespaar je tientallen kleine handelingen per dag. En maak er een ritueel van: schrijf elke avond drie korte regels (Wat gedaan, wat geleerd, wat morgen) en je notitie-chat wordt vanzelf een logboek dat overzicht en rust geeft. Geen rommel, maar een lopend dagboek waar je later veel aan hebt.

Veilig en privé

Wie WhatsApp als notitieboek gebruikt, moet ook nadenken over veiligheid. Zet verdwijnende berichten uit, zodat je informatie niet per ongeluk verdwijnt. Zorg dat end-to-end versleutelde back-ups actief zijn en beveilig die met een wachtwoord of herstelsleutel die je in je wachtwoordmanager opslaat. Activeer app-vergrendeling met vingerafdruk of gezichtsherkenning en laat de telefoon-encryptie standaard aan staan. Zo weet je zeker dat je notities net zo goed beschermd zijn als je persoonlijke gesprekken. Handig én geruststellend.

©Farknot Architect - stock.adobe.

Opruimen zonder moeite

Let op, want na een paar weken kan je notitie-chat flink uitdijen. Plan daarom regelmatig een korte opruimsessie van twee minuten in. Gebruik de zoekfunctie om grote video's te vinden en te verwijderen, archiveer oude notities of sluit ze af met een update. Wil je terug naar een specifiek moment, dan kun je in de zoekfunctie gericht naar een maand springen en snel door die periode bladeren. Zo blijft je notitie-chat overzichtelijk en bruikbaar in plaats van een digitale stortplaats.

De valkuilen ontwijken

Het lijkt simpel, maar er zijn valkuilen. De grootste fout is versnipperen: een beetje in WhatsApp, een beetje in Evernote (gebruikt iemand dat nog?) en wat losse mails. Kies één hoofdsysteem en houd je daaraan. Anders verlies je het overzicht. Een tweede fout is het gebruik van titelloze notities. Losse zinnen zonder duidelijke eerste regel zijn later onvindbaar. En tot slot vergeten veel mensen hun notitie-chat vast te pinnen, waardoor hij wegzakt in de massa. Het zijn kleine dingen, maar ze maken het verschil tussen een systeem dat werkt en een systeem dat verwatert.

Tadaa, je nieuwe gewoonteboek

Productiviteit draait om frictie wegnemen. WhatsApp open je sowieso al tientallen keren per dag, vaak zonder na te denken. Als je die gewoonte benut, verandert de app ongemerkt in een slim notitieboek. Begin met één chat met jezelf, pin hem vast, gebruik labels en maak gebruik van de zoekfunctie en mediabibliotheek. Binnen een week voelt het aan alsof WhatsApp niet langer alleen een praatpaal is, maar ook je persoonlijke geheugen. Een gewoonteboek dat je eindelijk wél volhoudt.