ID.nl logo
Zekerheid & gemak

Tado Slimme Thermostaat review

Afgelopen herfst, winter en lente testten we de slimme kamer- en radiatorthermostaten van de Duitse fabrikant Tado. Het systeem werkt met vrijwel alle verwarmingssystemen van alle merken, maakt niet uit hoe oud. Bespaar je daar nu echt geld mee en zo ja hoeveel? Lees het in deze Tado Slimme Thermostaat review.

Het Duitse Tado is sinds 2014 actief als Europees alternatief voor de slimme thermostaten van Amerikaanse bedrijven zoals Honeywell (Evohome Smart Thermostat) en Google/Alphabet (Nest Learning Thermostat). Het bedrijf wordt sinds juni 2017 geleid door Eindhovenaar Toon Bouten (ex-Compaq Computers, ex-Philips Consumer Electronics). Privacyminnende gebruikers geven mogelijk de voorkeur aan een Europees (Duits) product, want slimme thermostaten werken het best wanneer ze steeds precies je locatie volgen. Dan kan de verwarming automatisch lager gezet worden wanneer bewoners niet thuis zijn. Dat zorgt voor de grootste besparingen.

Het is nog maar de vraag wat Amerikaanse bedrijven met al die privacygevoelige locatiegegevens doen. Tado valt onder de Duitse en Europese privacy- en datawetgeving en heeft een strenge en transparante privacypolitiek die je op hun website terugvindt.

We testten de Slimme Thermostaat – Starterskit (v3) die een traditionele huiskamerthermostaat vervangt. Ook testten we de starterskit met twee slimme radiatorknoppen. Die vervangen de traditionele radiatorthermostaten. De radiatorthermostaat gebruik je apart per verwarmingstoestel of in combinatie met de slimme huiskamerthermostaat.

Tado stuurt de verwarming aan op basis van je locatie. Je controleert alles met je smartphone, tablet (via de apps voor Android en iOS) en/of pc (via de webapp). De slimme thermostaat kan verder worden bediend met behulp van Apple HomeKit, Amazon Alexa, Google Assistant en/of IFTTT.

Elk nieuw Tado-apparaat wordt standaard toegewezen aan een zone. Een nieuwe zone creëren of toewijzen gebeurt tijdens de installatie van het apparaat, of achteraf door in het afrolmenu de optie Apparaat toewijzen aan een andere zone te kiezen. Elke zone programmeer en regel je apart. Minpuntje is dat je je zelf samengestelde schema’s niet van zone naar zone kunt kopiëren, zoals dat bijvoorbeeld wel mogelijk is bij de slimme thermostaten van Honeywell.

©PXimport

Geofencing

In elke zone creëer je een eenvoudig of een slim verwarmingsschema en dit voor elke dag apart of voor gegroepeerde dagen (zoals weekend en week). In elk van die schema’s configureer je verschillende tijdsblokken met elk hun eigen temperatuurinstelling. Dat verschilt niet zo erg veel van wat mogelijk is met elke digitale thermostaat, slim of niet.

Het slimme van Tado zit hem in de ‘geofencing’-functie die de verwarming automatisch regelt afhankelijk van of er iemand thuis is of niet. Om dit goed te laten werken dien je de Tado-app te installeren op de smartphone van elke bewoner.

Veel geofencing-apps (bijvoorbeeld Nest) eisen dat je permanent de hoge-precisiemodus voor de gps-functie activeert. Dat vormt een zware belasting voor de accu van je mobiel. Tado is slimmer en werkt, zo blijkt uit onze maandenlange test, perfect als je de gps op spaarstand laat staan (of zelfs regelmatig helemaal uitschakelt). Het gebruikt immers ook andere, energiezuinigere, maar minder precieze methodes om je locatie te weten te komen, bijvoorbeeld wifi-en mobiele (gsm)-verbindingen.

Het is wel belangrijk dat de app in de achtergrond blijft werken (dus door bijvoorbeeld Android of een app niet automatisch wordt uitgeschakeld om stroom te besparen). Tado heeft een faq die de optimale instellingen voor je smartphone opsomt. Voor een goede werking van het systeem volg je dus het best de instructies in die faq.

Functies

We hebben de app zowel op Android als iOS gebruikt en merkten nauwelijks een negatieve invloed op de accuprestaties, terwijl Tado toch vrij goed detecteerde wanneer we de testlocatie verlieten. Tado zet de verwarming automatisch lager bij afwezigheid, maar je kunt een ondergrens configureren in de (web)app. De slimme thermostaat zet de verwarming opnieuw aan wanneer je naar huis komt. Via de app kun je dit uitschakelen of in drie standen zetten: eco (begint pas te warmen wanneer je daadwerkelijk thuis bent); balans (verwarmt wanneer je het huis nadert); of comfort (de minst zuinige stand).

Nog een slimmigheidje: Tado houdt rekening met de weervoorspelling en zal de verwarming automatisch harder laten werken bij een voorspelde koude dag, of omgekeerd minder hard wanneer warm weer is voorspeld. Ook is er een goed functionerende ‘open raam’-detectie die de verwarming automatisch tijdelijk uitschakelt als de thermostaat een open deur of raam detecteert. De schakeltijd bepaal je zelf. Deze detectie werkt zowel op de thermostaat als op de radiatorknop.

©PXimport

Tado Slimme Thermostaat installeren

In de Starter Kit vind je de Smart Thermostat v3, de Internet Bridge, kabels en het nodige (Engelstalige) documentatiemateriaal. De installatiegids voor professionelen bevindt zich in een dichtgeplakte envelop. Doe je de zelfinstallatie dan gebruik je de ‘Welcome Guide’, die je eerst vraagt om een account te creëren (of in te loggen op een bestaand account).

De tado-cloud waaraan de thermostaat gekoppeld wordt, werkt wel (ook) in het Nederlands. De piepkleine internetbridge koppel je aan je router. Het apparaatje betrekt zijn stroom van een usb-kabel die je ofwel in een vrije usb-poort van de router ofwel in een aparte usb-voeding prikt. Enkele seconden na het aansluiten detecteert de installatiewizard de aanwezigheid van de bridge. Vervolgens registreer je de Smart Thermostat door het serienummer en de authenticatiecode in te vullen. Op dezelfde manier koppel je de radiatorknoppen en/of eventuele extra kamerthermostaten.

De installatiewizard bevat vele combinaties van thermostaten en verwarmingsketels, maar als jouw specifieke apparaat niet gevonden wordt, kun je de gegevens doorsturen naar de supportafdeling. Iemand bij Tado controleert dan wat je precies moet doen voor een succesvolle installatie. Het duurt even voordat je via e-mail verdere instructies ontvangt, maar in ons geval ontvingen we die binnen het uur en bovendien in het Nederlands. Overigens kun je ook foto’s uploaden zodat de ingenieurs de bestaande installatie gemakkelijker kunnen herkennen en je zo goed mogelijk verder kunnen helpen.

De zelfinstallatie lukte bij ons redelijk goed, al moesten we enkele keren de helpdesk contacteren omdat sommige stappen ons niet helemaal duidelijk waren. Uiteraard kun je Tado ook gewoon door een professional laten installeren, maar dat is uiteraard niet gratis.

Elke bridge kan maximaal 25 radiatorthermostaten controleren, of tien radiatorthermostaten in combinatie met één door een Tado-kamerthermostaat aangestuurde boiler. Elke verwarmingszone kan acht apparaten bevatten, bijvoorbeeld één thermostaat en zeven radiatorthermostaten.

De witte kamerthermostaat heeft een ledmatrixdisplay dat alleen actief is als je de thermostaat lokaal bedient. Zo gaan de drie AAA-batterijen één tot twee jaar mee. De thermostaat werkt volgens Tado met 95% van alle verwarmingssysteem, zowel centrale als vloerverwarming en kan zowel bedraad als draadloos worden gebruikt. Bij draadloos gebruik heb je wel een extra ketelmodule oftewel Extensiekit nodig.

Het is mogelijk om de thermostaat lokaal te bedienen via het display, maar de (web)app geeft je veel meer mogelijkheden en is dus de aangewezen bedieningsmethode.

Wil je meerdere verwarmingscircuits aansturen dat kan dit met een aanvullende kamerthermostaat die via dezelfde bridge werkt. Onze testlocatie heeft twee verwarmingscircuits en wij installeerden daarom twee kamerthermostaten.

Radiatorknoppen

De witte radiatorknoppen hebben een draaiknop om de temperatuur te regelen en tevens een eigen ledmatrixdisplay. Via de app is het overigens mogelijk om de lokale bediening per knop uit te schakelen. Je schroeft ze op een tussenzetstuk of ‘mount’ die aangepast is aan verschillende modellen radiatoren. In de verpakking vind je tussenzetstukken voor de populairste types radiatoren.

Als de mount niet past zijn er aparte conversie-ringen verkrijgbaar via de helpdesk. Bij ons paste één knop probleemloos en een andere niet. Via de helpdesk werden we vlug geholpen. Na het doorsturen van een foto van de bestaande knop, stuurde Tado ons via de post gratis een passend tussenstuk op waarmee we de knop probleemloos konden monteren.

De knoppen gebruiken twee AA-batterijen die volgens Tado één tot twee jaar meegaan. Bij één knop waren de batterijen echter al na amper een maand leeg en daarna opnieuw na een maand of drie. De app waarschuwt je tijdig wanneer je de batterijen moet vervangen (ook via e-mail). Na die waarschuwing heb je daarvoor nog ongeveer een week de tijd voor de knop uitvalt. Blijkbaar is er in sommige omstandigheden een bug die ervoor zorgt dat de batterijen abnormaal snel leeglopen. Tado meldt dat het hiervan op de hoogte is en het probleem aan het oplossen is. Overigens functioneerden de batterijen in de andere geteste knop wel normaal.

©PXimport

Besparing

De mobiele app stuurt je maandelijks een energiebesparingsrapport met de geschatte energiekosten die je bespaart door de slimme functies. Maar die cijfers zijn gebaseerd op gemiddelden uit een simulatiestudie van het Fraunhofer Instituut voor bouwfysica (Duitsland, 2013) en zeggen weinig over de werkelijke besparing in een individuele situatie.

Wel vind je in het rapport interessante statistieken over het aantal uren dat de geofencing actief was, hoe vaak Tado de verwarming aanstuurde volgens de weersvoorspelling, hoe vaak het slim schema actief was, hoe vaak de verwarming handmatig werd bediend en hoe vaak Tado een open raam detecteerde.

Tado toont ook een schatting van de besparing per ‘verwarmingsseizoen’. Volgens Tado bespaarde ik 25%. Maar hoeveel bespaarde ik nou echt?

Toevallig noteer ik al meer dan tien jaar het maandelijks gasverbruik op de testlocatie. Zo kon ik constateren dat het verbruik in de testperiode september 2017 tot mei 2018 inderdaad significant lager was: 25% onder het vijfjaargemiddelde en 9% onder het elfjaargemiddelde.

Andere factoren dan het gebruik van Tado hebben hierbij waarschijnlijk ook een rol gespeeld: een andere gezinssamenstelling, een andere boiler en (wellicht vooral) de klimaatverandering. Niettemin heeft Tado zo te zien invloed op het verbruik; hoevéél is moeilijk objectief vast te stellen, maar het lijkt in elk geval significant.

Conclusie

De slimme thermostaten en radiatorknoppen van Tado zijn betaalbaar, eenvoudig zelf te installeren en werken uitstekend. De helpdesk van Tado reageert snel en accuraat, ook in het Nederlands. Een mogelijk nadeeltje van het systeem is dat alle gezinsleden altijd hun smartphone bij zich moeten hebben om de besparende modi optimaal te laten werken.

Hoeveel je effectief bespaart, hangt af van te veel factoren om goed te kunnen testen, maar we vermoeden dat de meeste gebruikers de aankoopprijs van Tado binnen het jaar terugverdiend hebben met de besparing op hun verwarming. Sowieso is er ook het milieu-aspect: Tado zorgt er in elk geval voor dat je je huis zo weinig mogelijk onnodig verwarmt.

Het is natuurlijk wel zo dat productie, distributie en gebruik van het systeem als geheel zelf ook een geringe milieubelasting met zich meebrengt. Het effect daarvan laat zich echter niet meten en is waarschijnlijk te verwaarlozen in het grote geheel.

Legendarisch
Conclusie

**Prijs:** € 199,99 **Website:** [tado.com](https://www.tado.com/nl//)

Plus- en minpunten
  • Werkt met de meeste verwarmingssystemen
  • Gebruiksvriendelijk
  • Voldoet aan Europese privacyregelgeving
  • Geen permanent display
  • Niet mogelijk schema’s van zone naar zone te kopiëren
  • Batterijen radiatorknoppen soms snel leeg
▼ Volgende artikel
Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen
© Pippin - stock.adobe.com
Huis

Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen

Wanneer je een chatbot als ChatGPT of Copilot een vraag stelt, krijg je (hopelijk) een degelijk antwoord. Dit is mogelijk omdat deze AI-modellen zijn getraind met talloze tekstdata, zoals boeken, artikelen en websites. Maar je kunt zo’n model ook koppelen aan een eigen verzameling documenten en deze data dynamisch laten gebruiken.

In dit artikel laten we zien hoe je een AI-chatbot combineert met je eigen documenten om gerichte antwoorden te genereren:

  • Leer hoe RAG jouw documenten gebruikt om contextueel relevante antwoorden te geven
  • Gebruik NotebookLM van Google voor cloudgebaseerde documentanalyse en samenvattingen
  • Installeer en gebruik AnythingLLM lokaal voor volledige controle over je data
  • Ontdek alternatieven zoals Ollama en RAGflow voor geavanceerde lokale set-ups

Lees ook: Makkelijk switchen tussen AI-taalmodellen? Maak kennis met Jan

Dit artikel bespreekt oplossingen om eigen documenten als doorzoekbare database aan een AI-model te koppelen, zowel in de cloud (via NotebookLM) als lokaal (met tools als AnythingLLM en Ollama). Bij dit proces haalt een model eerst relevante informatie uit een specifieke externe bron of database op (retrieval) en gebruikt deze vervolgens om een contextueel antwoord te genereren (generation). Dit heet Retrieval-Augmented Generation, kortweg RAG.

Voor we concreet ingaan op de genoemde tools, leggen we kort uit hoe een AI-chatbot je prompts analyseert en op basis van getrainde kennis een relevant antwoord probeert te genereren. Daarna bekijken we hoe dit in een RAG-context verloopt.

1 LLM-dataverwerking

Veel mensen denken dat een AI-model zoals ChatGPT of andere Large Language Models (LLM’s) zoals Gemini, Grok, Llama of Claude bij een prompt direct een database van webpagina’s doorzoekt, een samenvatting maakt en die als antwoord teruggeeft. Afhankelijk van het model en je vraag kan er soms in live internetbronnen worden gezocht, maar doorgaans werkt dit proces fundamenteel anders.

In de trainingsfase leren LLM’s namelijk hoe woorden, zinnen en concepten samenhangen. Deze informatie wordt vervolgens opgesplitst in kleine woorddelen (tokens) en door een embedding-functie opgenomen (ingebed) als miljarden getallen, oftewel parameters, in één- of meerdimensionale tabellen, zoals vectoren en tensors.

Zo kan het woord ‘bank’, afhankelijk van de context, in een andere tabel belanden. Bij ‘Geld op een bank zetten’ wordt ‘bank’ gekoppeld aan financiële begrippen zoals ‘geld’ en ‘spaar’, terwijl ‘bank’ bij ‘Op een bank zitten’ aan huiselijke begrippen als ‘stoel’ en ‘zit’ wordt gelinkt. Deze structuur heet een transformer-model, en vandaar ‘GPT’: Generative Pre-trained Transformer.

Wanneer je nu een prompt invoert, zet de chatbot deze eerst om in vectoren die de contextuele betekenis weergeven. Deze worden vervolgens vergeleken met de LLM-parameters, waarna het model stapsgewijs de meest waarschijnlijke volgende tokens voorspelt. Uiteindelijk wordt deze tokenrij naar woorden omgezet en krijg je als gebruiker een antwoord terug.

De positionering van (een homoniem als) ‘bank’ in deze vector zal ook afhangen van de context.

2 RAG-dataverwerking

Wanneer je zelf databronnen toevoegt, zoals docx- of pdf-bestanden, of zelfs afbeeldingen, is het onrealistisch dat het LLM hiervoor opnieuw een trainingsfase doorloopt. Dit proces kost namelijk veel tijd en miljoenen euro’s. Daarom wordt gebruikgemaakt van technieken als RAG. Om RAG toe te passen, worden vectordatabases, zoals LanceDB en Pinecone, of document-retrievalsystemen, zoals Elasticsearch en Haystack, ingezet.

Bij vectordatabases worden tekstdata door de ingebouwde ‘embedder’ vooraf omgezet in vectoren, vergelijkbaar met een LLM. Deze vectoren worden opgeslagen in een database die doorzoekbaar is op basis van vectorovereenkomsten. Dit maakt ze geschikt voor contextueel en semantisch zoeken, veel meer dan met traditionele SQL-databanken mogelijk is.

Document-retrievalsystemen slaan de data als tekst op, vaak in gestructureerde velden, waardoor full-text search mogelijk is op basis van trefwoorden en tekstuele overeenkomsten. Deze systemen zijn meer geschikt voor exacte tekstopzoekingen.

Interessante achtergrondinformatie over vectordatabases en hun relatie tot LLM’s vind je onder meer hier.

Tekstdata worden door de ingebouwde embedder in een vectordatabase ondergebracht.

3 RAG-zoekopdrachten

Hoe verloopt een RAG-zoekproces over het algemeen? Eerst upload je alle gewenste documenten naar het systeem. De tekstdata worden daarna, via een lokaal (Ragflow, AnythingLLM) of cloudgebaseerd (NotebookLM) embedding-model, in kleine stukken verdeeld en in een vectordatabase opgeslagen, lokaal of in de cloud.

Wanneer je nu een prompt invoert, wordt deze eveneens door het embedding-model gevectoriseerd. De vectordatabase zoekt vervolgens naar relevante tekstfragmenten op basis van overeenkomsten, waarna de relevantste fragmenten worden opgehaald. Deze fragmenten worden nu gecombineerd met je originele prompt en samen naar het LLM-model gestuurd, lokaal of via een API(-sleutel) naar een cloudmodel als ChatGPT. Het gegenereerde antwoord wordt daarna teruggestuurd naar je systeem.

Draait het RAG-systeem lokaal, dan worden dus alleen de relevante fragmenten en je prompt naar de cloud gestuurd, tenzij ook de chatbot lokaal draait. In dit geval blijft alles lokaal. Je volledige documenten en de bijbehorende vectoren blijven hoe dan ook lokaal, tenzij het hele RAG-systeem in de cloud draait.

Een typisch RAG-scenario: de prompt en (alleen) de relevante data gaan naar het LLM-model.

Even appen?

Veel gebruikers weten niet dat je een AI-bot ook via WhatsApp kunt bevragen. Zo benader je ChatGPT via het telefoonnummer +1 800 2428478. Commerciële bedrijven als het Nederlandse The AI-Book Company hebben inmiddels een verdienmodel ontwikkeld waarbij AI-boeken via WhatsApp worden aangeboden.

De volledige inhoud van een specifiek boek wordt hierbij geüpload naar een document-retrievalsysteem, zoals Elasticsearch of een vectordatabase als LanceDB, en via API’s gekoppeld aan WhatsApp en een AI-chatbot als ChatGPT. Als geregistreerde gebruiker (wat meestal zo’n 10 euro kost) kun je dan via WhatsApp concrete vragen stellen aan het boek, waarna de chatbot de antwoorden genereert. Je hoeft het boek dus niet noodzakelijk zelf eerst (volledig) te lezen.

RAG-AI in de vorm van een WhatsApp-contactpersoon.

4 NotebookLM

Je weet nu ongeveer wat je met een RAG-systeem kunt en hoe dit onderliggend werkt. Hoog tijd nu om zo’n systeem aan de tand te voelen. We beginnen met een cloudgebaseerd RAG-systeem, Google NotebookLM, dat vooral geschikt is als privacy voor jou minder belangrijk is (al claimt Google je persoonsgegevens niet te gebruiken om NotebookLM te trainen).

Ga naar https://notebooklm.google en klik op de knop NotebookLM proberen. Meld je aan met een persoonlijk Google- of Google Workspace-account.

Je merkt dat er standaard al een notebook is aangemaakt: Introduction to NotebookLM. In het Bronnen-menu aan de linkerkant kun je zeven reeds toegevoegde documenten bekijken. Klik op een document voor een geautomatiseerde samenvatting en de belangrijkste aanklikbare onderwerpen. In het document NotebookLM Features lees je bijvoorbeeld welke documenttypes je kunt uploaden. Je kunt hierover open vragen stellen in het chatvenster, zoals: ‘Met welke types bronbestanden kan NotebookLM precies overweg?’ Het antwoord baseert zich grotendeels op tekstfragmenten uit dit document, zoals zichtbaar bij de genummerde bronverwijzingen.

De bot geeft bij de prompt netjes aan hoeveel bronnen hij kan raadplegen (zeven in dit geval). Stel je een vraag als ‘Is NotebookLM een Retrieval Augmented Generation-systeem (RAG)’, dan krijg je een gefundeerd antwoord met verwijzingen naar een of meer documenten, ook al wordt ‘RAG’ niet expliciet in deze documenten vermeld. NotebookLM vult namelijk antwoorden aan met eigen trainingsdata (van Gemini Pro in dit geval) wanneer dat zinvol is. Vragen die geen verband houden met je documenten blijven echter onbeantwoord.

Desnoods haalt NotebookLM aanvullende informatie uit de eigen trainingsdata op.

5 Bronnen toevoegen aan NotebookLM

We laten je zien hoe je een eigen notebook samenstelt. Een notebook kun je zien als een project dat uit meerdere documenten bestaat, vergelijkbaar met een map met bestanden. Klik op het pictogram linksboven om een overzicht van bestaande notebooks te zien. Kies hier + Nieuwe maken om documenten toe te voegen. Dit kunnen lokale bestanden zijn, zoals pdf’s, txt-bestanden en diverse audioformaten met spraak, maar ook documenten en presentaties uit Google Drive, links naar websites, publieke YouTube-video’s (met onderschriften) of tekst van het klembord. Per notebook kun je maximaal vijftig bronnen uploaden, elk tot 200 MB groot.

Audiobestanden worden automatisch intern getranscribeerd, zodat je er vragen over kunt stellen. Met de knop + Bron toevoegen voeg je meer bronnen toe aan een geselecteerd notebook. Met vinkjes bepaal je welke bronnen de dienst mag gebruiken bij vragen. Je kunt ook anderstalige documenten uploaden en in je voorkeurstaal, zoals Nederlands, vragen stellen en antwoorden ontvangen. De taalvoorkeur stel je in via de instellingen van je Google Account.

Ook anderstalige bronnen (rechts: een pdf in Adobe Reader) kun je meteen bestuderen en bevragen in je eigen taal.

6 Speciale notities in NotebookLM

Wil je antwoorden bewaren, klik dan op Notitie toevoegen. De notitie wordt opgeslagen onderaan het rechterdeelvenster Studio. Hier vind je ook nog allerlei andere knoppen:

  • Veelgestelde vragen genereert een nieuwe notitie met korte vragen over de geselecteerde bronnen, inclusief antwoorden.

  • Studiemateriaal deelt je bronmateriaal op in een glossarium, korte quizvragen met antwoorden en complexere essayvragen.

  • Overzichtsdocument toont de belangrijkste feiten en inzichten uit je bronnen, inclusief een korte inhoud, kernpunten, relevante citaten en een conclusie.

  • Tijdlijn geeft een chronologische lijst met belangrijke feiten, gebeurtenissen en eventueel betrokken personages.

  • Audio-overzicht zet bronmateriaal om in een podcast-achtige Engelstalige conversatie, die als wav-bestand te downloaden is (en die je, indien gewenst, naar bijvoorbeeld mp3 kunt omzetten, zoals met het gratis Shutter Encoder). Het zou ons weinig verbazen als dit (in de Plus-versie?) binnenkort bijvoorbeeld ook in het Nederlands kan, met je eigen stem.

Je kunt notebooks delen met andere Google-gebruikers als Kijker of Bewerker, maar je kunt op elk moment ook weer de toegang intrekken. Wie NotebookLM in Pro gebruikt, kan de chatresponses verder bijsturen en meer notebooks, bronnen, vragen en overzichten maken. Dit abonnement biedt tot 500 notebooks, elk met maximaal 300 bronnen, en dagelijks 500 chatvragen en 20 audio-overzichten (meer informatie vind je hier).

Van een tijdlijn over studiemateriaal tot een heuse podcast met slechts enkele muisklikken.

7 Cloud versus lokaal

Tools als NotebookLM zijn bijzonder nuttig voor het bestuderen, analyseren en kritisch bevragen van zowel tekst- als audiobronnen. Een nadeel is dat je bronnen naar de cloud moet uploaden. Dat kan onhandig en tijdrovend zijn en vormt altijd een risico voor de privacy, ook al zegt Google deze data niet voor trainingsdoeleinden te gebruiken.

Met de juiste tools kun je dit proces ook deels of volledig lokaal uitvoeren, zodat er weinig tot geen data online komen. Een geschikte oplossing is de gratis tool AnythingLLM, een opensource-framework waarmee je LLM’s kunt beheren en gebruiken, zowel in de cloud (meestal via API’s) als lokaal. Je kunt het systeem bovendien uitbreiden met eigen data via RAG.

Het hele systeem van AnythingLLM kan ook in de cloud worden gehost. Zo’n gehoste oplossing kost ongeveer 50 dollar (ca. 48 euro) per maand voor vier gebruikers en honderd documenten) of 99 dollar (ca. 95 euro) per maand voor grotere teams of databibliotheken.

Wil je volledige controle, dan kun je zowel dataopslag, embedder, vectordatabase als het LLM-model lokaal draaien. Hosting kan op een eigen pc of server, bijvoorbeeld als uitvoerbare applicatie voor Windows, macOS of Linux. In Linux gebruik je bijvoorbeeld dit commando:

curl -fsSL https://cdn.useanything.com/latest/installer.sh | sh

Een andere optie is om een dockercontainer te gebruiken voor een meer geïsoleerde en schaalbare omgeving.

AnythingLLM laat zich makkelijk installeren voor diverse platformen.

8 AnythingLLM

We tonen hier hoe je met de desktopapplicatie (versie 1.7.2 in ons geval) voor Windows (x64) aan de slag kunt. Je installeert deze suite met diverse AI-tools via het uitvoerbare bestand in slechts een paar muisklikken, waarna de suite direct klaar is voor gebruik. De systeemeisen hangen af van wat je wilt doen, zoals het gebruik van een lokale embedder, vectordatabase en/of LLM. Officieel zijn 2 GB geheugen, een dualcore-cpu en 5 GB opslagruimte toereikend, maar dit zijn absolute minimumwaarden, geschikt als je vooral externe diensten (zoals in de cloud) gebruikt.

Bij de eerste keer opstarten van AnythingLLM klik je op Get started. Je selecteert vervolgens een geschikte LLM-provider voor het genereren van responses op basis van je prompts en meegestuurde tekstfragmenten. Standaard wordt hier AnythingLLM voorgesteld, die onderliggend Ollama gebruikt (zie het kader 'Ollama en RAGflow’). Kies uit de veertien voorgestelde LLM’s, met onder meer modellen van Meta, Microsoft, Google en Mistral. De meeste zijn tekstmodellen, maar een paar zijn multimodaal en ondersteunen in principe ook afbeeldingen. Bij elk model staat een GB-waarde die aangeeft hoeveel geheugen nodig is (bij voorkeur VRAM van de gpu). Laat je keuze mede hierdoor bepalen. Selecteer een model zodat de aanduiding Active verschijnt en druk op de rechterpijlknop.

Je kiest zelf de LLM die je binnen je werkruimte in AnythingLLM wilt gebruiken: lokaal of extern.

Ollama en RAGflow

AnythingLLM profileert zich als een alles-in-één AI-applicatie, maar je kunt ook kiezen voor een handmatigere aanpak. Een combinatie van Ollama en een tool als RAGflow is een bruikbaar alternatief. Deze opzet vereist wel meer configuratie, maar RAGflow biedt meer opties voor finetuning.

Ollama (beschikbaar voor Windows, macOS en Linux) stelt je in staat om LLM’s lokaal te draaien of via API’s met cloudgebaseerde LLM’s te verbinden. Wil je zelf de locatie van de gedownloade LLM’s bepalen, maak dan in Windows een omgevingsvariabele aan: OLLAMA_MODELS=<pad_naar_downloadmap>. Op www.ollama.com/search kun je nu een LLM kiezen en het bijbehorende opdrachtregelcommando vinden, bijvoorbeeld ollama run llama3.2:1b. Je kunt je chatprompts meteen op de bijbehorende prompt invoeren.

RAGflow installeer je op Windows het eenvoudigst via Docker Desktop, nadat je WSL2 hebt geïnstalleerd (met het commando wsl --install). Download het zip-archief van RAGflow (druk op Code en Download ZIP). Raadpleeg de Readme voor meer details. Navigeer naar de uitgepakte map en voer hier dit commando uit:

docker compose -f docker/docker-compose.yml up

De container wordt nu toegevoegd in Docker Desktop. Zorg dat de container is gestart en open de webinterface van RAGflow via localhost:80 voor verdere configuratie, na je aanmelding. Bij Model Providers kun je nu Ollama selecteren en uit een van de gedownloade LLM’s kiezen.

RAGflow met Ollama: een sterk duo, maar wel wat set-up- en configuratiewerk.

9 Werkruimtes

Je komt op een overzichtspagina terecht waar je naast de gekozen LLM (in dit voorbeeld AnythingLLM x Ollama) ook de standaard geselecteerde embedder (Anything LLM Embedder) en de vectordatabase (LanceDB) ziet. AnythingLLM kiest bewust voor lokaal werkende oplossingen om je privacy te beschermen. Je kunt deze instellingen later wijzigen, maar bevestig nu met de rechterpijlknop. Klik eventueel op Skip Survey en vul de naam in van je eerste werkruimte. Een werkruimte functioneert als container voor documenten en gesprekken rond een specifiek thema of project, zodat je gestructureerd kunt werken.

Nadat je op de rechterpijlknop hebt gedrukt, verschijnt het hoofdvenster van AnythingLLM: links zie je de werkruimtes en rechts een welkomstvenster. Via de knop + Nieuwe Werkruimte kun je extra werkruimtes aanmaken. Een naam geven is voldoende, omdat nieuwe werkruimtes standaard de net ingestelde algemene instellingen overnemen.

Klik op het tandwielpictogram bij een werkruimte. Op het tabblad Algemene instellingen kun je de naam wijzigen of de werkruimte verwijderen. Weet wel dat alles wat je embed in de vectordatabase van toegevoegde bronbestanden verdwijnt bij verwijdering. De bronbestanden zelf blijven behouden.

Je kunt werkruimtes maken, benoemen en ook weer verwijderen.

10 Bronbestanden

Je voegt bronbestanden als volgt aan je werkruimte toe. Klik vanuit het hoofdvenster op de uploadpijl naast de werkruimte. Er opent een dialoogvenster met twee knoppen: Documents en Data Connectors. Via Documents kun je diverse bestandstypes uploaden, zoals txt-, pdf-, csv- en xls(x)-bestanden, of ze direct verslepen naar het venster. Deze bestanden worden door de ingebouwde document-processor geanalyseerd (waarbij ze worden opgesplitst in brokken (chunks) van een instelbaar aantal tokens) en vervolgens in het deelvenster My Documents geplaatst. Documenten die je eerder in andere werkruimtes hebt toegevoegd, zijn hier ook beschikbaar (met de indicatie Cached). Je kunt ook naar webpagina’s of online documenten verwijzen door de url in te voeren en op Fetch website te klikken. Toegevoegde documenten worden standaard geplaatst in de map custom-documents, maar je kunt ze ook organiseren in nieuwe mappen via + New Folder.

Selecteer documenten die je wilt gebruiken in de werkruimte en klik op Move to Workspace. Controleer ook de knop Data Connectors. Hiermee kun je (online) documenten ophalen via diensten als GitHub Repo, GitLab Repo en Confluence, of zelfs YouTube-transcripts en webpagina’s via Bulk Link Scraper. Bij deze scraper vul je een url in, plus de gewenste linkdiepte en het maximaal aantal te lezen pagina’s. Deze gegevens worden dan eveneens aan je documenten toegevoegd.

Bevestig met Save and embed om de documenten in de vectordatabase te embedden. Dit proces kan, afhankelijk van de hoeveelheid data, wel even duren.

Voeg alle gewenste bronbestanden (zoals documenten of webpagina’s) toe aan het systeem.

11 Chatomgeving

In het hoofdvenster open je de gewenste werkruimte. Standaard is er al één thread actief (Default): een conversatie tussen jou en de LLM. Je kunt extra threads aanmaken via + New Thread. Voer je prompts in en de LLM geeft (hopelijk relevante) antwoorden op basis van de doorgestuurde tekstfragmenten. Klik op Show Citations om te zien welke bronnen zijn gebruikt. Door op een bron te klikken, zie je de specifieke tekstfragmenten. Je kunt prompts ook inspreken (microfoon-pictogram) en de antwoorden laten voorlezen (luidspreker-pictogram).

Daarnaast zie je een paperclip-pictogram voor het ad hoc uploaden van extra documenten en een pictogram voor slash-commando’s en agents. Het standaard beschikbare slash-commando is /reset, waarmee je je chatgeschiedenis wist en een nieuwe sessie start. Voeg via Add a New Preset eigen commando’s toe, zoals /vertaal met een prompt als ‘Vertaal het zojuist gegeven antwoord naar het Engels’ en Engelse vertaling als beschrijving. Deze commando’s komen automatisch ook beschikbaar in je andere threads en werkruimtes.

Overigens kun je je chatgeschiedenis (van alle werkruimtes) ook bekijken, exporteren en verwijderen via het moersleutel-pictogram, in de categorie Beheerder / Werkruimte Chats.

Slash-commando’s: handig voor vaak gebruikte prompts.

12 Agents

Agents functioneren als autonome modules die AI-modellen gebruiken om specifieke taken zelfstandig uit te voeren, zoals informatie verwerken of acties uitvoeren op basis van ingestelde parameters. Klik op het moersleutel-pictogram linksonder (Open settings) en navigeer naar Agent Vaardigheden. Hier vind je standaard zeven geïntegreerde agents, waarvan je er vier kunt in- of uitschakelen, zoals Generate charts en Web Search.

We nemen deze laatste als voorbeeld. Activeer deze, selecteer een SERP (Search Engine Results Provider), bijvoorbeeld DuckDuckGo (bij sommige moet je wel nog een API-sleutel invullen). Bevestig met Save. Laat nu in de chatomgeving je prompts voorafgaan door @agent om automatisch geactiveerde en relevante agents op te roepen. Zo kan de agent actuele informatie van internet ophalen, waarbij standaard tot tien zoekresultaten worden verwerkt.

Verwant aan agents zijn de ‘agent skills’. Open de rubriek Community Hub en ga naar Explore Trending. Klik bij een skill op Import en bevestig met Import Agent Skill. Ga daarna terug naar Agent Vaardigheden, waar de skill is toegevoegd. Schakel de skill in om deze beschikbaar te maken.

Met en zonder zoekopdrachten op het web: een merkbaar verschil.

13 Instellingen

Via Open settings kun je op algemeen niveau diverse onderdelen aanpassen. In de categorie AI Providers wijzig je bijvoorbeeld de LLM, Vector Database en Inbedder, zoals een cloudgebaseerde dienst als OpenAI, Pinecone of Gemini. Voor veel opties is een API-sleutel vereist, die vaak niet gratis is. Je stelt hier ook spraak-naar-tekst- (standaard: Local Whisper) en tekst-naar-spraak-providers in. Voor tekst-naar-spraak is standaard de lokale provider PiperTTS ingesteld, maar je kunt bijvoorbeeld ook een bekende dienst als ElevenLabs kiezen (met API).

Bij Aanpassing stel je het thema, de taal en de automatische berichten voor gebruikers in. Deze instellingen gelden standaard voor alle werkruimtes, maar kunnen op werkruimteniveau worden overschreven. Klik op het tandwielpictogram naast een werkruimte om deze opties aan te passen.

In het tabblad Chat Instellingen kies je een specifieke LLM Provider of stel je de Chatmodus in. Standaard staat dit op Chat, maar met de optie Query gebruikt het systeem uitsluitend je eigen documentcontext voor responses, zonder de getrainde dataset van de LLM te raadplegen. Hier bepaal je ook hoeveel eerdere chats worden meegenomen (standaard 20) en met welke achterliggende prompt de werkruimte rekening moet houden.

Op het tabblad Agent Configuratie kun je agenten en skills selecteren die specifiek voor deze werkruimte gelden. Bevestig alle aanpassingen telkens met de voorziene knoppen.

Je kunt ook instellingen vastleggen die specifiek zijn voor de geselecteerde werkruimte.

▼ Volgende artikel
Van prompt naar programma: leer programmeren met AI
© monsitj - stock.adobe.com
Huis

Van prompt naar programma: leer programmeren met AI

Niet alleen het saaie en repetitieve werk wordt vervangen door AI. Je bent óók als kenniswerker niet meer zeker van een baan. Software wordt al grotendeels door AI geschreven. Gelukkig kun je daar als hobbyprogrammeur ook enorm van profiteren. Het brengt naast tijdwinst ook veel gemak. We helpen je op weg met drie praktische tools: ChatGPT, Aider en de Windsurf Editor. We maken enkele eenvoudige voorbeelden, zodat je een helder beeld hebt van je potentiële workflow.

In dit artikel laten we zien hoe je met hulp van AI razendsnel leert programmeren en zelfs complete programma’s bouwt:

  • Gebruik ChatGPT als programmeerpartner en laat het een volledig werkend spelletje bouwen met HTML, CSS en JavaScript
  • Installeer Aider en gebruik het in combinatie met Git om projecten via de terminal te ontwikkelen
  • Ontdek Windsurf Editor als grafisch alternatief met AI-assistent Cascade

Lees ook: Leren programmeren? Met deze tools is coderen geen geheimcode meer

Grote taalmodellen zijn al zo goed dat je comfortabel complete programma’s door AI kunt laten maken, zelfs zonder enige programmeerkennis. Afhankelijk van de tools die je gebruikt, voelt dat toch alsof je samen aan code werkt, ook wel pair-programmeren genoemd. Je houdt dus enige controle en kunt er, als je oplet, veel van leren. Ook al wordt het harde werk door AI gedaan.

Een bijkomend voordeel is dat je heel gericht aanpassingen kunt laten doen of vragen kunt stellen over de code, zonder dat je de documentatie of websites als Stack Overflow hoeft door te spitten. Het is geen verrassing dat laatstgenoemde website met fors dalende bezoekersaantallen te maken heeft. Ook andere taken, zoals het schrijven van de documentatie, zijn snel geregeld.

In dit artikel gaan we een eenvoudig programma maken met AI, zodat je een goed beeld hebt van de workflow. We gebruiken drie verschillende tools. We starten met het vertrouwde ChatGPT, al kun je ook bijvoorbeeld voor Claude of Gemini kiezen. Daarna gaan we met Aider in combinatie met Git aan de slag. Daarmee werk je ‘samen’ aan programmacode via de opdrachtprompt, in ons voorbeeld binnen het vertrouwde Visual Studio Code. Tot slot gaan we met de Windsurf Editor aan de slag, een completere grafische ontwikkelomgeving met geïntegreerde AI-features, die je van begin tot eind ondersteunt bij het maken van je programma. 

Basisbeginselen van het programmeren

Het is handig als je de basisbeginselen van een programmeertaal kent. Ook daar kan AI van nut zijn. Je kunt veel leren van de voorbeelden die worden gegenereerd. Je kunt elk detail uit laten leggen, of om meer voorbeelden vragen. Dat is heel effectief!

Ook om de basisbeginselen te leren is AI nuttig. Pas bijvoorbeeld de Pareto-methode toe. Die methode stelt dat 80 procent van de resultaten voortkomt uit 20 procent van de inspanningen. Vraag de chatbot om een plan te maken dat deze regel toepast op het leren programmeren van bijvoorbeeld Python, door te focussen op 20 procent van de concepten, tools en technieken die 80 procent van de praktische toepassingen en problemen oplossen voor een beginnende programmeur. Vraag om een gestructureerd plan dat in korte tijd resultaat oplevert, inclusief voorbeelden en kleine projecten om vaardigheden direct toe te passen.

Vraag aan ChatGPT om een leerplan op te stellen om je te helpen bij het programmeren.

ChatGPT

Chatbot

Grote taalmodellen (LLM’s) vormen de basis voor chatbots als OpenAI’s ChatGPT en Anthropics Claude, maar óók voor de tools die we hierna behandelen. Feitelijk benaderen we de chatbots in dit eerste deel van het artikel rechtstreeks, via een browser of app. De andere tools gebruiken de API van deze bedrijven. Raadpleeg eventueel voor het starten met ChatGPT deze basiscursus.

De nieuwere modellen (we gebruiken overwegend ChatGPT 4o en Claude 3.5 Sonnet) laten heel goede resultaten zien voor programmeertaken. Ze helpen uiteraard niet alleen om programmacode te schrijven maar kunnen code ook uitleggen, fouten oplossen en de documentatie schrijven. Ook kun je uitstekend brainstormen over een project of ideeën. Het is daarom, óók als je andere tools voor programmeren gebruikt, enorm praktisch om erbij te hebben! Toegang tot ChatGPT is gratis met beperkingen. Een abonnement is minder gelimiteerd en geeft vaak toegang tot nieuwere modellen (zoals o1 of o3-mini). Zo’n abonnement is niet bruikbaar voor de andere tools, die gebruiken namelijk de API waarvoor je aparte credits moet aanschaffen.

Een chatbot biedt goede ondersteuning bij al je programmeervragen.

Eerste stappen

We beginnen met een eenvoudig voorbeeld en vragen aan ChatGPT om een spelletje boter-kaas-en-eieren te maken, ook wel bekend als tic-tac-toe. Hoewel het Engels soms betere resultaten kan geven, werken we voor dit artikel volledig in het Nederlands. We starten met deze prompt: “Maak een volledig functionele boter-kaas-en-eieren voor in een browser. Maak de HTML-structuur, voeg CSS-stijlen toe en implementeer de JavaScript-logica. Maak een scheiding tussen HTML, CSS en JavaScript. Zorg dat het programma responsief is zodat het bij elke schermgrootte werkt.”

ChatGPT genereert de gevraagde code. Je kunt individueel de HTML, CSS en JavaScript kopiëren. Om het te proberen, kun je alles plakken op websites als www.jsfiddle.net en www.codepen.io. Voor dit voorbeeld hebben we bij JSFiddle een projectpagina aangemaakt. We gaan dit voorbeeld in de volgende stappen verder verbeteren, steeds met links naar de verbeterde versie.

De eerste versies van het spel boter-kaas-en-eieren.

Geluiden toevoegen

We vragen ChatGPT om het programma aan te passen, zodat er een geluid wordt afgespeeld bij elke zet. ChatGPT voegt daarop een audio-element toe aan de HTML-code. Het past ook het script aan om dit aan te roepen bij elke zet. Je moet nog wel zelf het mp3-bestand plaatsen in de uiteindelijke programmamap of een volledige link naar het mp3-bestand invullen in de HTML-code:

<audio id="move-sound" src="muisklik.mp3"></audio>

Er zijn overigens veel websites waar je leuke geluidseffecten kunt vinden die je vrij kunt gebruiken, waaronder Pixabay. Op deze pagina zie je onze aangepaste versie.

De aangepaste HTML-code bevat een verwijzing naar een mp3-bestand.

Computertegenstander

We vragen ChatGPT vervolgens om een slimme computertegenstander toe te voegen, waarbij aan het begin van het spel wordt gekozen wie er mag beginnen. Via deze webpagina kun je deze versie zien. De computertegenstander blijkt in eerste instantie overigens helemaal niet zo slim, waardoor je makkelijk je potjes wint. Maar dat is snel opgelost. Na ons verzoek om de computertegenstander slimmer te maken, controleert het programma voortaan eerst op mogelijke winnende zetten en blokkeert het de tegenstander indien nodig. Als er geen direct winnende of blokkerende zetten zijn, kiest het een willekeurige lege cel. Deze slimmere versie kun je hier bekijken.

Het aangepaste script op een canvas in ChatGPT.

Uiterlijk verfraaien

Als laatste hebben we gevraagd het uiterlijk wat mooier te maken. Hierbij wordt voornamelijk de CSS-code aangepast om de visuele stijl van het spel te verbeteren. Het resultaat is geslaagd: ChatGPT geeft de achtergrond een mooi kleurverloop. Ook zijn de stijlen van de knoppen en speelvelden aangepast. Het levert een veel moderner en aantrekkelijker uiterlijk op.

Je kunt ChatGPT uiteraard steeds vragen om het script of een deel daarvan uit te leggen. Ben je het overzicht over de wijzigingen kwijt, dan kun je uiteraard ook vragen om de laatste HTML-code in te zien, of de laatste versie van het script. Eventueel op een canvas. Toch misten wij in ChatGPT soms wat overzicht en is het bovendien lastig om een stapje terug te doen als een aanpassing niet het gewenste resultaat oplevert. Dit zijn zaken die we in het volgende deel gaan aanpakken met Aider.

De gemoderniseerde versie van boter-kaas-en-eieren.

Contextvenster bij een taalmodel

Bij het werken met een groot taalmodel ofwel een Large Language Model (LLM) zijn er enkele technische beperkingen. Een daarvan is het contextvenster. Dat kun je zien als de hoeveelheid tekst die het model kan onthouden, gemeten in tokens. Een token is een deel van een woord en kan ook spaties en leestekens bevatten. Gemiddeld is een token ongeveer 3 tot 4 tekens groot.

Eerdere versies van ChatGPT hadden een relatief klein contextvenster van 4096 tokens. Het kan dan niet altijd alle details onthouden van de gebruikte teksten. Tegenwoordig is het contextvenster veel groter, en onthouden de modellen gemakkelijk 128.000 tokens of meer. Dat is ongeveer een heel boek! Dat is niet alleen nuttig bij het werken met hele lange teksten of artikelen, maar ook bij programmeerwerk, waar je vaak met grote bibliotheken te maken hebt.

Aider

Opdrachtprompt

Voor grotere programmeerprojecten is het werken met een chatbot al snel vervelend en verwarrend. Veel praktischer is een tool die met jouw eigen projectbestanden werkt en zelf of samen de gewenste aanpassingen maakt. Als je geen moeite hebt met het werken met een opdrachtprompt, is Aider een uitstekende optie. Die tool helpt met het schrijven en aanpassen van code.

Aider is opensource en werkt met heel veel LLM’s samen. Hier gebruiken we de API voor Claude 3.5 Sonnet, maar je kunt ook de API van OpenAI gebruiken of een LLM die je zelf lokaal draait of elders, zoals via OpenRouter. De integratie met Git is enorm praktisch. Voor elke aangebrachte wijziging voert het een ‘commit’ uit, voorzien van een duidelijke omschrijving, zodat je achteraf een goed overzicht met alle veranderingen hebt en ook stapjes terug kunt doen. Niet alle alternatieven bieden dit en dat is vooral een gemis als er iets fout gaat en je geen idee meer hebt hoe je dat moet oplossen.

Aider werkt samen met alle gangbare LLM’s.

Voorbereiding

We willen weer laten zien hoe je het spelletje boter-kaas-en-eieren met Aider zou kunnen maken. We gebruiken het voor velen vertrouwde programma Visual Studio Code onder Windows en installeren Aider via een opdrachtprompt binnen die ontwikkelomgeving. Binnen de editor kun je uiteraard alle gegenereerde bestanden bekijken en handmatig aanpassen. Voor de installatie van Aider heb je Python nodig. Zet tijdens de installatie van Python een vinkje bij Add python.exe to PATH, zodat je Python vanuit elke map kunt aanroepen.

Installeer ook Visual Studio Code als je dat nog niet eerder hebt gedaan. Visual Studio Code biedt een mogelijkheid om Copilot als assistent te gebruiken, maar dat slaan we hier over.

Installeer ook Git, zodat versiebeheer mogelijk is. Kies tijdens de installatie van Git voor het gebruik van Visual Studio Code als standaardeditor. Verder kun je alle standaardinstellingen accepteren. Als je Python, Visual Studio Code en Git hebt geïnstalleerd, kun je door met de installatie van Aider.

Installeer Python onder Windows voordat je met Aider aan de slag gaat.

Installatie Aider

We kunnen nu Aider installeren. Open daarvoor Visual Studio Code en kies in het menu de optie Terminal / New Terminal. Verander de terminal, via de optie rechtsboven in het venster, naar Git Bash. Installeer daarna Aider met de volgende twee opdrachten:

python -m pip install aider-install
aider-install

Sluit de terminalvenster via het kruisje rechtsboven. Open dan een nieuwe terminal en wissel weer naar Git Bash. Als je Aider niet kunt aanroepen met aider zul je het PATH moeten uitbreiden met de aangegeven opdracht, zoals in het voorbeeld hieronder:

export PATH="C:\\Users\\gertj\\.local\\bin:$PATH"

Zorg dat je in dit voorbeeld voor Claude 3.5 Sonnet een API-sleutel hebt en voldoende credits om mee te beginnen (zie het kader ‘API-sleutel maken voor Claude’). Exporteer deze API-sleutel zodat Aider deze direct kan gebruiken:

export ANTHROPIC_API_KEY=sk-ant…

Maak nu een nieuwe map voor je toepassing, blader naar die map en maak een Git-repository:

mkdir tictactoe
cd tictactoe
git init .

Je kunt nu beginnen met programmeren, met de ondersteuning van Aider!

We installeren Aider om het binnen Visual Studio Code te gebruiken.

API-sleutel maken voor Claude

Bij Aider werken we zoals aangegeven met Claude 3.5 Sonnet, een populaire optie onder programmeurs. Voor toegang is een API-sleutel nodig. Ga daarvoor naar de console van Anthropic. Vul je e-mailadres in. Via e-mail ontvang je een beveiligde link waarmee je kunt inloggen. Ga dan naar Settings / API keys en klik op Create Key. Vul een naam in, bijvoorbeeld Aider, en klik op Add. Noteer de API-sleutel, deze is later niet meer zichtbaar!

Je hebt ook wat credits nodig. Ga daarvoor naar Billing en voeg credits toe met een creditcard via de optie Add Funds. Begin met een klein bedrag, zoals 10 dollar. Heb je over? Je kunt het altijd nog opmaken door een chatbot als Jan met de API te verbinden.

Via de console van Anthropic kun je een API-sleutel maken.

Programma maken

We gaan ons eerste programma maken. Zorg dat je een terminalvenster hebt geopend en bent gewisseld naar Git Bash. De assistent start je dan met de volgende opdracht:

aider --sonnet

Er wordt de eerste keer gevraagd om .aider* en .env toe te voegen aan .gitignore. Dat raden we aan! Hiermee voorkom je dat deze bestanden, vaak met wachtwoorden en dergelijke, per ongeluk in je Git-repository worden opgenomen en daardoor in potentie online komen, als je de repository via GitHub beschikbaar maakt.

Via de prompt kun je nu je opdrachten afvuren. We vragen zoals eerder om een volledig functionele en responsieve boter-kaas-en-eieren voor in een browser met de vereiste HTML-structuur, CSS-stijlen en JavaScript-logica in aparte bestanden.

Aider gaat direct aan de slag en laat heel overzichtelijk alle aanpassingen zien, met een beschrijving van de uiteindelijke functionaliteit. Het vraagt netjes of het de nieuwe bestanden mag maken (index.html, styles.css en script.js) en daarna of het deze mag openen in een browser. Het spel is in deze eerste versie volledig responsief met een duidelijke gebruikersinterface, houdt de speelstatus bij, detecteert wanneer iemand wint of als het een gelijkspel is, heeft een knop om het spel opnieuw te starten en is helemaal in het Nederlands. Een goed begin!

Aider heeft het programma voor ons uitgewerkt.

Aanpassingen maken

We vragen opnieuw in natuurlijke taal om wijzigingen te maken. De workflow is erg prettig. Aider geeft eerst aan welke bestanden waarschijnlijk moeten worden gewijzigd. Voor het geluid stelt het bijvoorbeeld wijzigingen in index.html en script.js voor. Dan vraagt Aider of het deze bestanden mag toevoegen aan de chat.

Als de radartjes zijn uitgedraaid, na interactie met Claude, geeft Aider heel nauwkeurig aan welke regels in welke bestanden moeten worden gewijzigd. Ook geeft Aider aan dat je een mp3-bestand genaamd move.mp3 in dezelfde map moet plaatsen.

We vragen Aider daarna ook om een slimme computertegenstander toe te voegen. Die is meteen heel slim en probeert direct te winnen als dat kan, blokkeert winnende zetten van de tegenstander, probeert het centrum te veroveren en kiest anders voor hoeken of willekeurige zetten.

Tot slot vragen we Aider om het programma te verfraaien met een moderner uiterlijk. Dat levert een flinke metamorfose op. Bekijk hier het resultaat.

Via een comfortabel proces maakt het alle gewenste aanpassingen.

Kosten voor werken met Aider

We hebben tijdens het werken met Aider continu de credits in de gaten gehouden. We controleerden dit via de console bij Anthropic, maar Aider zelf toont ook bij elke actie welke kosten het heeft gemaakt. Voor de meeste aanpassingen gaat het om zo’n 5 tot 11 dollarcent. In totaal heeft het programma ongeveer 0,23 dollar (circa 0,22 euro) gekost. Het hangt er voornamelijk vanaf hoeveel tokens er nodig zijn, wat weer samenhangt met de omvang van de bestanden die aan de chat worden toegevoegd.

Integratie met Git

De standaard integratie met Git biedt veel voordelen. Als Aider aanpassingen maakt aan een bepaald bestand zal het in Git een heldere beschrijving toevoegen aan de zogeheten commit. In Visual Studio Code kun je deze historische aanpassingen eenvoudig terugzien. Klik daarvoor op een bestand en open in de balk aan de linkerkant Timeline. Zorg dat de filterinstelling is ingesteld op Git History.

Nu zie je de commit-geschiedenis van het geselecteerde bestand. Door op een specifieke commit te klikken, kun je de aangebrachte wijzigingen bekijken. Binnen Aider zijn er ook nog wat trucjes. Zo kun je met /diff zien wat de laatste veranderingen zijn. Met /undo kun je die eenvoudig ongedaan maken.

We hebben de repository op GitHub gezet. Ook hier kun je alle veranderingen bekijken. Open daarvoor een bestand, zoals script.js, en ga dan rechtsboven naar History. Hier zie je de verschillende wijzigingen. Als je op een van de aanpassingen klikt, zie je netjes welke veranderingen in de code zijn gemaakt.

Je kunt handig zien welke historische wijzigingen zijn aangebracht in bestanden.

Git en GitHub

Aider gebruikt een git-repository. Sommige mensen verwarren dit met GitHub. Je kunt met Git prima alleen een lokale repository maken, op het systeem waarop je met Aider werkt. Optioneel kun je deze repository met GitHub verbinden, zodat je in feite een kopie in de cloud hebt. Dat is voor jezelf wel heel praktisch, omdat je veel makkelijker de wijzigingen kunt bijhouden en bestuderen. En je kunt ook met anderen samenwerken aan code.

Ook interessant om te lezen: GitHub Codespaces: altijd de juiste tools bij de hand

We hebben de repository gedeeld met GitHub, zodat je alle veranderingen kunt inzien.

Windsurf Editor

 Complete ontwikkelomgeving

Zoek je een completere ontwikkelomgeving met geïntegreerde AI, dan zijn Cursor AI en Windsurf Editor twee populaire opties. Cursor AI is een gevestigde speler, maar krijgt steeds meer concurrentie van het nieuwere Windsurf Editor. Beide ontwikkelteams blijven verbeteringen doorvoeren om niet voor elkaar onder te doen.

Beide programma’s zijn bovendien klonen van Visual Studio Code, de bekende editor van Microsoft die we ook voor Aider hebben gebruikt. Daarom lijken ze in veel opzichten op elkaar. Het kan handig zijn om verschillende thema’s te gebruiken als je ze naast elkaar gebruikt, zodat je ze uit elkaar kunt houden.

Windsurf Editor werkt met een ingebouwde assistent genaamd Cascade.

Cascade

We hebben ook in Windsurf geprobeerd om het spelletje boter-kaas-en-eieren uit dit artikel te maken. De assistent in Windsurf Editor heet Cascade; via het Cascade-deelvenster kun je hem direct aan het werk zetten. Een leuk detail is dat niet alleen code wordt gegenereerd, maar dat er ook veel aanvullende acties voor je worden uitgevoerd, zoals het aanmaken van een map voor je project en voor de geluiden, en het maken van een mp3-bestand.

Bij elke stap kun je zien welke bestanden worden aangepast en de voorgestelde wijzigingen controleren en bevestigen. Je hoeft niet, zoals bij Aider, zelf een API-sleutel te regelen voor toegang. Je gebruikt steeds het model van Cascade en de administratieve kant wordt via je account geregeld, op basis van credits (zie volgende paragraaf). Zo’n diepere integratie is heel praktisch. Toch heeft de workflow veel overeenkomsten met Aider.

Via een deelvenster kun je een conversatie met Cascade voeren.

Werken met credits

Windsurf werkt met credits voor verschillende taken. Zo worden User Prompt-credits voor elke interactie met de assistent gebruikt en Flow Action-credits voor alle acties die worden uitgevoerd. Als je de limiet bereikt voor het premiummodel, wordt overgeschakeld naar het basismodel. De proefperiode van 14 dagen geeft je ruim voldoende credits om het voorbeeldprogramma uit dit artikel te maken. Sterker nog, je hebt ongeveer vijftien keer meer credits dan nodig, dus je kunt ook grotere en complexere programma’s proberen te maken.

Buiten die proefperiode is, om het premiummodel te gebruiken, een upgrade naar de Pro-versie bijna onvermijdelijk (ca. 18 euro per maand). Je hebt dan wel elke maand een ruime hoeveelheid credits en kunt vrij voordelig credits bijkopen.

Windsurf Editor werkt met een systeem van credits.

Beste optie voor hobbyprogrammeur?

Over het algemeen werkt het programmeren met een chatbot zoals ChatGPT goed. Voor losse functies of snippets werkt het zelfs uitstekend. Maar het is lastig om het overzicht te behouden over de gegenereerde code en eventuele aanpassingen, zeker als het om wijzigingen in meerdere bestanden gaat.

Aider en Windsurf Editor hebben een fijnere workflow, omdat ze de lokale bestanden direct voor je wijzigen, eventueel meerdere tegelijkertijd. Wat kosten betreft is Aider waarschijnlijk interessanter voor de hobbyprogrammeur die af en toe een project oppakt. Je kunt ad-hoc wat credits bijkopen of eens een ander model proberen, lokaal of via bijvoorbeeld OpenRouter. Het opensource DeepSeek R1 bijvoorbeeld. Je kunt bovendien elke ontwikkelomgeving kiezen, terwijl Windsurf Editor volledig op Visual Studio leunt. De integratie met Git ook een praktisch voordeel van Aider.