ID.nl logo
Luchtontvochtiger of luchtbevochtiger: welk apparaat heb je nodig in de winter?
© Denis Rozhnovsky
Energie

Luchtontvochtiger of luchtbevochtiger: welk apparaat heb je nodig in de winter?

In de winter kun je sneller last hebben van condens en schimmelvorming in huis, maar de lucht kan door de kou ook juist (extra) droog worden. Wat heb je nu nodig in de winter: een luchtontvochtiger of een luchtbevochtiger?

Dit artikel in het kort:

Luchtontvochtigers en -bevochtigers zijn handige apparaten om de luchtvochtigheid in huis te verbeteren. Vooral in de winter, waarin de lucht in huis onderhevig is aan de soms extreme kou van buiten én de warme lucht van de verwarming, is het goed om het klimaat in huis zo optimaal mogelijk te houden. Dat voelt een stuk comfortabeler én voorkomt een hoop gezondheidsklachten! Dit artikel helpt je te bepalen of de lucht in je huis te vochtig of juist te droog is, zodat je weet welk type apparaat je nodig hebt.

Als je je nooit hebt bekommerd om de luchtvochtigheidsgraad in huis, dan is dit het moment om je daar toch eens in te verdiepen. Een gezond binnenklimaat is namelijk essentieel voor je gezondheid. Vooral in de winter, waarin we vaak al vatbaar zijn voor gezondheidsklachten, wil je niet dat een ongezonde luchtvochtigheid in huis vervelende kwaaltjes veroorzaakt of verergert. Zo kan een te lage vochtigheidsgraad leiden tot geïrriteerde luchtwegen, huidklachten en droge lippen en ogen. Ook een te hoge luchtvochtigheidsgraad wil je vermijden: dit werkt schimmel* in de hand en ook van schimmels kun je ziek worden. Een luchtvochtigheidsgraad van 40 tot 60 procent is ideaal. Geen idee hoe vochtig jouw huis is? Je kunt dit eenvoudig meten met een hygrometer.

*Lees ook: 5 huisplanten die schimmel in huis voorkomen

Hygrometer nodig?

Kijk eens bij bol

Wanneer een luchtontvochtiger nodig?

Een luchtontvochtiger is een heel effectief apparaat(je): het zuigt vochtige lucht naar binnen, waarna het weer droge lucht uitblaast. Ook neemt het vuil en stofdeeltjes uit de lucht op, waardoor de lucht in huis niet alleen droger, maar ook frisser wordt. Als je in de winter veel condens op je ramen en deuren opmerkt, denk je misschien al snel dat zo'n luchtontvochtiger in huis best een goed idee is. Toch is het niet heel gebruikelijk om in de winter een luchtontvochtiger in huis te plaatsen. Koude winterlucht in combinatie met een verwarming die vaak dag en nacht aanstaat, maakt de lucht in huis namelijk juist droger.

Maar ieder huis is anders, en sommige huizen hebben juist wél baat bij een wat drogere lucht in de winter. Dit geldt vooral voor slecht geïsoleerde huizen. Omdat door condensatie in zulke huizen sneller vochtproblemen ontstaan, kunnen ook schimmels zich in deze huizen makkelijker vermenigvuldigen. Dat merk je aan schimmelplekken in de winter, maar bijvoorbeeld ook aan een toename van allergische klachten en vermoeidheid. Een luchtontvochtiger kan ook handig zijn in extra vochtige ruimtes zoals kelders, omdat die in de winter vaak vochtig blijven.

©Sue Tansirimas

Een luchtontvochtiger gebruik je in de winter als:
  • De luchtvochtigheid in je huis hoger is dan 60 procent

  • Je huis niet goed geïsoleerd is

  • Je veel schimmel in huis hebt

  • Je last hebt van allergieën en vermoeidheid

  • Je merkt dat kleding in huis niet goed droogt

  • Je extra vochtige ruimtes in huis hebt, zoals de kelder

Wanneer een luchtbevochtiger nodig?

Veel huizen hebben in de winter behoefte aan méér vocht. Zo staat de verwarming in de wintermaanden het grootste gedeelte van de tijd aan, wat de lucht in huis uitdroogt. Ook houdt de koude buitenlucht van nature minder vocht vast dan warme lucht. Als koude lucht binnenkomt en wordt opgewarmd, daalt de luchtvochtigheid in huis nog sterker. Een te droge lucht in huis in de winter merk je gauw genoeg. Je krijgt bijvoorbeeld last van een droge huid, droge lippen of droge ogen. Ook je luchtwegen kunnen uitdrogen, waardoor klachten als keelpijn en hoestbuien sneller opspelen. Een ander teken van een te droge lucht in huis is statische elektriciteit: je krijgt bijvoorbeeld steeds schokken als je voorwerpen aanraakt en je kleding en haar zijn statisch geladen. Door droge lucht kunnen er zelfs scheurtjes ontstaan in houten vloeren en meubels, en planten kunnen sneller doodgaan.

©HN Works

Een luchtbevochtiger gebruik je in de winter als:
  • De luchtvochtigheid in je huis lager is dan 40 procent

  • Je last hebt van een droge huid, droge lippen of droge ogen

  • Je vaak last hebt van keelpijn en hoestbuien

  • Vloeren en/of meubels barsten of kromtrekken

  • Er veel statische elektriciteit in huis is

  • Planten er uitgedroogd uitzien en slap hangen

Luchtontvochtiger versus luchtbevochtiger: wat heb ik nodig in de winter?

Om te weten of je nu een luchtontvochtiger of -bevochtiger nodig hebt in de winter, moet je ten eerste weten hoe het gesteld is met de luchtvochtigheid in je woning. Dit kun je meten met een hygrometer, maar je merkt het vaak ook aan andere dingen. Heb je in de winter veel schimmelplekken in huis, worden je allergieën heviger en droogt je kleding na het wassen erg langzaam? Dan is je woning waarschijnlijk te vochtig en heb je een luchtontvochtiger nodig. Heb je daarentegen last van droge lippen of ogen, ben je continu statisch geladen en hoest je veel, dan is de luchtvochtigheid in je huis te laag en ga je voor een luchtbevochtiger.

Houd er rekening mee dat een kerstboom en eventuele kaarsen in je woning de luchtvochtigheid kunnen beïnvloeden. Een (echte) kerstboom verdampt namelijk vocht via de naalden. Hoe groter de boom, hoe meer vocht hij afgeeft, en hoe vochtiger je woonkamer dus wordt. Kaarsen zorgen juist voor een lagere luchtvochtigheid, omdat vocht door de warme lucht verbrandt. Om zeker te weten dat het klimaat in huis altijd optimaal is, is het slim om de luchtvochtigheid regelmatig te meten. Tip: plaats een luchtontvochtiger of -bevochtiger altijd in ruimtes waar je veel tijd doorbrengt, zoals in de woonkamer of slaapkamer. Zo zal je gezondheid er het meest van profiteren.

▼ Volgende artikel
Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen
© Pippin - stock.adobe.com
Huis

Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen

Wanneer je een chatbot als ChatGPT of Copilot een vraag stelt, krijg je (hopelijk) een degelijk antwoord. Dit is mogelijk omdat deze AI-modellen zijn getraind met talloze tekstdata, zoals boeken, artikelen en websites. Maar je kunt zo’n model ook koppelen aan een eigen verzameling documenten en deze data dynamisch laten gebruiken.

In dit artikel laten we zien hoe je een AI-chatbot combineert met je eigen documenten om gerichte antwoorden te genereren:

  • Leer hoe RAG jouw documenten gebruikt om contextueel relevante antwoorden te geven
  • Gebruik NotebookLM van Google voor cloudgebaseerde documentanalyse en samenvattingen
  • Installeer en gebruik AnythingLLM lokaal voor volledige controle over je data
  • Ontdek alternatieven zoals Ollama en RAGflow voor geavanceerde lokale set-ups

Lees ook: Makkelijk switchen tussen AI-taalmodellen? Maak kennis met Jan

Dit artikel bespreekt oplossingen om eigen documenten als doorzoekbare database aan een AI-model te koppelen, zowel in de cloud (via NotebookLM) als lokaal (met tools als AnythingLLM en Ollama). Bij dit proces haalt een model eerst relevante informatie uit een specifieke externe bron of database op (retrieval) en gebruikt deze vervolgens om een contextueel antwoord te genereren (generation). Dit heet Retrieval-Augmented Generation, kortweg RAG.

Voor we concreet ingaan op de genoemde tools, leggen we kort uit hoe een AI-chatbot je prompts analyseert en op basis van getrainde kennis een relevant antwoord probeert te genereren. Daarna bekijken we hoe dit in een RAG-context verloopt.

1 LLM-dataverwerking

Veel mensen denken dat een AI-model zoals ChatGPT of andere Large Language Models (LLM’s) zoals Gemini, Grok, Llama of Claude bij een prompt direct een database van webpagina’s doorzoekt, een samenvatting maakt en die als antwoord teruggeeft. Afhankelijk van het model en je vraag kan er soms in live internetbronnen worden gezocht, maar doorgaans werkt dit proces fundamenteel anders.

In de trainingsfase leren LLM’s namelijk hoe woorden, zinnen en concepten samenhangen. Deze informatie wordt vervolgens opgesplitst in kleine woorddelen (tokens) en door een embedding-functie opgenomen (ingebed) als miljarden getallen, oftewel parameters, in één- of meerdimensionale tabellen, zoals vectoren en tensors.

Zo kan het woord ‘bank’, afhankelijk van de context, in een andere tabel belanden. Bij ‘Geld op een bank zetten’ wordt ‘bank’ gekoppeld aan financiële begrippen zoals ‘geld’ en ‘spaar’, terwijl ‘bank’ bij ‘Op een bank zitten’ aan huiselijke begrippen als ‘stoel’ en ‘zit’ wordt gelinkt. Deze structuur heet een transformer-model, en vandaar ‘GPT’: Generative Pre-trained Transformer.

Wanneer je nu een prompt invoert, zet de chatbot deze eerst om in vectoren die de contextuele betekenis weergeven. Deze worden vervolgens vergeleken met de LLM-parameters, waarna het model stapsgewijs de meest waarschijnlijke volgende tokens voorspelt. Uiteindelijk wordt deze tokenrij naar woorden omgezet en krijg je als gebruiker een antwoord terug.

De positionering van (een homoniem als) ‘bank’ in deze vector zal ook afhangen van de context.

2 RAG-dataverwerking

Wanneer je zelf databronnen toevoegt, zoals docx- of pdf-bestanden, of zelfs afbeeldingen, is het onrealistisch dat het LLM hiervoor opnieuw een trainingsfase doorloopt. Dit proces kost namelijk veel tijd en miljoenen euro’s. Daarom wordt gebruikgemaakt van technieken als RAG. Om RAG toe te passen, worden vectordatabases, zoals LanceDB en Pinecone, of document-retrievalsystemen, zoals Elasticsearch en Haystack, ingezet.

Bij vectordatabases worden tekstdata door de ingebouwde ‘embedder’ vooraf omgezet in vectoren, vergelijkbaar met een LLM. Deze vectoren worden opgeslagen in een database die doorzoekbaar is op basis van vectorovereenkomsten. Dit maakt ze geschikt voor contextueel en semantisch zoeken, veel meer dan met traditionele SQL-databanken mogelijk is.

Document-retrievalsystemen slaan de data als tekst op, vaak in gestructureerde velden, waardoor full-text search mogelijk is op basis van trefwoorden en tekstuele overeenkomsten. Deze systemen zijn meer geschikt voor exacte tekstopzoekingen.

Interessante achtergrondinformatie over vectordatabases en hun relatie tot LLM’s vind je onder meer hier.

Tekstdata worden door de ingebouwde embedder in een vectordatabase ondergebracht.

3 RAG-zoekopdrachten

Hoe verloopt een RAG-zoekproces over het algemeen? Eerst upload je alle gewenste documenten naar het systeem. De tekstdata worden daarna, via een lokaal (Ragflow, AnythingLLM) of cloudgebaseerd (NotebookLM) embedding-model, in kleine stukken verdeeld en in een vectordatabase opgeslagen, lokaal of in de cloud.

Wanneer je nu een prompt invoert, wordt deze eveneens door het embedding-model gevectoriseerd. De vectordatabase zoekt vervolgens naar relevante tekstfragmenten op basis van overeenkomsten, waarna de relevantste fragmenten worden opgehaald. Deze fragmenten worden nu gecombineerd met je originele prompt en samen naar het LLM-model gestuurd, lokaal of via een API(-sleutel) naar een cloudmodel als ChatGPT. Het gegenereerde antwoord wordt daarna teruggestuurd naar je systeem.

Draait het RAG-systeem lokaal, dan worden dus alleen de relevante fragmenten en je prompt naar de cloud gestuurd, tenzij ook de chatbot lokaal draait. In dit geval blijft alles lokaal. Je volledige documenten en de bijbehorende vectoren blijven hoe dan ook lokaal, tenzij het hele RAG-systeem in de cloud draait.

Een typisch RAG-scenario: de prompt en (alleen) de relevante data gaan naar het LLM-model.

Even appen?

Veel gebruikers weten niet dat je een AI-bot ook via WhatsApp kunt bevragen. Zo benader je ChatGPT via het telefoonnummer +1 800 2428478. Commerciële bedrijven als het Nederlandse The AI-Book Company hebben inmiddels een verdienmodel ontwikkeld waarbij AI-boeken via WhatsApp worden aangeboden.

De volledige inhoud van een specifiek boek wordt hierbij geüpload naar een document-retrievalsysteem, zoals Elasticsearch of een vectordatabase als LanceDB, en via API’s gekoppeld aan WhatsApp en een AI-chatbot als ChatGPT. Als geregistreerde gebruiker (wat meestal zo’n 10 euro kost) kun je dan via WhatsApp concrete vragen stellen aan het boek, waarna de chatbot de antwoorden genereert. Je hoeft het boek dus niet noodzakelijk zelf eerst (volledig) te lezen.

RAG-AI in de vorm van een WhatsApp-contactpersoon.

4 NotebookLM

Je weet nu ongeveer wat je met een RAG-systeem kunt en hoe dit onderliggend werkt. Hoog tijd nu om zo’n systeem aan de tand te voelen. We beginnen met een cloudgebaseerd RAG-systeem, Google NotebookLM, dat vooral geschikt is als privacy voor jou minder belangrijk is (al claimt Google je persoonsgegevens niet te gebruiken om NotebookLM te trainen).

Ga naar https://notebooklm.google en klik op de knop NotebookLM proberen. Meld je aan met een persoonlijk Google- of Google Workspace-account.

Je merkt dat er standaard al een notebook is aangemaakt: Introduction to NotebookLM. In het Bronnen-menu aan de linkerkant kun je zeven reeds toegevoegde documenten bekijken. Klik op een document voor een geautomatiseerde samenvatting en de belangrijkste aanklikbare onderwerpen. In het document NotebookLM Features lees je bijvoorbeeld welke documenttypes je kunt uploaden. Je kunt hierover open vragen stellen in het chatvenster, zoals: ‘Met welke types bronbestanden kan NotebookLM precies overweg?’ Het antwoord baseert zich grotendeels op tekstfragmenten uit dit document, zoals zichtbaar bij de genummerde bronverwijzingen.

De bot geeft bij de prompt netjes aan hoeveel bronnen hij kan raadplegen (zeven in dit geval). Stel je een vraag als ‘Is NotebookLM een Retrieval Augmented Generation-systeem (RAG)’, dan krijg je een gefundeerd antwoord met verwijzingen naar een of meer documenten, ook al wordt ‘RAG’ niet expliciet in deze documenten vermeld. NotebookLM vult namelijk antwoorden aan met eigen trainingsdata (van Gemini Pro in dit geval) wanneer dat zinvol is. Vragen die geen verband houden met je documenten blijven echter onbeantwoord.

Desnoods haalt NotebookLM aanvullende informatie uit de eigen trainingsdata op.

5 Bronnen toevoegen aan NotebookLM

We laten je zien hoe je een eigen notebook samenstelt. Een notebook kun je zien als een project dat uit meerdere documenten bestaat, vergelijkbaar met een map met bestanden. Klik op het pictogram linksboven om een overzicht van bestaande notebooks te zien. Kies hier + Nieuwe maken om documenten toe te voegen. Dit kunnen lokale bestanden zijn, zoals pdf’s, txt-bestanden en diverse audioformaten met spraak, maar ook documenten en presentaties uit Google Drive, links naar websites, publieke YouTube-video’s (met onderschriften) of tekst van het klembord. Per notebook kun je maximaal vijftig bronnen uploaden, elk tot 200 MB groot.

Audiobestanden worden automatisch intern getranscribeerd, zodat je er vragen over kunt stellen. Met de knop + Bron toevoegen voeg je meer bronnen toe aan een geselecteerd notebook. Met vinkjes bepaal je welke bronnen de dienst mag gebruiken bij vragen. Je kunt ook anderstalige documenten uploaden en in je voorkeurstaal, zoals Nederlands, vragen stellen en antwoorden ontvangen. De taalvoorkeur stel je in via de instellingen van je Google Account.

Ook anderstalige bronnen (rechts: een pdf in Adobe Reader) kun je meteen bestuderen en bevragen in je eigen taal.

6 Speciale notities in NotebookLM

Wil je antwoorden bewaren, klik dan op Notitie toevoegen. De notitie wordt opgeslagen onderaan het rechterdeelvenster Studio. Hier vind je ook nog allerlei andere knoppen:

  • Veelgestelde vragen genereert een nieuwe notitie met korte vragen over de geselecteerde bronnen, inclusief antwoorden.

  • Studiemateriaal deelt je bronmateriaal op in een glossarium, korte quizvragen met antwoorden en complexere essayvragen.

  • Overzichtsdocument toont de belangrijkste feiten en inzichten uit je bronnen, inclusief een korte inhoud, kernpunten, relevante citaten en een conclusie.

  • Tijdlijn geeft een chronologische lijst met belangrijke feiten, gebeurtenissen en eventueel betrokken personages.

  • Audio-overzicht zet bronmateriaal om in een podcast-achtige Engelstalige conversatie, die als wav-bestand te downloaden is (en die je, indien gewenst, naar bijvoorbeeld mp3 kunt omzetten, zoals met het gratis Shutter Encoder). Het zou ons weinig verbazen als dit (in de Plus-versie?) binnenkort bijvoorbeeld ook in het Nederlands kan, met je eigen stem.

Je kunt notebooks delen met andere Google-gebruikers als Kijker of Bewerker, maar je kunt op elk moment ook weer de toegang intrekken. Wie NotebookLM in Pro gebruikt, kan de chatresponses verder bijsturen en meer notebooks, bronnen, vragen en overzichten maken. Dit abonnement biedt tot 500 notebooks, elk met maximaal 300 bronnen, en dagelijks 500 chatvragen en 20 audio-overzichten (meer informatie vind je hier).

Van een tijdlijn over studiemateriaal tot een heuse podcast met slechts enkele muisklikken.

7 Cloud versus lokaal

Tools als NotebookLM zijn bijzonder nuttig voor het bestuderen, analyseren en kritisch bevragen van zowel tekst- als audiobronnen. Een nadeel is dat je bronnen naar de cloud moet uploaden. Dat kan onhandig en tijdrovend zijn en vormt altijd een risico voor de privacy, ook al zegt Google deze data niet voor trainingsdoeleinden te gebruiken.

Met de juiste tools kun je dit proces ook deels of volledig lokaal uitvoeren, zodat er weinig tot geen data online komen. Een geschikte oplossing is de gratis tool AnythingLLM, een opensource-framework waarmee je LLM’s kunt beheren en gebruiken, zowel in de cloud (meestal via API’s) als lokaal. Je kunt het systeem bovendien uitbreiden met eigen data via RAG.

Het hele systeem van AnythingLLM kan ook in de cloud worden gehost. Zo’n gehoste oplossing kost ongeveer 50 dollar (ca. 48 euro) per maand voor vier gebruikers en honderd documenten) of 99 dollar (ca. 95 euro) per maand voor grotere teams of databibliotheken.

Wil je volledige controle, dan kun je zowel dataopslag, embedder, vectordatabase als het LLM-model lokaal draaien. Hosting kan op een eigen pc of server, bijvoorbeeld als uitvoerbare applicatie voor Windows, macOS of Linux. In Linux gebruik je bijvoorbeeld dit commando:

curl -fsSL https://cdn.useanything.com/latest/installer.sh | sh

Een andere optie is om een dockercontainer te gebruiken voor een meer geïsoleerde en schaalbare omgeving.

AnythingLLM laat zich makkelijk installeren voor diverse platformen.

8 AnythingLLM

We tonen hier hoe je met de desktopapplicatie (versie 1.7.2 in ons geval) voor Windows (x64) aan de slag kunt. Je installeert deze suite met diverse AI-tools via het uitvoerbare bestand in slechts een paar muisklikken, waarna de suite direct klaar is voor gebruik. De systeemeisen hangen af van wat je wilt doen, zoals het gebruik van een lokale embedder, vectordatabase en/of LLM. Officieel zijn 2 GB geheugen, een dualcore-cpu en 5 GB opslagruimte toereikend, maar dit zijn absolute minimumwaarden, geschikt als je vooral externe diensten (zoals in de cloud) gebruikt.

Bij de eerste keer opstarten van AnythingLLM klik je op Get started. Je selecteert vervolgens een geschikte LLM-provider voor het genereren van responses op basis van je prompts en meegestuurde tekstfragmenten. Standaard wordt hier AnythingLLM voorgesteld, die onderliggend Ollama gebruikt (zie het kader 'Ollama en RAGflow’). Kies uit de veertien voorgestelde LLM’s, met onder meer modellen van Meta, Microsoft, Google en Mistral. De meeste zijn tekstmodellen, maar een paar zijn multimodaal en ondersteunen in principe ook afbeeldingen. Bij elk model staat een GB-waarde die aangeeft hoeveel geheugen nodig is (bij voorkeur VRAM van de gpu). Laat je keuze mede hierdoor bepalen. Selecteer een model zodat de aanduiding Active verschijnt en druk op de rechterpijlknop.

Je kiest zelf de LLM die je binnen je werkruimte in AnythingLLM wilt gebruiken: lokaal of extern.

Ollama en RAGflow

AnythingLLM profileert zich als een alles-in-één AI-applicatie, maar je kunt ook kiezen voor een handmatigere aanpak. Een combinatie van Ollama en een tool als RAGflow is een bruikbaar alternatief. Deze opzet vereist wel meer configuratie, maar RAGflow biedt meer opties voor finetuning.

Ollama (beschikbaar voor Windows, macOS en Linux) stelt je in staat om LLM’s lokaal te draaien of via API’s met cloudgebaseerde LLM’s te verbinden. Wil je zelf de locatie van de gedownloade LLM’s bepalen, maak dan in Windows een omgevingsvariabele aan: OLLAMA_MODELS=<pad_naar_downloadmap>. Op www.ollama.com/search kun je nu een LLM kiezen en het bijbehorende opdrachtregelcommando vinden, bijvoorbeeld ollama run llama3.2:1b. Je kunt je chatprompts meteen op de bijbehorende prompt invoeren.

RAGflow installeer je op Windows het eenvoudigst via Docker Desktop, nadat je WSL2 hebt geïnstalleerd (met het commando wsl --install). Download het zip-archief van RAGflow (druk op Code en Download ZIP). Raadpleeg de Readme voor meer details. Navigeer naar de uitgepakte map en voer hier dit commando uit:

docker compose -f docker/docker-compose.yml up

De container wordt nu toegevoegd in Docker Desktop. Zorg dat de container is gestart en open de webinterface van RAGflow via localhost:80 voor verdere configuratie, na je aanmelding. Bij Model Providers kun je nu Ollama selecteren en uit een van de gedownloade LLM’s kiezen.

RAGflow met Ollama: een sterk duo, maar wel wat set-up- en configuratiewerk.

9 Werkruimtes

Je komt op een overzichtspagina terecht waar je naast de gekozen LLM (in dit voorbeeld AnythingLLM x Ollama) ook de standaard geselecteerde embedder (Anything LLM Embedder) en de vectordatabase (LanceDB) ziet. AnythingLLM kiest bewust voor lokaal werkende oplossingen om je privacy te beschermen. Je kunt deze instellingen later wijzigen, maar bevestig nu met de rechterpijlknop. Klik eventueel op Skip Survey en vul de naam in van je eerste werkruimte. Een werkruimte functioneert als container voor documenten en gesprekken rond een specifiek thema of project, zodat je gestructureerd kunt werken.

Nadat je op de rechterpijlknop hebt gedrukt, verschijnt het hoofdvenster van AnythingLLM: links zie je de werkruimtes en rechts een welkomstvenster. Via de knop + Nieuwe Werkruimte kun je extra werkruimtes aanmaken. Een naam geven is voldoende, omdat nieuwe werkruimtes standaard de net ingestelde algemene instellingen overnemen.

Klik op het tandwielpictogram bij een werkruimte. Op het tabblad Algemene instellingen kun je de naam wijzigen of de werkruimte verwijderen. Weet wel dat alles wat je embed in de vectordatabase van toegevoegde bronbestanden verdwijnt bij verwijdering. De bronbestanden zelf blijven behouden.

Je kunt werkruimtes maken, benoemen en ook weer verwijderen.

10 Bronbestanden

Je voegt bronbestanden als volgt aan je werkruimte toe. Klik vanuit het hoofdvenster op de uploadpijl naast de werkruimte. Er opent een dialoogvenster met twee knoppen: Documents en Data Connectors. Via Documents kun je diverse bestandstypes uploaden, zoals txt-, pdf-, csv- en xls(x)-bestanden, of ze direct verslepen naar het venster. Deze bestanden worden door de ingebouwde document-processor geanalyseerd (waarbij ze worden opgesplitst in brokken (chunks) van een instelbaar aantal tokens) en vervolgens in het deelvenster My Documents geplaatst. Documenten die je eerder in andere werkruimtes hebt toegevoegd, zijn hier ook beschikbaar (met de indicatie Cached). Je kunt ook naar webpagina’s of online documenten verwijzen door de url in te voeren en op Fetch website te klikken. Toegevoegde documenten worden standaard geplaatst in de map custom-documents, maar je kunt ze ook organiseren in nieuwe mappen via + New Folder.

Selecteer documenten die je wilt gebruiken in de werkruimte en klik op Move to Workspace. Controleer ook de knop Data Connectors. Hiermee kun je (online) documenten ophalen via diensten als GitHub Repo, GitLab Repo en Confluence, of zelfs YouTube-transcripts en webpagina’s via Bulk Link Scraper. Bij deze scraper vul je een url in, plus de gewenste linkdiepte en het maximaal aantal te lezen pagina’s. Deze gegevens worden dan eveneens aan je documenten toegevoegd.

Bevestig met Save and embed om de documenten in de vectordatabase te embedden. Dit proces kan, afhankelijk van de hoeveelheid data, wel even duren.

Voeg alle gewenste bronbestanden (zoals documenten of webpagina’s) toe aan het systeem.

11 Chatomgeving

In het hoofdvenster open je de gewenste werkruimte. Standaard is er al één thread actief (Default): een conversatie tussen jou en de LLM. Je kunt extra threads aanmaken via + New Thread. Voer je prompts in en de LLM geeft (hopelijk relevante) antwoorden op basis van de doorgestuurde tekstfragmenten. Klik op Show Citations om te zien welke bronnen zijn gebruikt. Door op een bron te klikken, zie je de specifieke tekstfragmenten. Je kunt prompts ook inspreken (microfoon-pictogram) en de antwoorden laten voorlezen (luidspreker-pictogram).

Daarnaast zie je een paperclip-pictogram voor het ad hoc uploaden van extra documenten en een pictogram voor slash-commando’s en agents. Het standaard beschikbare slash-commando is /reset, waarmee je je chatgeschiedenis wist en een nieuwe sessie start. Voeg via Add a New Preset eigen commando’s toe, zoals /vertaal met een prompt als ‘Vertaal het zojuist gegeven antwoord naar het Engels’ en Engelse vertaling als beschrijving. Deze commando’s komen automatisch ook beschikbaar in je andere threads en werkruimtes.

Overigens kun je je chatgeschiedenis (van alle werkruimtes) ook bekijken, exporteren en verwijderen via het moersleutel-pictogram, in de categorie Beheerder / Werkruimte Chats.

Slash-commando’s: handig voor vaak gebruikte prompts.

12 Agents

Agents functioneren als autonome modules die AI-modellen gebruiken om specifieke taken zelfstandig uit te voeren, zoals informatie verwerken of acties uitvoeren op basis van ingestelde parameters. Klik op het moersleutel-pictogram linksonder (Open settings) en navigeer naar Agent Vaardigheden. Hier vind je standaard zeven geïntegreerde agents, waarvan je er vier kunt in- of uitschakelen, zoals Generate charts en Web Search.

We nemen deze laatste als voorbeeld. Activeer deze, selecteer een SERP (Search Engine Results Provider), bijvoorbeeld DuckDuckGo (bij sommige moet je wel nog een API-sleutel invullen). Bevestig met Save. Laat nu in de chatomgeving je prompts voorafgaan door @agent om automatisch geactiveerde en relevante agents op te roepen. Zo kan de agent actuele informatie van internet ophalen, waarbij standaard tot tien zoekresultaten worden verwerkt.

Verwant aan agents zijn de ‘agent skills’. Open de rubriek Community Hub en ga naar Explore Trending. Klik bij een skill op Import en bevestig met Import Agent Skill. Ga daarna terug naar Agent Vaardigheden, waar de skill is toegevoegd. Schakel de skill in om deze beschikbaar te maken.

Met en zonder zoekopdrachten op het web: een merkbaar verschil.

13 Instellingen

Via Open settings kun je op algemeen niveau diverse onderdelen aanpassen. In de categorie AI Providers wijzig je bijvoorbeeld de LLM, Vector Database en Inbedder, zoals een cloudgebaseerde dienst als OpenAI, Pinecone of Gemini. Voor veel opties is een API-sleutel vereist, die vaak niet gratis is. Je stelt hier ook spraak-naar-tekst- (standaard: Local Whisper) en tekst-naar-spraak-providers in. Voor tekst-naar-spraak is standaard de lokale provider PiperTTS ingesteld, maar je kunt bijvoorbeeld ook een bekende dienst als ElevenLabs kiezen (met API).

Bij Aanpassing stel je het thema, de taal en de automatische berichten voor gebruikers in. Deze instellingen gelden standaard voor alle werkruimtes, maar kunnen op werkruimteniveau worden overschreven. Klik op het tandwielpictogram naast een werkruimte om deze opties aan te passen.

In het tabblad Chat Instellingen kies je een specifieke LLM Provider of stel je de Chatmodus in. Standaard staat dit op Chat, maar met de optie Query gebruikt het systeem uitsluitend je eigen documentcontext voor responses, zonder de getrainde dataset van de LLM te raadplegen. Hier bepaal je ook hoeveel eerdere chats worden meegenomen (standaard 20) en met welke achterliggende prompt de werkruimte rekening moet houden.

Op het tabblad Agent Configuratie kun je agenten en skills selecteren die specifiek voor deze werkruimte gelden. Bevestig alle aanpassingen telkens met de voorziene knoppen.

Je kunt ook instellingen vastleggen die specifiek zijn voor de geselecteerde werkruimte.

▼ Volgende artikel
Van prompt naar programma: leer programmeren met AI
© monsitj - stock.adobe.com
Huis

Van prompt naar programma: leer programmeren met AI

Niet alleen het saaie en repetitieve werk wordt vervangen door AI. Je bent óók als kenniswerker niet meer zeker van een baan. Software wordt al grotendeels door AI geschreven. Gelukkig kun je daar als hobbyprogrammeur ook enorm van profiteren. Het brengt naast tijdwinst ook veel gemak. We helpen je op weg met drie praktische tools: ChatGPT, Aider en de Windsurf Editor. We maken enkele eenvoudige voorbeelden, zodat je een helder beeld hebt van je potentiële workflow.

In dit artikel laten we zien hoe je met hulp van AI razendsnel leert programmeren en zelfs complete programma’s bouwt:

  • Gebruik ChatGPT als programmeerpartner en laat het een volledig werkend spelletje bouwen met HTML, CSS en JavaScript
  • Installeer Aider en gebruik het in combinatie met Git om projecten via de terminal te ontwikkelen
  • Ontdek Windsurf Editor als grafisch alternatief met AI-assistent Cascade

Lees ook: Leren programmeren? Met deze tools is coderen geen geheimcode meer

Grote taalmodellen zijn al zo goed dat je comfortabel complete programma’s door AI kunt laten maken, zelfs zonder enige programmeerkennis. Afhankelijk van de tools die je gebruikt, voelt dat toch alsof je samen aan code werkt, ook wel pair-programmeren genoemd. Je houdt dus enige controle en kunt er, als je oplet, veel van leren. Ook al wordt het harde werk door AI gedaan.

Een bijkomend voordeel is dat je heel gericht aanpassingen kunt laten doen of vragen kunt stellen over de code, zonder dat je de documentatie of websites als Stack Overflow hoeft door te spitten. Het is geen verrassing dat laatstgenoemde website met fors dalende bezoekersaantallen te maken heeft. Ook andere taken, zoals het schrijven van de documentatie, zijn snel geregeld.

In dit artikel gaan we een eenvoudig programma maken met AI, zodat je een goed beeld hebt van de workflow. We gebruiken drie verschillende tools. We starten met het vertrouwde ChatGPT, al kun je ook bijvoorbeeld voor Claude of Gemini kiezen. Daarna gaan we met Aider in combinatie met Git aan de slag. Daarmee werk je ‘samen’ aan programmacode via de opdrachtprompt, in ons voorbeeld binnen het vertrouwde Visual Studio Code. Tot slot gaan we met de Windsurf Editor aan de slag, een completere grafische ontwikkelomgeving met geïntegreerde AI-features, die je van begin tot eind ondersteunt bij het maken van je programma. 

Basisbeginselen van het programmeren

Het is handig als je de basisbeginselen van een programmeertaal kent. Ook daar kan AI van nut zijn. Je kunt veel leren van de voorbeelden die worden gegenereerd. Je kunt elk detail uit laten leggen, of om meer voorbeelden vragen. Dat is heel effectief!

Ook om de basisbeginselen te leren is AI nuttig. Pas bijvoorbeeld de Pareto-methode toe. Die methode stelt dat 80 procent van de resultaten voortkomt uit 20 procent van de inspanningen. Vraag de chatbot om een plan te maken dat deze regel toepast op het leren programmeren van bijvoorbeeld Python, door te focussen op 20 procent van de concepten, tools en technieken die 80 procent van de praktische toepassingen en problemen oplossen voor een beginnende programmeur. Vraag om een gestructureerd plan dat in korte tijd resultaat oplevert, inclusief voorbeelden en kleine projecten om vaardigheden direct toe te passen.

Vraag aan ChatGPT om een leerplan op te stellen om je te helpen bij het programmeren.

ChatGPT

Chatbot

Grote taalmodellen (LLM’s) vormen de basis voor chatbots als OpenAI’s ChatGPT en Anthropics Claude, maar óók voor de tools die we hierna behandelen. Feitelijk benaderen we de chatbots in dit eerste deel van het artikel rechtstreeks, via een browser of app. De andere tools gebruiken de API van deze bedrijven. Raadpleeg eventueel voor het starten met ChatGPT deze basiscursus.

De nieuwere modellen (we gebruiken overwegend ChatGPT 4o en Claude 3.5 Sonnet) laten heel goede resultaten zien voor programmeertaken. Ze helpen uiteraard niet alleen om programmacode te schrijven maar kunnen code ook uitleggen, fouten oplossen en de documentatie schrijven. Ook kun je uitstekend brainstormen over een project of ideeën. Het is daarom, óók als je andere tools voor programmeren gebruikt, enorm praktisch om erbij te hebben! Toegang tot ChatGPT is gratis met beperkingen. Een abonnement is minder gelimiteerd en geeft vaak toegang tot nieuwere modellen (zoals o1 of o3-mini). Zo’n abonnement is niet bruikbaar voor de andere tools, die gebruiken namelijk de API waarvoor je aparte credits moet aanschaffen.

Een chatbot biedt goede ondersteuning bij al je programmeervragen.

Eerste stappen

We beginnen met een eenvoudig voorbeeld en vragen aan ChatGPT om een spelletje boter-kaas-en-eieren te maken, ook wel bekend als tic-tac-toe. Hoewel het Engels soms betere resultaten kan geven, werken we voor dit artikel volledig in het Nederlands. We starten met deze prompt: “Maak een volledig functionele boter-kaas-en-eieren voor in een browser. Maak de HTML-structuur, voeg CSS-stijlen toe en implementeer de JavaScript-logica. Maak een scheiding tussen HTML, CSS en JavaScript. Zorg dat het programma responsief is zodat het bij elke schermgrootte werkt.”

ChatGPT genereert de gevraagde code. Je kunt individueel de HTML, CSS en JavaScript kopiëren. Om het te proberen, kun je alles plakken op websites als www.jsfiddle.net en www.codepen.io. Voor dit voorbeeld hebben we bij JSFiddle een projectpagina aangemaakt. We gaan dit voorbeeld in de volgende stappen verder verbeteren, steeds met links naar de verbeterde versie.

De eerste versies van het spel boter-kaas-en-eieren.

Geluiden toevoegen

We vragen ChatGPT om het programma aan te passen, zodat er een geluid wordt afgespeeld bij elke zet. ChatGPT voegt daarop een audio-element toe aan de HTML-code. Het past ook het script aan om dit aan te roepen bij elke zet. Je moet nog wel zelf het mp3-bestand plaatsen in de uiteindelijke programmamap of een volledige link naar het mp3-bestand invullen in de HTML-code:

<audio id="move-sound" src="muisklik.mp3"></audio>

Er zijn overigens veel websites waar je leuke geluidseffecten kunt vinden die je vrij kunt gebruiken, waaronder Pixabay. Op deze pagina zie je onze aangepaste versie.

De aangepaste HTML-code bevat een verwijzing naar een mp3-bestand.

Computertegenstander

We vragen ChatGPT vervolgens om een slimme computertegenstander toe te voegen, waarbij aan het begin van het spel wordt gekozen wie er mag beginnen. Via deze webpagina kun je deze versie zien. De computertegenstander blijkt in eerste instantie overigens helemaal niet zo slim, waardoor je makkelijk je potjes wint. Maar dat is snel opgelost. Na ons verzoek om de computertegenstander slimmer te maken, controleert het programma voortaan eerst op mogelijke winnende zetten en blokkeert het de tegenstander indien nodig. Als er geen direct winnende of blokkerende zetten zijn, kiest het een willekeurige lege cel. Deze slimmere versie kun je hier bekijken.

Het aangepaste script op een canvas in ChatGPT.

Uiterlijk verfraaien

Als laatste hebben we gevraagd het uiterlijk wat mooier te maken. Hierbij wordt voornamelijk de CSS-code aangepast om de visuele stijl van het spel te verbeteren. Het resultaat is geslaagd: ChatGPT geeft de achtergrond een mooi kleurverloop. Ook zijn de stijlen van de knoppen en speelvelden aangepast. Het levert een veel moderner en aantrekkelijker uiterlijk op.

Je kunt ChatGPT uiteraard steeds vragen om het script of een deel daarvan uit te leggen. Ben je het overzicht over de wijzigingen kwijt, dan kun je uiteraard ook vragen om de laatste HTML-code in te zien, of de laatste versie van het script. Eventueel op een canvas. Toch misten wij in ChatGPT soms wat overzicht en is het bovendien lastig om een stapje terug te doen als een aanpassing niet het gewenste resultaat oplevert. Dit zijn zaken die we in het volgende deel gaan aanpakken met Aider.

De gemoderniseerde versie van boter-kaas-en-eieren.

Contextvenster bij een taalmodel

Bij het werken met een groot taalmodel ofwel een Large Language Model (LLM) zijn er enkele technische beperkingen. Een daarvan is het contextvenster. Dat kun je zien als de hoeveelheid tekst die het model kan onthouden, gemeten in tokens. Een token is een deel van een woord en kan ook spaties en leestekens bevatten. Gemiddeld is een token ongeveer 3 tot 4 tekens groot.

Eerdere versies van ChatGPT hadden een relatief klein contextvenster van 4096 tokens. Het kan dan niet altijd alle details onthouden van de gebruikte teksten. Tegenwoordig is het contextvenster veel groter, en onthouden de modellen gemakkelijk 128.000 tokens of meer. Dat is ongeveer een heel boek! Dat is niet alleen nuttig bij het werken met hele lange teksten of artikelen, maar ook bij programmeerwerk, waar je vaak met grote bibliotheken te maken hebt.

Aider

Opdrachtprompt

Voor grotere programmeerprojecten is het werken met een chatbot al snel vervelend en verwarrend. Veel praktischer is een tool die met jouw eigen projectbestanden werkt en zelf of samen de gewenste aanpassingen maakt. Als je geen moeite hebt met het werken met een opdrachtprompt, is Aider een uitstekende optie. Die tool helpt met het schrijven en aanpassen van code.

Aider is opensource en werkt met heel veel LLM’s samen. Hier gebruiken we de API voor Claude 3.5 Sonnet, maar je kunt ook de API van OpenAI gebruiken of een LLM die je zelf lokaal draait of elders, zoals via OpenRouter. De integratie met Git is enorm praktisch. Voor elke aangebrachte wijziging voert het een ‘commit’ uit, voorzien van een duidelijke omschrijving, zodat je achteraf een goed overzicht met alle veranderingen hebt en ook stapjes terug kunt doen. Niet alle alternatieven bieden dit en dat is vooral een gemis als er iets fout gaat en je geen idee meer hebt hoe je dat moet oplossen.

Aider werkt samen met alle gangbare LLM’s.

Voorbereiding

We willen weer laten zien hoe je het spelletje boter-kaas-en-eieren met Aider zou kunnen maken. We gebruiken het voor velen vertrouwde programma Visual Studio Code onder Windows en installeren Aider via een opdrachtprompt binnen die ontwikkelomgeving. Binnen de editor kun je uiteraard alle gegenereerde bestanden bekijken en handmatig aanpassen. Voor de installatie van Aider heb je Python nodig. Zet tijdens de installatie van Python een vinkje bij Add python.exe to PATH, zodat je Python vanuit elke map kunt aanroepen.

Installeer ook Visual Studio Code als je dat nog niet eerder hebt gedaan. Visual Studio Code biedt een mogelijkheid om Copilot als assistent te gebruiken, maar dat slaan we hier over.

Installeer ook Git, zodat versiebeheer mogelijk is. Kies tijdens de installatie van Git voor het gebruik van Visual Studio Code als standaardeditor. Verder kun je alle standaardinstellingen accepteren. Als je Python, Visual Studio Code en Git hebt geïnstalleerd, kun je door met de installatie van Aider.

Installeer Python onder Windows voordat je met Aider aan de slag gaat.

Installatie Aider

We kunnen nu Aider installeren. Open daarvoor Visual Studio Code en kies in het menu de optie Terminal / New Terminal. Verander de terminal, via de optie rechtsboven in het venster, naar Git Bash. Installeer daarna Aider met de volgende twee opdrachten:

python -m pip install aider-install
aider-install

Sluit de terminalvenster via het kruisje rechtsboven. Open dan een nieuwe terminal en wissel weer naar Git Bash. Als je Aider niet kunt aanroepen met aider zul je het PATH moeten uitbreiden met de aangegeven opdracht, zoals in het voorbeeld hieronder:

export PATH="C:\\Users\\gertj\\.local\\bin:$PATH"

Zorg dat je in dit voorbeeld voor Claude 3.5 Sonnet een API-sleutel hebt en voldoende credits om mee te beginnen (zie het kader ‘API-sleutel maken voor Claude’). Exporteer deze API-sleutel zodat Aider deze direct kan gebruiken:

export ANTHROPIC_API_KEY=sk-ant…

Maak nu een nieuwe map voor je toepassing, blader naar die map en maak een Git-repository:

mkdir tictactoe
cd tictactoe
git init .

Je kunt nu beginnen met programmeren, met de ondersteuning van Aider!

We installeren Aider om het binnen Visual Studio Code te gebruiken.

API-sleutel maken voor Claude

Bij Aider werken we zoals aangegeven met Claude 3.5 Sonnet, een populaire optie onder programmeurs. Voor toegang is een API-sleutel nodig. Ga daarvoor naar de console van Anthropic. Vul je e-mailadres in. Via e-mail ontvang je een beveiligde link waarmee je kunt inloggen. Ga dan naar Settings / API keys en klik op Create Key. Vul een naam in, bijvoorbeeld Aider, en klik op Add. Noteer de API-sleutel, deze is later niet meer zichtbaar!

Je hebt ook wat credits nodig. Ga daarvoor naar Billing en voeg credits toe met een creditcard via de optie Add Funds. Begin met een klein bedrag, zoals 10 dollar. Heb je over? Je kunt het altijd nog opmaken door een chatbot als Jan met de API te verbinden.

Via de console van Anthropic kun je een API-sleutel maken.

Programma maken

We gaan ons eerste programma maken. Zorg dat je een terminalvenster hebt geopend en bent gewisseld naar Git Bash. De assistent start je dan met de volgende opdracht:

aider --sonnet

Er wordt de eerste keer gevraagd om .aider* en .env toe te voegen aan .gitignore. Dat raden we aan! Hiermee voorkom je dat deze bestanden, vaak met wachtwoorden en dergelijke, per ongeluk in je Git-repository worden opgenomen en daardoor in potentie online komen, als je de repository via GitHub beschikbaar maakt.

Via de prompt kun je nu je opdrachten afvuren. We vragen zoals eerder om een volledig functionele en responsieve boter-kaas-en-eieren voor in een browser met de vereiste HTML-structuur, CSS-stijlen en JavaScript-logica in aparte bestanden.

Aider gaat direct aan de slag en laat heel overzichtelijk alle aanpassingen zien, met een beschrijving van de uiteindelijke functionaliteit. Het vraagt netjes of het de nieuwe bestanden mag maken (index.html, styles.css en script.js) en daarna of het deze mag openen in een browser. Het spel is in deze eerste versie volledig responsief met een duidelijke gebruikersinterface, houdt de speelstatus bij, detecteert wanneer iemand wint of als het een gelijkspel is, heeft een knop om het spel opnieuw te starten en is helemaal in het Nederlands. Een goed begin!

Aider heeft het programma voor ons uitgewerkt.

Aanpassingen maken

We vragen opnieuw in natuurlijke taal om wijzigingen te maken. De workflow is erg prettig. Aider geeft eerst aan welke bestanden waarschijnlijk moeten worden gewijzigd. Voor het geluid stelt het bijvoorbeeld wijzigingen in index.html en script.js voor. Dan vraagt Aider of het deze bestanden mag toevoegen aan de chat.

Als de radartjes zijn uitgedraaid, na interactie met Claude, geeft Aider heel nauwkeurig aan welke regels in welke bestanden moeten worden gewijzigd. Ook geeft Aider aan dat je een mp3-bestand genaamd move.mp3 in dezelfde map moet plaatsen.

We vragen Aider daarna ook om een slimme computertegenstander toe te voegen. Die is meteen heel slim en probeert direct te winnen als dat kan, blokkeert winnende zetten van de tegenstander, probeert het centrum te veroveren en kiest anders voor hoeken of willekeurige zetten.

Tot slot vragen we Aider om het programma te verfraaien met een moderner uiterlijk. Dat levert een flinke metamorfose op. Bekijk hier het resultaat.

Via een comfortabel proces maakt het alle gewenste aanpassingen.

Kosten voor werken met Aider

We hebben tijdens het werken met Aider continu de credits in de gaten gehouden. We controleerden dit via de console bij Anthropic, maar Aider zelf toont ook bij elke actie welke kosten het heeft gemaakt. Voor de meeste aanpassingen gaat het om zo’n 5 tot 11 dollarcent. In totaal heeft het programma ongeveer 0,23 dollar (circa 0,22 euro) gekost. Het hangt er voornamelijk vanaf hoeveel tokens er nodig zijn, wat weer samenhangt met de omvang van de bestanden die aan de chat worden toegevoegd.

Integratie met Git

De standaard integratie met Git biedt veel voordelen. Als Aider aanpassingen maakt aan een bepaald bestand zal het in Git een heldere beschrijving toevoegen aan de zogeheten commit. In Visual Studio Code kun je deze historische aanpassingen eenvoudig terugzien. Klik daarvoor op een bestand en open in de balk aan de linkerkant Timeline. Zorg dat de filterinstelling is ingesteld op Git History.

Nu zie je de commit-geschiedenis van het geselecteerde bestand. Door op een specifieke commit te klikken, kun je de aangebrachte wijzigingen bekijken. Binnen Aider zijn er ook nog wat trucjes. Zo kun je met /diff zien wat de laatste veranderingen zijn. Met /undo kun je die eenvoudig ongedaan maken.

We hebben de repository op GitHub gezet. Ook hier kun je alle veranderingen bekijken. Open daarvoor een bestand, zoals script.js, en ga dan rechtsboven naar History. Hier zie je de verschillende wijzigingen. Als je op een van de aanpassingen klikt, zie je netjes welke veranderingen in de code zijn gemaakt.

Je kunt handig zien welke historische wijzigingen zijn aangebracht in bestanden.

Git en GitHub

Aider gebruikt een git-repository. Sommige mensen verwarren dit met GitHub. Je kunt met Git prima alleen een lokale repository maken, op het systeem waarop je met Aider werkt. Optioneel kun je deze repository met GitHub verbinden, zodat je in feite een kopie in de cloud hebt. Dat is voor jezelf wel heel praktisch, omdat je veel makkelijker de wijzigingen kunt bijhouden en bestuderen. En je kunt ook met anderen samenwerken aan code.

Ook interessant om te lezen: GitHub Codespaces: altijd de juiste tools bij de hand

We hebben de repository gedeeld met GitHub, zodat je alle veranderingen kunt inzien.

Windsurf Editor

 Complete ontwikkelomgeving

Zoek je een completere ontwikkelomgeving met geïntegreerde AI, dan zijn Cursor AI en Windsurf Editor twee populaire opties. Cursor AI is een gevestigde speler, maar krijgt steeds meer concurrentie van het nieuwere Windsurf Editor. Beide ontwikkelteams blijven verbeteringen doorvoeren om niet voor elkaar onder te doen.

Beide programma’s zijn bovendien klonen van Visual Studio Code, de bekende editor van Microsoft die we ook voor Aider hebben gebruikt. Daarom lijken ze in veel opzichten op elkaar. Het kan handig zijn om verschillende thema’s te gebruiken als je ze naast elkaar gebruikt, zodat je ze uit elkaar kunt houden.

Windsurf Editor werkt met een ingebouwde assistent genaamd Cascade.

Cascade

We hebben ook in Windsurf geprobeerd om het spelletje boter-kaas-en-eieren uit dit artikel te maken. De assistent in Windsurf Editor heet Cascade; via het Cascade-deelvenster kun je hem direct aan het werk zetten. Een leuk detail is dat niet alleen code wordt gegenereerd, maar dat er ook veel aanvullende acties voor je worden uitgevoerd, zoals het aanmaken van een map voor je project en voor de geluiden, en het maken van een mp3-bestand.

Bij elke stap kun je zien welke bestanden worden aangepast en de voorgestelde wijzigingen controleren en bevestigen. Je hoeft niet, zoals bij Aider, zelf een API-sleutel te regelen voor toegang. Je gebruikt steeds het model van Cascade en de administratieve kant wordt via je account geregeld, op basis van credits (zie volgende paragraaf). Zo’n diepere integratie is heel praktisch. Toch heeft de workflow veel overeenkomsten met Aider.

Via een deelvenster kun je een conversatie met Cascade voeren.

Werken met credits

Windsurf werkt met credits voor verschillende taken. Zo worden User Prompt-credits voor elke interactie met de assistent gebruikt en Flow Action-credits voor alle acties die worden uitgevoerd. Als je de limiet bereikt voor het premiummodel, wordt overgeschakeld naar het basismodel. De proefperiode van 14 dagen geeft je ruim voldoende credits om het voorbeeldprogramma uit dit artikel te maken. Sterker nog, je hebt ongeveer vijftien keer meer credits dan nodig, dus je kunt ook grotere en complexere programma’s proberen te maken.

Buiten die proefperiode is, om het premiummodel te gebruiken, een upgrade naar de Pro-versie bijna onvermijdelijk (ca. 18 euro per maand). Je hebt dan wel elke maand een ruime hoeveelheid credits en kunt vrij voordelig credits bijkopen.

Windsurf Editor werkt met een systeem van credits.

Beste optie voor hobbyprogrammeur?

Over het algemeen werkt het programmeren met een chatbot zoals ChatGPT goed. Voor losse functies of snippets werkt het zelfs uitstekend. Maar het is lastig om het overzicht te behouden over de gegenereerde code en eventuele aanpassingen, zeker als het om wijzigingen in meerdere bestanden gaat.

Aider en Windsurf Editor hebben een fijnere workflow, omdat ze de lokale bestanden direct voor je wijzigen, eventueel meerdere tegelijkertijd. Wat kosten betreft is Aider waarschijnlijk interessanter voor de hobbyprogrammeur die af en toe een project oppakt. Je kunt ad-hoc wat credits bijkopen of eens een ander model proberen, lokaal of via bijvoorbeeld OpenRouter. Het opensource DeepSeek R1 bijvoorbeeld. Je kunt bovendien elke ontwikkelomgeving kiezen, terwijl Windsurf Editor volledig op Visual Studio leunt. De integratie met Git ook een praktisch voordeel van Aider.