ID.nl logo
De rol van Nederland bij onderzeese internetkabels
© PXimport
Huis

De rol van Nederland bij onderzeese internetkabels

Onze wereld hangt aan elkaar met onderzeese internetkabels. Die doorkruisen alle oceanen en maken het internet echt een globaal netwerk. Intussen borrelt er steeds meer concurrentie op in deze branche. Wat is de rol van Nederland?

‘Mother earth mother board’, is een legendarisch essay dat sciencefictionauteur Neal Stephenson schreef in 1996 voor ‘Wired Magazine’. Hij dook in de wereld van de onderzeese internetkabels. Die hangen namelijk de hele wereld aan elkaar met hun verbindingen. Ze maken als het ware van Moeder Aarde een moederbord van een computer.

Die onderzeese kabels zijn tegenwoordig nog steeds erg belangrijk. We mogen dan vaak metaforen zoals de cloud gebruiken voor het internet, in de praktijk steunt het wereldwijde netwerk helemaal niet op wolken, maar op enorme hoeveelheden kabels. En die kabels doorkruisen ook onze oceanen. Er bestaan er meer dan driehonderd en een gemiddeld internetgebruiker zendt honderden keren per dag signalen de zeebodem over.

Maar die wereld verandert ook. Overheden beseffen steeds vaker dat zulke zeekabels een kritische infrastructuur vormen. En tegelijk duiken er nieuwe spelers op in de ruimte, zoals de grote techbedrijven Facebook, Google en Amazon. Nederland profiteerde ook lang van het feit dat het een belangrijk Europees knooppunt was voor deze kabels, maar dat duurt misschien niet lang meer.

Buisje met glasvezels

Onderzeese internetkabels zijn dus belangrijk, maar tegelijk zien ze er weinig opvallend uit. Een hedendaagse kabel is amper twee à drie centimeter dik, alhoewel hij al snel vijftig individuele glasvezellijnen bevat.

 “Het is gewoon een flexibel buisje met glasvezels erin”, vertelt Rob Smets, netwerkarchitect bij SURF, een vereniging van Nederlandse onderwijs- en onderzoeksinstellingen die rond informatietechnologie werken. 

“Er zit veel bescherming op in de vorm van plastic en meerdere lagen staal. En ze bevatten soms ook koper, om versterkers van elektriciteit te voorzien.”

Om onderzoekers te ondersteunen houdt SURF er een eigen netwerk op na, dat ook onderzeese componenten bevat. “We lopen graag voorop”, vertelt Smets. “We sluiten op dit moment CERN bijvoorbeeld aan met een verbinding van 400 gigabit per seconde, dat wordt nog lang niet ondersteund door de commerciële operatoren. Wij willen graag dat onze onderzoekers voorop lopen en bandbreedte mag daar geen beperking voor vormen.”

©PXimport

Kabels begraven

Die kabels moeten natuurlijk eerst op de zeebodem komen. Een proces waarin professor Cees van Rhee van de TU Delft zich specialiseert. Zo begon hij zijn carrière in de baggerindustrie, onder andere bij het Nederlandse bedrijf Van Oord, onmiddellijk ook het type speler dat zich bezighoudt met het uitrollen en begraven van dit soort kabels. “In de jaren negentig maakte ik mee hoe die markt enorm explodeerde”, vertelt van Rhee. 

“Voor de dotcombubbel werd er namelijk sterk geïnvesteerd in zulke datakabels, want het internet kwam net op. Er waren enorme verwachtingen. Maar het stortte plots in elkaar. De capaciteit van de kabels bleek namelijk groter dan verwacht, dus hoefden er niet meer zoveel meer bij te komen.”

Zo’n kabel wordt letterlijk uitgerold in de zee. Een schip vaart vooruit en rolt de kabel achter zich uit vanaf een ronde drum. Zo zinkt de kabel wanneer het schip vaart. Afhankelijk van de diepte en het type grond wordt de kabel al dan niet begraven. “De kabel moet beschermd worden”, vertelt van Rhee. “Wanneer vissers met hun net over de bodem vissen, biedt dat een dreiging, maar een anker kan evengoed achter de kabel blijven hangen. Zo trek je ze al snel helemaal kapot.”

Dat is trouwens lang geen theoretische dreiging. Regelmatig raken internetkabels beschadigd. Begin 2020 viel het internet nog helemaal uit in Jemen en in delen van Saudi-Arabië, Ethiopië en Sudan, nadat een kabel werd doorgesneden bij een ongeluk met een anker. In 2016 wist één schip in de Noordzee nog drie kabels door te snijden die naar de Britse Kanaaleilanden gingen, alhoewel de verbinding naar de eilanden in stand werd gehouden door een connectie met Frankrijk.

©PXimport

Internetkabels hebben daarom een beschermende laag van plastic en staal, maar dat is niet altijd genoeg. Het begraven van zulke kabels is dus broodnodig op specifieke plekken, zoals drukke zeeroutes en ondiepere wateren. “Er gaat dan een apparaat over de bodem die een soort greppel maakt”, vertelt van Rhee. 

“Meestal gebeurt dat via waterstralen die de grond losspuiten. Tegelijk wordt de kabel de grond ingeleid tot een bepaalde diepte. Die diepgang varieert van de eisen en het niveau van bescherming dat je wilt bieden.”

Er zijn verschillende types van zulke apparaten, maar heel vaak lijken ze op een slee, die door het schip over de zeebodem wordt gesleept. Een ander element waarmee ze rekening moeten houden, is dat de zeebodem niet statisch is. “Op sommige plekken blijft de bodem liggen, maar op heel veel locaties krijg je zogenaamde zandgolven”, stelt van Rhee. “Door stroming krijg je zandtransport over de bodem.”


Dat proces is vergelijkbaar met wat er op een strand gebeurt. Daar produceren steeds terugkerende golven een soort geribbeld terrein in het zand dat constant verschuift. Die ribbels zie je ook op bepaalde delen van de zeebodem, alhoewel ze daar een grootte van soms enkele meters bereiken. Dat proces zorgt ervoor dat de kabels op bepaalde plekken regelmatig opnieuw begraven moeten worden. Dat gebeurt bijvoorbeeld bij de stroom- en internetkabels naar de Waddeneilanden.

Knooppunt Nederland

Sinds de introductie van het internet in Europa blijkt Nederland een belangrijk knooppunt voor deze onderzeese kabels te zijn. De kabelkaart van Telegeography, de autoriteit in het wereldje, toont zeven kabels die aankomen in Nederland, waarvan er één Trans-Atlantische. “Nederland is historisch gezien een belangrijk knooppunt voor kabels en leidingen in Europa”, vertelt Rudolf van der Berg, consultant bij Stratix, een adviesbureau dat zich heeft gespecialiseerd in telecom. “Historisch gezien werden veel Europese netwerken van en naar Amsterdam gebouwd.”

De oorsprong daarvan hangt samen met hoe het internet groeide op ons continent. “Nederland was heel flexibel rond technologie”, vertelt Van der Berg. “Al in de jaren tachtig liepen er hier mensen bij Sara, Nikhef, CWI en SURF rond die met internet bezig waren. Tegelijk bestond er in de rest van Europa een sterke nationale focus. In Frankrijk gebruikten ze alleen apparatuur van Alcatel en in Duitsland enkel van Siemens. Daar heerste een heel sterke not-invented-here cultuur. Als het dus niet lokaal was, dan wezen ze het af. Toen de Amerikanen naar Europa kwamen, gingen ze daarom aan land in Londen en Amsterdam.”

Heel wat van de bestaande kabels werden in die vroege periode van het internet gelegd, van de jaren negentig tot begin van de nieuwe eeuw. Sinds het instorten van de dotcombubbel vertraagt de markt, zeker in goed verbonden regio’s zoals Europa en Noord-Amerika. Die situatie begint nu te kenteren. Grote internetbedrijven waaronder Google en Facebook betreden steeds vaker de markt en leggen hun eigen kabels aan.

©PXimport

“Nu gebeuren er opnieuw dingen”, stelt Van der Berg. “Ten eerste is er meer capaciteit nodig. Ons internetverbruik stijgt zo snel dat we er meer moeten aanleggen. Daarnaast is het belangrijker om directe verbindingen te hebben. Een lage latency, ofwel een vertraging op het signaal, is belangrijk voor specifieke toepassingen, zoals high-frequency trading. Ten slotte betreden de grote internetbedrijven deze markt, want ze hebben grote behoeften en willen schaalbare capaciteit.”

Google investeerde sinds 2010 in minstens zestien onderzeese kabels, wat miljarden dollars aan investeringen betekent. Begin 2021 kondigde het bedrijf bijvoorbeeld nog aan dat de eigen Trans-Atlantische kabel tussen Virginia en Saint-Hilaire-de-Riez in Frankrijk online was. Facebook blijkt deels eigenaar van tien kabels te zijn. Amazon houdt het dan weer bescheidener en investeerde maar in drie kabels die de Stille Oceaan doorkruisen.

Die nieuwe activiteit verandert het landschap voor onderzeese internetkabels. “Bestaande kabels hebben vaak een club-structuur”, vertelt Van der Berg. “Ze kosten zoveel dat je een consortium nodig hebt om ze te financieren. Tot voor kort werd dit veld vooral gedomineerd door grote telecomoperatoren. Nog steeds zijn de meeste kabels gecontroleerd door groepen telco’s, die er goed aan verdienen. En dat zit de grote internetspelers moeilijk. Zij hebben namelijk steeds grotere behoeftes."

"Maar in zo’n consortium komen, is moeilijk. De grote jongens hebben een businessmodel dat steunt op schaarste en op het exploiteren van de bestaande kabels. De grote techbedrijven bouwen daarom nu nieuwe kabels, die vaak veel meer capaciteit aanbieden dan de bestaande.”

Van pionier naar volger?

Tegelijk zorgt die nieuwe dynamiek voor onrust. Sommigen vrezen dat de sterke positie van Nederland zal wegvallen. “Nederland is een internetpionier”, stelt Judith de Lange, beleidsmedewerker bij de Dutch Datacenter Association (DDA). “Maar hoe minder connectiviteit er naar Nederland komt, hoe slechter dat is voor ons land. Het verzwakt de positie van onze digitale economie en van onze datacenters.”

Maar tegelijk vrezen sectoren zoals datacenters dat de positie van Nederland onder druk staat, zeker wanneer het gaat over de langere, intercontinentale kabels. “We rekenen ons al snel rijk en we zeggen dat we een mooie positie hebben”, vertelt de Lange. “Maar dat gaat voorbij aan het feit dat de rest van de wereld niet stilstaat. Er gebeurt erg veel op het gebied van connectiviteit en Nederland dreigt zijn rol van betekenis daarin te verliezen.”


©PXimport

De oorzaken daarvan zijn complex. “De bestaande Nederlandse kabels zullen tussen 2023 en 2025 end-of-life zijn”, vertelt de Lange. “Dan zullen ze nog functioneren, maar zijn ze ingehaald door snellere en betere technieken. Nu komen er kabels die vele malen sneller zijn. En dat terwijl er geen grote projecten gepland zijn in Nederland. Het speelveld verandert ook. Vroeger had je spelers met een lokale, Europese binding, zoals KPN. Maar nu gaat het vooral over de grote techbedrijven en die hebben geen binding met Nederland.”

Brandbrief

Samen met een reeks andere organisaties, zoals DINL, FCA en SURF stelde DDA daarom in 2020 een brandbrief op, waarin de organisaties de Nederlandse overheid vragen om meer in te zetten op onderzeese kabels. Ze willen vooral omliggende maatregelen en dus geen directe overheidsinvesteringen. De Lange haalt hun voorstel aan om een Nederlands ambassadeur aan te stellen voor internetkabels, die Nederland in het buitenland promoot en als een soort loket dient voor bedrijven die naar Nederland willen komen.

Volgens Rudolf van der Berg van Stratix ligt het complexer. Hij deed een studie voor de Nederlandse overheid naar aanleiding van de brandbrief, en kwam tot de conclusie dat de situatie niet zo dramatisch is. “Vanuit de sector zagen ze het niet direct als een gigantisch probleem voor Nederland”, vertelt hij. Toch is ook hij voorstander van meer overheidsaandacht. “Nederland is nog steeds een uitstekende plek om te landen”, vertelt hij. “En dat moeten we blijven promoten in het buitenland. We hoeven er geen bakken geld tegenaan te gooien, maar de overheid moet wel contact houden met de industrie. Het kan nooit kwaad om erop in te zetten, zodat we nieuwe kabels hiernaartoe kunnen lokken.”

Bij de DDA roepen ze op tot snelle actie. “De schepen die kabels aanleggen zijn tot 2025 volgeboekt”, stelt de Lange. “Wat ons betreft moeten we zo snel mogelijk na de verkiezingen met de nieuwe staatssecretaris aan tafel om een beleid te ontwikkelen. De tijdslijnen zijn erg lang, dus er is haast bij geboden. Het duurt jaren voordat er een overeenkomst is. Dertig jaar geleden bouwde Nederland heel wat zaken, waardoor we nu een dataknooppunt zijn. We moeten in actie komen, zodat we over dertig jaar nog steeds die positie bezetten.”

Glasvezel als sensor

©PXimport

Kabels op de bodem van de zee moeten ook in het oog gehouden worden. Een proces dat de Belgische start-up Marlinks doet via glasvezelkabels. “De klassieke methode om onderzeese kabels te observeren is door er met een schip over te varen”, vertelt Roel Vanthillo, managing director bij Marlinks. Die schepen kijken dan of de kabel vrij ligt op de zeebodem, of kwetsbaar voor mogelijke beschadiging. Maar via nieuwe technologie kan dat makkelijker. 

“Met behulp van fiber optic sensing kunnen we elk punt van een glasvezelkabel omvormen tot een sensor”, vertelt Vanthillo. “We koppelen aan het begin van die kabel een laser. Daarmee kunnen we temperatuur, strain of akoestische vibraties meten.”

Vooral de temperatuur is belangrijk om in te schatten of een kabel niet meer begraven ligt. Vanthillo vergelijkt het met de temperatuur boven en onder de lakens op een bed. Als een kabel begraven ligt onder een hoop zand, dan zal de temperatuur hoger zijn dan wanneer de kabel blootligt.

“De laser schiet een lichtpuls in de kabel”, vertelt Vanthillo. “Glasvezel laat die vrijwel zonder verlies het licht door. Maar er is toch een kleine fractie die terugkaatst, ofwel een backscatter. Daaruit halen we veel informatie. Zaken zoals temperatuur of akoestische trillingen beïnvloeden de frequentie van die backscatter.”

Door dat te analyseren met complexe software ziet Marlinks waar er zich problemen in de kabel voordoen. Dat doen ze erg precies, tot op enkele meters nauwkeurig. Daarin slagen ze door de tijdspanne tussen het verzenden en terugkrijgen van het signaal te analyseren. 

Voorlopig werken ze vooral met energiekabels naar offshore windinstallaties, alhoewel hun technologie ook geconverteerd wordt naar de internetkabels. “De kabels van een windmolenpark naar land zijn erg belangrijk”, vertelt Vanthillo. “Voor een middelgroot park gaat er makkelijk elke dag 200.000 euro aan omzet door. Als zo’n kabel faalt, dan doet dat veel pijn.”

Tekst: Tom Cassauwers

▼ Volgende artikel
Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen
© Pippin - stock.adobe.com
Huis

Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen

Wanneer je een chatbot als ChatGPT of Copilot een vraag stelt, krijg je (hopelijk) een degelijk antwoord. Dit is mogelijk omdat deze AI-modellen zijn getraind met talloze tekstdata, zoals boeken, artikelen en websites. Maar je kunt zo’n model ook koppelen aan een eigen verzameling documenten en deze data dynamisch laten gebruiken.

In dit artikel laten we zien hoe je een AI-chatbot combineert met je eigen documenten om gerichte antwoorden te genereren:

  • Leer hoe RAG jouw documenten gebruikt om contextueel relevante antwoorden te geven
  • Gebruik NotebookLM van Google voor cloudgebaseerde documentanalyse en samenvattingen
  • Installeer en gebruik AnythingLLM lokaal voor volledige controle over je data
  • Ontdek alternatieven zoals Ollama en RAGflow voor geavanceerde lokale set-ups

Lees ook: Makkelijk switchen tussen AI-taalmodellen? Maak kennis met Jan

Dit artikel bespreekt oplossingen om eigen documenten als doorzoekbare database aan een AI-model te koppelen, zowel in de cloud (via NotebookLM) als lokaal (met tools als AnythingLLM en Ollama). Bij dit proces haalt een model eerst relevante informatie uit een specifieke externe bron of database op (retrieval) en gebruikt deze vervolgens om een contextueel antwoord te genereren (generation). Dit heet Retrieval-Augmented Generation, kortweg RAG.

Voor we concreet ingaan op de genoemde tools, leggen we kort uit hoe een AI-chatbot je prompts analyseert en op basis van getrainde kennis een relevant antwoord probeert te genereren. Daarna bekijken we hoe dit in een RAG-context verloopt.

1 LLM-dataverwerking

Veel mensen denken dat een AI-model zoals ChatGPT of andere Large Language Models (LLM’s) zoals Gemini, Grok, Llama of Claude bij een prompt direct een database van webpagina’s doorzoekt, een samenvatting maakt en die als antwoord teruggeeft. Afhankelijk van het model en je vraag kan er soms in live internetbronnen worden gezocht, maar doorgaans werkt dit proces fundamenteel anders.

In de trainingsfase leren LLM’s namelijk hoe woorden, zinnen en concepten samenhangen. Deze informatie wordt vervolgens opgesplitst in kleine woorddelen (tokens) en door een embedding-functie opgenomen (ingebed) als miljarden getallen, oftewel parameters, in één- of meerdimensionale tabellen, zoals vectoren en tensors.

Zo kan het woord ‘bank’, afhankelijk van de context, in een andere tabel belanden. Bij ‘Geld op een bank zetten’ wordt ‘bank’ gekoppeld aan financiële begrippen zoals ‘geld’ en ‘spaar’, terwijl ‘bank’ bij ‘Op een bank zitten’ aan huiselijke begrippen als ‘stoel’ en ‘zit’ wordt gelinkt. Deze structuur heet een transformer-model, en vandaar ‘GPT’: Generative Pre-trained Transformer.

Wanneer je nu een prompt invoert, zet de chatbot deze eerst om in vectoren die de contextuele betekenis weergeven. Deze worden vervolgens vergeleken met de LLM-parameters, waarna het model stapsgewijs de meest waarschijnlijke volgende tokens voorspelt. Uiteindelijk wordt deze tokenrij naar woorden omgezet en krijg je als gebruiker een antwoord terug.

De positionering van (een homoniem als) ‘bank’ in deze vector zal ook afhangen van de context.

2 RAG-dataverwerking

Wanneer je zelf databronnen toevoegt, zoals docx- of pdf-bestanden, of zelfs afbeeldingen, is het onrealistisch dat het LLM hiervoor opnieuw een trainingsfase doorloopt. Dit proces kost namelijk veel tijd en miljoenen euro’s. Daarom wordt gebruikgemaakt van technieken als RAG. Om RAG toe te passen, worden vectordatabases, zoals LanceDB en Pinecone, of document-retrievalsystemen, zoals Elasticsearch en Haystack, ingezet.

Bij vectordatabases worden tekstdata door de ingebouwde ‘embedder’ vooraf omgezet in vectoren, vergelijkbaar met een LLM. Deze vectoren worden opgeslagen in een database die doorzoekbaar is op basis van vectorovereenkomsten. Dit maakt ze geschikt voor contextueel en semantisch zoeken, veel meer dan met traditionele SQL-databanken mogelijk is.

Document-retrievalsystemen slaan de data als tekst op, vaak in gestructureerde velden, waardoor full-text search mogelijk is op basis van trefwoorden en tekstuele overeenkomsten. Deze systemen zijn meer geschikt voor exacte tekstopzoekingen.

Interessante achtergrondinformatie over vectordatabases en hun relatie tot LLM’s vind je onder meer hier.

Tekstdata worden door de ingebouwde embedder in een vectordatabase ondergebracht.

3 RAG-zoekopdrachten

Hoe verloopt een RAG-zoekproces over het algemeen? Eerst upload je alle gewenste documenten naar het systeem. De tekstdata worden daarna, via een lokaal (Ragflow, AnythingLLM) of cloudgebaseerd (NotebookLM) embedding-model, in kleine stukken verdeeld en in een vectordatabase opgeslagen, lokaal of in de cloud.

Wanneer je nu een prompt invoert, wordt deze eveneens door het embedding-model gevectoriseerd. De vectordatabase zoekt vervolgens naar relevante tekstfragmenten op basis van overeenkomsten, waarna de relevantste fragmenten worden opgehaald. Deze fragmenten worden nu gecombineerd met je originele prompt en samen naar het LLM-model gestuurd, lokaal of via een API(-sleutel) naar een cloudmodel als ChatGPT. Het gegenereerde antwoord wordt daarna teruggestuurd naar je systeem.

Draait het RAG-systeem lokaal, dan worden dus alleen de relevante fragmenten en je prompt naar de cloud gestuurd, tenzij ook de chatbot lokaal draait. In dit geval blijft alles lokaal. Je volledige documenten en de bijbehorende vectoren blijven hoe dan ook lokaal, tenzij het hele RAG-systeem in de cloud draait.

Een typisch RAG-scenario: de prompt en (alleen) de relevante data gaan naar het LLM-model.

Even appen?

Veel gebruikers weten niet dat je een AI-bot ook via WhatsApp kunt bevragen. Zo benader je ChatGPT via het telefoonnummer +1 800 2428478. Commerciële bedrijven als het Nederlandse The AI-Book Company hebben inmiddels een verdienmodel ontwikkeld waarbij AI-boeken via WhatsApp worden aangeboden.

De volledige inhoud van een specifiek boek wordt hierbij geüpload naar een document-retrievalsysteem, zoals Elasticsearch of een vectordatabase als LanceDB, en via API’s gekoppeld aan WhatsApp en een AI-chatbot als ChatGPT. Als geregistreerde gebruiker (wat meestal zo’n 10 euro kost) kun je dan via WhatsApp concrete vragen stellen aan het boek, waarna de chatbot de antwoorden genereert. Je hoeft het boek dus niet noodzakelijk zelf eerst (volledig) te lezen.

RAG-AI in de vorm van een WhatsApp-contactpersoon.

4 NotebookLM

Je weet nu ongeveer wat je met een RAG-systeem kunt en hoe dit onderliggend werkt. Hoog tijd nu om zo’n systeem aan de tand te voelen. We beginnen met een cloudgebaseerd RAG-systeem, Google NotebookLM, dat vooral geschikt is als privacy voor jou minder belangrijk is (al claimt Google je persoonsgegevens niet te gebruiken om NotebookLM te trainen).

Ga naar https://notebooklm.google en klik op de knop NotebookLM proberen. Meld je aan met een persoonlijk Google- of Google Workspace-account.

Je merkt dat er standaard al een notebook is aangemaakt: Introduction to NotebookLM. In het Bronnen-menu aan de linkerkant kun je zeven reeds toegevoegde documenten bekijken. Klik op een document voor een geautomatiseerde samenvatting en de belangrijkste aanklikbare onderwerpen. In het document NotebookLM Features lees je bijvoorbeeld welke documenttypes je kunt uploaden. Je kunt hierover open vragen stellen in het chatvenster, zoals: ‘Met welke types bronbestanden kan NotebookLM precies overweg?’ Het antwoord baseert zich grotendeels op tekstfragmenten uit dit document, zoals zichtbaar bij de genummerde bronverwijzingen.

De bot geeft bij de prompt netjes aan hoeveel bronnen hij kan raadplegen (zeven in dit geval). Stel je een vraag als ‘Is NotebookLM een Retrieval Augmented Generation-systeem (RAG)’, dan krijg je een gefundeerd antwoord met verwijzingen naar een of meer documenten, ook al wordt ‘RAG’ niet expliciet in deze documenten vermeld. NotebookLM vult namelijk antwoorden aan met eigen trainingsdata (van Gemini Pro in dit geval) wanneer dat zinvol is. Vragen die geen verband houden met je documenten blijven echter onbeantwoord.

Desnoods haalt NotebookLM aanvullende informatie uit de eigen trainingsdata op.

5 Bronnen toevoegen aan NotebookLM

We laten je zien hoe je een eigen notebook samenstelt. Een notebook kun je zien als een project dat uit meerdere documenten bestaat, vergelijkbaar met een map met bestanden. Klik op het pictogram linksboven om een overzicht van bestaande notebooks te zien. Kies hier + Nieuwe maken om documenten toe te voegen. Dit kunnen lokale bestanden zijn, zoals pdf’s, txt-bestanden en diverse audioformaten met spraak, maar ook documenten en presentaties uit Google Drive, links naar websites, publieke YouTube-video’s (met onderschriften) of tekst van het klembord. Per notebook kun je maximaal vijftig bronnen uploaden, elk tot 200 MB groot.

Audiobestanden worden automatisch intern getranscribeerd, zodat je er vragen over kunt stellen. Met de knop + Bron toevoegen voeg je meer bronnen toe aan een geselecteerd notebook. Met vinkjes bepaal je welke bronnen de dienst mag gebruiken bij vragen. Je kunt ook anderstalige documenten uploaden en in je voorkeurstaal, zoals Nederlands, vragen stellen en antwoorden ontvangen. De taalvoorkeur stel je in via de instellingen van je Google Account.

Ook anderstalige bronnen (rechts: een pdf in Adobe Reader) kun je meteen bestuderen en bevragen in je eigen taal.

6 Speciale notities in NotebookLM

Wil je antwoorden bewaren, klik dan op Notitie toevoegen. De notitie wordt opgeslagen onderaan het rechterdeelvenster Studio. Hier vind je ook nog allerlei andere knoppen:

  • Veelgestelde vragen genereert een nieuwe notitie met korte vragen over de geselecteerde bronnen, inclusief antwoorden.

  • Studiemateriaal deelt je bronmateriaal op in een glossarium, korte quizvragen met antwoorden en complexere essayvragen.

  • Overzichtsdocument toont de belangrijkste feiten en inzichten uit je bronnen, inclusief een korte inhoud, kernpunten, relevante citaten en een conclusie.

  • Tijdlijn geeft een chronologische lijst met belangrijke feiten, gebeurtenissen en eventueel betrokken personages.

  • Audio-overzicht zet bronmateriaal om in een podcast-achtige Engelstalige conversatie, die als wav-bestand te downloaden is (en die je, indien gewenst, naar bijvoorbeeld mp3 kunt omzetten, zoals met het gratis Shutter Encoder). Het zou ons weinig verbazen als dit (in de Plus-versie?) binnenkort bijvoorbeeld ook in het Nederlands kan, met je eigen stem.

Je kunt notebooks delen met andere Google-gebruikers als Kijker of Bewerker, maar je kunt op elk moment ook weer de toegang intrekken. Wie NotebookLM in Pro gebruikt, kan de chatresponses verder bijsturen en meer notebooks, bronnen, vragen en overzichten maken. Dit abonnement biedt tot 500 notebooks, elk met maximaal 300 bronnen, en dagelijks 500 chatvragen en 20 audio-overzichten (meer informatie vind je hier).

Van een tijdlijn over studiemateriaal tot een heuse podcast met slechts enkele muisklikken.

7 Cloud versus lokaal

Tools als NotebookLM zijn bijzonder nuttig voor het bestuderen, analyseren en kritisch bevragen van zowel tekst- als audiobronnen. Een nadeel is dat je bronnen naar de cloud moet uploaden. Dat kan onhandig en tijdrovend zijn en vormt altijd een risico voor de privacy, ook al zegt Google deze data niet voor trainingsdoeleinden te gebruiken.

Met de juiste tools kun je dit proces ook deels of volledig lokaal uitvoeren, zodat er weinig tot geen data online komen. Een geschikte oplossing is de gratis tool AnythingLLM, een opensource-framework waarmee je LLM’s kunt beheren en gebruiken, zowel in de cloud (meestal via API’s) als lokaal. Je kunt het systeem bovendien uitbreiden met eigen data via RAG.

Het hele systeem van AnythingLLM kan ook in de cloud worden gehost. Zo’n gehoste oplossing kost ongeveer 50 dollar (ca. 48 euro) per maand voor vier gebruikers en honderd documenten) of 99 dollar (ca. 95 euro) per maand voor grotere teams of databibliotheken.

Wil je volledige controle, dan kun je zowel dataopslag, embedder, vectordatabase als het LLM-model lokaal draaien. Hosting kan op een eigen pc of server, bijvoorbeeld als uitvoerbare applicatie voor Windows, macOS of Linux. In Linux gebruik je bijvoorbeeld dit commando:

curl -fsSL https://cdn.useanything.com/latest/installer.sh | sh

Een andere optie is om een dockercontainer te gebruiken voor een meer geïsoleerde en schaalbare omgeving.

AnythingLLM laat zich makkelijk installeren voor diverse platformen.

8 AnythingLLM

We tonen hier hoe je met de desktopapplicatie (versie 1.7.2 in ons geval) voor Windows (x64) aan de slag kunt. Je installeert deze suite met diverse AI-tools via het uitvoerbare bestand in slechts een paar muisklikken, waarna de suite direct klaar is voor gebruik. De systeemeisen hangen af van wat je wilt doen, zoals het gebruik van een lokale embedder, vectordatabase en/of LLM. Officieel zijn 2 GB geheugen, een dualcore-cpu en 5 GB opslagruimte toereikend, maar dit zijn absolute minimumwaarden, geschikt als je vooral externe diensten (zoals in de cloud) gebruikt.

Bij de eerste keer opstarten van AnythingLLM klik je op Get started. Je selecteert vervolgens een geschikte LLM-provider voor het genereren van responses op basis van je prompts en meegestuurde tekstfragmenten. Standaard wordt hier AnythingLLM voorgesteld, die onderliggend Ollama gebruikt (zie het kader 'Ollama en RAGflow’). Kies uit de veertien voorgestelde LLM’s, met onder meer modellen van Meta, Microsoft, Google en Mistral. De meeste zijn tekstmodellen, maar een paar zijn multimodaal en ondersteunen in principe ook afbeeldingen. Bij elk model staat een GB-waarde die aangeeft hoeveel geheugen nodig is (bij voorkeur VRAM van de gpu). Laat je keuze mede hierdoor bepalen. Selecteer een model zodat de aanduiding Active verschijnt en druk op de rechterpijlknop.

Je kiest zelf de LLM die je binnen je werkruimte in AnythingLLM wilt gebruiken: lokaal of extern.

Ollama en RAGflow

AnythingLLM profileert zich als een alles-in-één AI-applicatie, maar je kunt ook kiezen voor een handmatigere aanpak. Een combinatie van Ollama en een tool als RAGflow is een bruikbaar alternatief. Deze opzet vereist wel meer configuratie, maar RAGflow biedt meer opties voor finetuning.

Ollama (beschikbaar voor Windows, macOS en Linux) stelt je in staat om LLM’s lokaal te draaien of via API’s met cloudgebaseerde LLM’s te verbinden. Wil je zelf de locatie van de gedownloade LLM’s bepalen, maak dan in Windows een omgevingsvariabele aan: OLLAMA_MODELS=<pad_naar_downloadmap>. Op www.ollama.com/search kun je nu een LLM kiezen en het bijbehorende opdrachtregelcommando vinden, bijvoorbeeld ollama run llama3.2:1b. Je kunt je chatprompts meteen op de bijbehorende prompt invoeren.

RAGflow installeer je op Windows het eenvoudigst via Docker Desktop, nadat je WSL2 hebt geïnstalleerd (met het commando wsl --install). Download het zip-archief van RAGflow (druk op Code en Download ZIP). Raadpleeg de Readme voor meer details. Navigeer naar de uitgepakte map en voer hier dit commando uit:

docker compose -f docker/docker-compose.yml up

De container wordt nu toegevoegd in Docker Desktop. Zorg dat de container is gestart en open de webinterface van RAGflow via localhost:80 voor verdere configuratie, na je aanmelding. Bij Model Providers kun je nu Ollama selecteren en uit een van de gedownloade LLM’s kiezen.

RAGflow met Ollama: een sterk duo, maar wel wat set-up- en configuratiewerk.

9 Werkruimtes

Je komt op een overzichtspagina terecht waar je naast de gekozen LLM (in dit voorbeeld AnythingLLM x Ollama) ook de standaard geselecteerde embedder (Anything LLM Embedder) en de vectordatabase (LanceDB) ziet. AnythingLLM kiest bewust voor lokaal werkende oplossingen om je privacy te beschermen. Je kunt deze instellingen later wijzigen, maar bevestig nu met de rechterpijlknop. Klik eventueel op Skip Survey en vul de naam in van je eerste werkruimte. Een werkruimte functioneert als container voor documenten en gesprekken rond een specifiek thema of project, zodat je gestructureerd kunt werken.

Nadat je op de rechterpijlknop hebt gedrukt, verschijnt het hoofdvenster van AnythingLLM: links zie je de werkruimtes en rechts een welkomstvenster. Via de knop + Nieuwe Werkruimte kun je extra werkruimtes aanmaken. Een naam geven is voldoende, omdat nieuwe werkruimtes standaard de net ingestelde algemene instellingen overnemen.

Klik op het tandwielpictogram bij een werkruimte. Op het tabblad Algemene instellingen kun je de naam wijzigen of de werkruimte verwijderen. Weet wel dat alles wat je embed in de vectordatabase van toegevoegde bronbestanden verdwijnt bij verwijdering. De bronbestanden zelf blijven behouden.

Je kunt werkruimtes maken, benoemen en ook weer verwijderen.

10 Bronbestanden

Je voegt bronbestanden als volgt aan je werkruimte toe. Klik vanuit het hoofdvenster op de uploadpijl naast de werkruimte. Er opent een dialoogvenster met twee knoppen: Documents en Data Connectors. Via Documents kun je diverse bestandstypes uploaden, zoals txt-, pdf-, csv- en xls(x)-bestanden, of ze direct verslepen naar het venster. Deze bestanden worden door de ingebouwde document-processor geanalyseerd (waarbij ze worden opgesplitst in brokken (chunks) van een instelbaar aantal tokens) en vervolgens in het deelvenster My Documents geplaatst. Documenten die je eerder in andere werkruimtes hebt toegevoegd, zijn hier ook beschikbaar (met de indicatie Cached). Je kunt ook naar webpagina’s of online documenten verwijzen door de url in te voeren en op Fetch website te klikken. Toegevoegde documenten worden standaard geplaatst in de map custom-documents, maar je kunt ze ook organiseren in nieuwe mappen via + New Folder.

Selecteer documenten die je wilt gebruiken in de werkruimte en klik op Move to Workspace. Controleer ook de knop Data Connectors. Hiermee kun je (online) documenten ophalen via diensten als GitHub Repo, GitLab Repo en Confluence, of zelfs YouTube-transcripts en webpagina’s via Bulk Link Scraper. Bij deze scraper vul je een url in, plus de gewenste linkdiepte en het maximaal aantal te lezen pagina’s. Deze gegevens worden dan eveneens aan je documenten toegevoegd.

Bevestig met Save and embed om de documenten in de vectordatabase te embedden. Dit proces kan, afhankelijk van de hoeveelheid data, wel even duren.

Voeg alle gewenste bronbestanden (zoals documenten of webpagina’s) toe aan het systeem.

11 Chatomgeving

In het hoofdvenster open je de gewenste werkruimte. Standaard is er al één thread actief (Default): een conversatie tussen jou en de LLM. Je kunt extra threads aanmaken via + New Thread. Voer je prompts in en de LLM geeft (hopelijk relevante) antwoorden op basis van de doorgestuurde tekstfragmenten. Klik op Show Citations om te zien welke bronnen zijn gebruikt. Door op een bron te klikken, zie je de specifieke tekstfragmenten. Je kunt prompts ook inspreken (microfoon-pictogram) en de antwoorden laten voorlezen (luidspreker-pictogram).

Daarnaast zie je een paperclip-pictogram voor het ad hoc uploaden van extra documenten en een pictogram voor slash-commando’s en agents. Het standaard beschikbare slash-commando is /reset, waarmee je je chatgeschiedenis wist en een nieuwe sessie start. Voeg via Add a New Preset eigen commando’s toe, zoals /vertaal met een prompt als ‘Vertaal het zojuist gegeven antwoord naar het Engels’ en Engelse vertaling als beschrijving. Deze commando’s komen automatisch ook beschikbaar in je andere threads en werkruimtes.

Overigens kun je je chatgeschiedenis (van alle werkruimtes) ook bekijken, exporteren en verwijderen via het moersleutel-pictogram, in de categorie Beheerder / Werkruimte Chats.

Slash-commando’s: handig voor vaak gebruikte prompts.

12 Agents

Agents functioneren als autonome modules die AI-modellen gebruiken om specifieke taken zelfstandig uit te voeren, zoals informatie verwerken of acties uitvoeren op basis van ingestelde parameters. Klik op het moersleutel-pictogram linksonder (Open settings) en navigeer naar Agent Vaardigheden. Hier vind je standaard zeven geïntegreerde agents, waarvan je er vier kunt in- of uitschakelen, zoals Generate charts en Web Search.

We nemen deze laatste als voorbeeld. Activeer deze, selecteer een SERP (Search Engine Results Provider), bijvoorbeeld DuckDuckGo (bij sommige moet je wel nog een API-sleutel invullen). Bevestig met Save. Laat nu in de chatomgeving je prompts voorafgaan door @agent om automatisch geactiveerde en relevante agents op te roepen. Zo kan de agent actuele informatie van internet ophalen, waarbij standaard tot tien zoekresultaten worden verwerkt.

Verwant aan agents zijn de ‘agent skills’. Open de rubriek Community Hub en ga naar Explore Trending. Klik bij een skill op Import en bevestig met Import Agent Skill. Ga daarna terug naar Agent Vaardigheden, waar de skill is toegevoegd. Schakel de skill in om deze beschikbaar te maken.

Met en zonder zoekopdrachten op het web: een merkbaar verschil.

13 Instellingen

Via Open settings kun je op algemeen niveau diverse onderdelen aanpassen. In de categorie AI Providers wijzig je bijvoorbeeld de LLM, Vector Database en Inbedder, zoals een cloudgebaseerde dienst als OpenAI, Pinecone of Gemini. Voor veel opties is een API-sleutel vereist, die vaak niet gratis is. Je stelt hier ook spraak-naar-tekst- (standaard: Local Whisper) en tekst-naar-spraak-providers in. Voor tekst-naar-spraak is standaard de lokale provider PiperTTS ingesteld, maar je kunt bijvoorbeeld ook een bekende dienst als ElevenLabs kiezen (met API).

Bij Aanpassing stel je het thema, de taal en de automatische berichten voor gebruikers in. Deze instellingen gelden standaard voor alle werkruimtes, maar kunnen op werkruimteniveau worden overschreven. Klik op het tandwielpictogram naast een werkruimte om deze opties aan te passen.

In het tabblad Chat Instellingen kies je een specifieke LLM Provider of stel je de Chatmodus in. Standaard staat dit op Chat, maar met de optie Query gebruikt het systeem uitsluitend je eigen documentcontext voor responses, zonder de getrainde dataset van de LLM te raadplegen. Hier bepaal je ook hoeveel eerdere chats worden meegenomen (standaard 20) en met welke achterliggende prompt de werkruimte rekening moet houden.

Op het tabblad Agent Configuratie kun je agenten en skills selecteren die specifiek voor deze werkruimte gelden. Bevestig alle aanpassingen telkens met de voorziene knoppen.

Je kunt ook instellingen vastleggen die specifiek zijn voor de geselecteerde werkruimte.

▼ Volgende artikel
Van prompt naar programma: leer programmeren met AI
© monsitj - stock.adobe.com
Huis

Van prompt naar programma: leer programmeren met AI

Niet alleen het saaie en repetitieve werk wordt vervangen door AI. Je bent óók als kenniswerker niet meer zeker van een baan. Software wordt al grotendeels door AI geschreven. Gelukkig kun je daar als hobbyprogrammeur ook enorm van profiteren. Het brengt naast tijdwinst ook veel gemak. We helpen je op weg met drie praktische tools: ChatGPT, Aider en de Windsurf Editor. We maken enkele eenvoudige voorbeelden, zodat je een helder beeld hebt van je potentiële workflow.

In dit artikel laten we zien hoe je met hulp van AI razendsnel leert programmeren en zelfs complete programma’s bouwt:

  • Gebruik ChatGPT als programmeerpartner en laat het een volledig werkend spelletje bouwen met HTML, CSS en JavaScript
  • Installeer Aider en gebruik het in combinatie met Git om projecten via de terminal te ontwikkelen
  • Ontdek Windsurf Editor als grafisch alternatief met AI-assistent Cascade

Lees ook: Leren programmeren? Met deze tools is coderen geen geheimcode meer

Grote taalmodellen zijn al zo goed dat je comfortabel complete programma’s door AI kunt laten maken, zelfs zonder enige programmeerkennis. Afhankelijk van de tools die je gebruikt, voelt dat toch alsof je samen aan code werkt, ook wel pair-programmeren genoemd. Je houdt dus enige controle en kunt er, als je oplet, veel van leren. Ook al wordt het harde werk door AI gedaan.

Een bijkomend voordeel is dat je heel gericht aanpassingen kunt laten doen of vragen kunt stellen over de code, zonder dat je de documentatie of websites als Stack Overflow hoeft door te spitten. Het is geen verrassing dat laatstgenoemde website met fors dalende bezoekersaantallen te maken heeft. Ook andere taken, zoals het schrijven van de documentatie, zijn snel geregeld.

In dit artikel gaan we een eenvoudig programma maken met AI, zodat je een goed beeld hebt van de workflow. We gebruiken drie verschillende tools. We starten met het vertrouwde ChatGPT, al kun je ook bijvoorbeeld voor Claude of Gemini kiezen. Daarna gaan we met Aider in combinatie met Git aan de slag. Daarmee werk je ‘samen’ aan programmacode via de opdrachtprompt, in ons voorbeeld binnen het vertrouwde Visual Studio Code. Tot slot gaan we met de Windsurf Editor aan de slag, een completere grafische ontwikkelomgeving met geïntegreerde AI-features, die je van begin tot eind ondersteunt bij het maken van je programma. 

Basisbeginselen van het programmeren

Het is handig als je de basisbeginselen van een programmeertaal kent. Ook daar kan AI van nut zijn. Je kunt veel leren van de voorbeelden die worden gegenereerd. Je kunt elk detail uit laten leggen, of om meer voorbeelden vragen. Dat is heel effectief!

Ook om de basisbeginselen te leren is AI nuttig. Pas bijvoorbeeld de Pareto-methode toe. Die methode stelt dat 80 procent van de resultaten voortkomt uit 20 procent van de inspanningen. Vraag de chatbot om een plan te maken dat deze regel toepast op het leren programmeren van bijvoorbeeld Python, door te focussen op 20 procent van de concepten, tools en technieken die 80 procent van de praktische toepassingen en problemen oplossen voor een beginnende programmeur. Vraag om een gestructureerd plan dat in korte tijd resultaat oplevert, inclusief voorbeelden en kleine projecten om vaardigheden direct toe te passen.

Vraag aan ChatGPT om een leerplan op te stellen om je te helpen bij het programmeren.

ChatGPT

Chatbot

Grote taalmodellen (LLM’s) vormen de basis voor chatbots als OpenAI’s ChatGPT en Anthropics Claude, maar óók voor de tools die we hierna behandelen. Feitelijk benaderen we de chatbots in dit eerste deel van het artikel rechtstreeks, via een browser of app. De andere tools gebruiken de API van deze bedrijven. Raadpleeg eventueel voor het starten met ChatGPT deze basiscursus.

De nieuwere modellen (we gebruiken overwegend ChatGPT 4o en Claude 3.5 Sonnet) laten heel goede resultaten zien voor programmeertaken. Ze helpen uiteraard niet alleen om programmacode te schrijven maar kunnen code ook uitleggen, fouten oplossen en de documentatie schrijven. Ook kun je uitstekend brainstormen over een project of ideeën. Het is daarom, óók als je andere tools voor programmeren gebruikt, enorm praktisch om erbij te hebben! Toegang tot ChatGPT is gratis met beperkingen. Een abonnement is minder gelimiteerd en geeft vaak toegang tot nieuwere modellen (zoals o1 of o3-mini). Zo’n abonnement is niet bruikbaar voor de andere tools, die gebruiken namelijk de API waarvoor je aparte credits moet aanschaffen.

Een chatbot biedt goede ondersteuning bij al je programmeervragen.

Eerste stappen

We beginnen met een eenvoudig voorbeeld en vragen aan ChatGPT om een spelletje boter-kaas-en-eieren te maken, ook wel bekend als tic-tac-toe. Hoewel het Engels soms betere resultaten kan geven, werken we voor dit artikel volledig in het Nederlands. We starten met deze prompt: “Maak een volledig functionele boter-kaas-en-eieren voor in een browser. Maak de HTML-structuur, voeg CSS-stijlen toe en implementeer de JavaScript-logica. Maak een scheiding tussen HTML, CSS en JavaScript. Zorg dat het programma responsief is zodat het bij elke schermgrootte werkt.”

ChatGPT genereert de gevraagde code. Je kunt individueel de HTML, CSS en JavaScript kopiëren. Om het te proberen, kun je alles plakken op websites als www.jsfiddle.net en www.codepen.io. Voor dit voorbeeld hebben we bij JSFiddle een projectpagina aangemaakt. We gaan dit voorbeeld in de volgende stappen verder verbeteren, steeds met links naar de verbeterde versie.

De eerste versies van het spel boter-kaas-en-eieren.

Geluiden toevoegen

We vragen ChatGPT om het programma aan te passen, zodat er een geluid wordt afgespeeld bij elke zet. ChatGPT voegt daarop een audio-element toe aan de HTML-code. Het past ook het script aan om dit aan te roepen bij elke zet. Je moet nog wel zelf het mp3-bestand plaatsen in de uiteindelijke programmamap of een volledige link naar het mp3-bestand invullen in de HTML-code:

<audio id="move-sound" src="muisklik.mp3"></audio>

Er zijn overigens veel websites waar je leuke geluidseffecten kunt vinden die je vrij kunt gebruiken, waaronder Pixabay. Op deze pagina zie je onze aangepaste versie.

De aangepaste HTML-code bevat een verwijzing naar een mp3-bestand.

Computertegenstander

We vragen ChatGPT vervolgens om een slimme computertegenstander toe te voegen, waarbij aan het begin van het spel wordt gekozen wie er mag beginnen. Via deze webpagina kun je deze versie zien. De computertegenstander blijkt in eerste instantie overigens helemaal niet zo slim, waardoor je makkelijk je potjes wint. Maar dat is snel opgelost. Na ons verzoek om de computertegenstander slimmer te maken, controleert het programma voortaan eerst op mogelijke winnende zetten en blokkeert het de tegenstander indien nodig. Als er geen direct winnende of blokkerende zetten zijn, kiest het een willekeurige lege cel. Deze slimmere versie kun je hier bekijken.

Het aangepaste script op een canvas in ChatGPT.

Uiterlijk verfraaien

Als laatste hebben we gevraagd het uiterlijk wat mooier te maken. Hierbij wordt voornamelijk de CSS-code aangepast om de visuele stijl van het spel te verbeteren. Het resultaat is geslaagd: ChatGPT geeft de achtergrond een mooi kleurverloop. Ook zijn de stijlen van de knoppen en speelvelden aangepast. Het levert een veel moderner en aantrekkelijker uiterlijk op.

Je kunt ChatGPT uiteraard steeds vragen om het script of een deel daarvan uit te leggen. Ben je het overzicht over de wijzigingen kwijt, dan kun je uiteraard ook vragen om de laatste HTML-code in te zien, of de laatste versie van het script. Eventueel op een canvas. Toch misten wij in ChatGPT soms wat overzicht en is het bovendien lastig om een stapje terug te doen als een aanpassing niet het gewenste resultaat oplevert. Dit zijn zaken die we in het volgende deel gaan aanpakken met Aider.

De gemoderniseerde versie van boter-kaas-en-eieren.

Contextvenster bij een taalmodel

Bij het werken met een groot taalmodel ofwel een Large Language Model (LLM) zijn er enkele technische beperkingen. Een daarvan is het contextvenster. Dat kun je zien als de hoeveelheid tekst die het model kan onthouden, gemeten in tokens. Een token is een deel van een woord en kan ook spaties en leestekens bevatten. Gemiddeld is een token ongeveer 3 tot 4 tekens groot.

Eerdere versies van ChatGPT hadden een relatief klein contextvenster van 4096 tokens. Het kan dan niet altijd alle details onthouden van de gebruikte teksten. Tegenwoordig is het contextvenster veel groter, en onthouden de modellen gemakkelijk 128.000 tokens of meer. Dat is ongeveer een heel boek! Dat is niet alleen nuttig bij het werken met hele lange teksten of artikelen, maar ook bij programmeerwerk, waar je vaak met grote bibliotheken te maken hebt.

Aider

Opdrachtprompt

Voor grotere programmeerprojecten is het werken met een chatbot al snel vervelend en verwarrend. Veel praktischer is een tool die met jouw eigen projectbestanden werkt en zelf of samen de gewenste aanpassingen maakt. Als je geen moeite hebt met het werken met een opdrachtprompt, is Aider een uitstekende optie. Die tool helpt met het schrijven en aanpassen van code.

Aider is opensource en werkt met heel veel LLM’s samen. Hier gebruiken we de API voor Claude 3.5 Sonnet, maar je kunt ook de API van OpenAI gebruiken of een LLM die je zelf lokaal draait of elders, zoals via OpenRouter. De integratie met Git is enorm praktisch. Voor elke aangebrachte wijziging voert het een ‘commit’ uit, voorzien van een duidelijke omschrijving, zodat je achteraf een goed overzicht met alle veranderingen hebt en ook stapjes terug kunt doen. Niet alle alternatieven bieden dit en dat is vooral een gemis als er iets fout gaat en je geen idee meer hebt hoe je dat moet oplossen.

Aider werkt samen met alle gangbare LLM’s.

Voorbereiding

We willen weer laten zien hoe je het spelletje boter-kaas-en-eieren met Aider zou kunnen maken. We gebruiken het voor velen vertrouwde programma Visual Studio Code onder Windows en installeren Aider via een opdrachtprompt binnen die ontwikkelomgeving. Binnen de editor kun je uiteraard alle gegenereerde bestanden bekijken en handmatig aanpassen. Voor de installatie van Aider heb je Python nodig. Zet tijdens de installatie van Python een vinkje bij Add python.exe to PATH, zodat je Python vanuit elke map kunt aanroepen.

Installeer ook Visual Studio Code als je dat nog niet eerder hebt gedaan. Visual Studio Code biedt een mogelijkheid om Copilot als assistent te gebruiken, maar dat slaan we hier over.

Installeer ook Git, zodat versiebeheer mogelijk is. Kies tijdens de installatie van Git voor het gebruik van Visual Studio Code als standaardeditor. Verder kun je alle standaardinstellingen accepteren. Als je Python, Visual Studio Code en Git hebt geïnstalleerd, kun je door met de installatie van Aider.

Installeer Python onder Windows voordat je met Aider aan de slag gaat.

Installatie Aider

We kunnen nu Aider installeren. Open daarvoor Visual Studio Code en kies in het menu de optie Terminal / New Terminal. Verander de terminal, via de optie rechtsboven in het venster, naar Git Bash. Installeer daarna Aider met de volgende twee opdrachten:

python -m pip install aider-install
aider-install

Sluit de terminalvenster via het kruisje rechtsboven. Open dan een nieuwe terminal en wissel weer naar Git Bash. Als je Aider niet kunt aanroepen met aider zul je het PATH moeten uitbreiden met de aangegeven opdracht, zoals in het voorbeeld hieronder:

export PATH="C:\\Users\\gertj\\.local\\bin:$PATH"

Zorg dat je in dit voorbeeld voor Claude 3.5 Sonnet een API-sleutel hebt en voldoende credits om mee te beginnen (zie het kader ‘API-sleutel maken voor Claude’). Exporteer deze API-sleutel zodat Aider deze direct kan gebruiken:

export ANTHROPIC_API_KEY=sk-ant…

Maak nu een nieuwe map voor je toepassing, blader naar die map en maak een Git-repository:

mkdir tictactoe
cd tictactoe
git init .

Je kunt nu beginnen met programmeren, met de ondersteuning van Aider!

We installeren Aider om het binnen Visual Studio Code te gebruiken.

API-sleutel maken voor Claude

Bij Aider werken we zoals aangegeven met Claude 3.5 Sonnet, een populaire optie onder programmeurs. Voor toegang is een API-sleutel nodig. Ga daarvoor naar de console van Anthropic. Vul je e-mailadres in. Via e-mail ontvang je een beveiligde link waarmee je kunt inloggen. Ga dan naar Settings / API keys en klik op Create Key. Vul een naam in, bijvoorbeeld Aider, en klik op Add. Noteer de API-sleutel, deze is later niet meer zichtbaar!

Je hebt ook wat credits nodig. Ga daarvoor naar Billing en voeg credits toe met een creditcard via de optie Add Funds. Begin met een klein bedrag, zoals 10 dollar. Heb je over? Je kunt het altijd nog opmaken door een chatbot als Jan met de API te verbinden.

Via de console van Anthropic kun je een API-sleutel maken.

Programma maken

We gaan ons eerste programma maken. Zorg dat je een terminalvenster hebt geopend en bent gewisseld naar Git Bash. De assistent start je dan met de volgende opdracht:

aider --sonnet

Er wordt de eerste keer gevraagd om .aider* en .env toe te voegen aan .gitignore. Dat raden we aan! Hiermee voorkom je dat deze bestanden, vaak met wachtwoorden en dergelijke, per ongeluk in je Git-repository worden opgenomen en daardoor in potentie online komen, als je de repository via GitHub beschikbaar maakt.

Via de prompt kun je nu je opdrachten afvuren. We vragen zoals eerder om een volledig functionele en responsieve boter-kaas-en-eieren voor in een browser met de vereiste HTML-structuur, CSS-stijlen en JavaScript-logica in aparte bestanden.

Aider gaat direct aan de slag en laat heel overzichtelijk alle aanpassingen zien, met een beschrijving van de uiteindelijke functionaliteit. Het vraagt netjes of het de nieuwe bestanden mag maken (index.html, styles.css en script.js) en daarna of het deze mag openen in een browser. Het spel is in deze eerste versie volledig responsief met een duidelijke gebruikersinterface, houdt de speelstatus bij, detecteert wanneer iemand wint of als het een gelijkspel is, heeft een knop om het spel opnieuw te starten en is helemaal in het Nederlands. Een goed begin!

Aider heeft het programma voor ons uitgewerkt.

Aanpassingen maken

We vragen opnieuw in natuurlijke taal om wijzigingen te maken. De workflow is erg prettig. Aider geeft eerst aan welke bestanden waarschijnlijk moeten worden gewijzigd. Voor het geluid stelt het bijvoorbeeld wijzigingen in index.html en script.js voor. Dan vraagt Aider of het deze bestanden mag toevoegen aan de chat.

Als de radartjes zijn uitgedraaid, na interactie met Claude, geeft Aider heel nauwkeurig aan welke regels in welke bestanden moeten worden gewijzigd. Ook geeft Aider aan dat je een mp3-bestand genaamd move.mp3 in dezelfde map moet plaatsen.

We vragen Aider daarna ook om een slimme computertegenstander toe te voegen. Die is meteen heel slim en probeert direct te winnen als dat kan, blokkeert winnende zetten van de tegenstander, probeert het centrum te veroveren en kiest anders voor hoeken of willekeurige zetten.

Tot slot vragen we Aider om het programma te verfraaien met een moderner uiterlijk. Dat levert een flinke metamorfose op. Bekijk hier het resultaat.

Via een comfortabel proces maakt het alle gewenste aanpassingen.

Kosten voor werken met Aider

We hebben tijdens het werken met Aider continu de credits in de gaten gehouden. We controleerden dit via de console bij Anthropic, maar Aider zelf toont ook bij elke actie welke kosten het heeft gemaakt. Voor de meeste aanpassingen gaat het om zo’n 5 tot 11 dollarcent. In totaal heeft het programma ongeveer 0,23 dollar (circa 0,22 euro) gekost. Het hangt er voornamelijk vanaf hoeveel tokens er nodig zijn, wat weer samenhangt met de omvang van de bestanden die aan de chat worden toegevoegd.

Integratie met Git

De standaard integratie met Git biedt veel voordelen. Als Aider aanpassingen maakt aan een bepaald bestand zal het in Git een heldere beschrijving toevoegen aan de zogeheten commit. In Visual Studio Code kun je deze historische aanpassingen eenvoudig terugzien. Klik daarvoor op een bestand en open in de balk aan de linkerkant Timeline. Zorg dat de filterinstelling is ingesteld op Git History.

Nu zie je de commit-geschiedenis van het geselecteerde bestand. Door op een specifieke commit te klikken, kun je de aangebrachte wijzigingen bekijken. Binnen Aider zijn er ook nog wat trucjes. Zo kun je met /diff zien wat de laatste veranderingen zijn. Met /undo kun je die eenvoudig ongedaan maken.

We hebben de repository op GitHub gezet. Ook hier kun je alle veranderingen bekijken. Open daarvoor een bestand, zoals script.js, en ga dan rechtsboven naar History. Hier zie je de verschillende wijzigingen. Als je op een van de aanpassingen klikt, zie je netjes welke veranderingen in de code zijn gemaakt.

Je kunt handig zien welke historische wijzigingen zijn aangebracht in bestanden.

Git en GitHub

Aider gebruikt een git-repository. Sommige mensen verwarren dit met GitHub. Je kunt met Git prima alleen een lokale repository maken, op het systeem waarop je met Aider werkt. Optioneel kun je deze repository met GitHub verbinden, zodat je in feite een kopie in de cloud hebt. Dat is voor jezelf wel heel praktisch, omdat je veel makkelijker de wijzigingen kunt bijhouden en bestuderen. En je kunt ook met anderen samenwerken aan code.

Ook interessant om te lezen: GitHub Codespaces: altijd de juiste tools bij de hand

We hebben de repository gedeeld met GitHub, zodat je alle veranderingen kunt inzien.

Windsurf Editor

 Complete ontwikkelomgeving

Zoek je een completere ontwikkelomgeving met geïntegreerde AI, dan zijn Cursor AI en Windsurf Editor twee populaire opties. Cursor AI is een gevestigde speler, maar krijgt steeds meer concurrentie van het nieuwere Windsurf Editor. Beide ontwikkelteams blijven verbeteringen doorvoeren om niet voor elkaar onder te doen.

Beide programma’s zijn bovendien klonen van Visual Studio Code, de bekende editor van Microsoft die we ook voor Aider hebben gebruikt. Daarom lijken ze in veel opzichten op elkaar. Het kan handig zijn om verschillende thema’s te gebruiken als je ze naast elkaar gebruikt, zodat je ze uit elkaar kunt houden.

Windsurf Editor werkt met een ingebouwde assistent genaamd Cascade.

Cascade

We hebben ook in Windsurf geprobeerd om het spelletje boter-kaas-en-eieren uit dit artikel te maken. De assistent in Windsurf Editor heet Cascade; via het Cascade-deelvenster kun je hem direct aan het werk zetten. Een leuk detail is dat niet alleen code wordt gegenereerd, maar dat er ook veel aanvullende acties voor je worden uitgevoerd, zoals het aanmaken van een map voor je project en voor de geluiden, en het maken van een mp3-bestand.

Bij elke stap kun je zien welke bestanden worden aangepast en de voorgestelde wijzigingen controleren en bevestigen. Je hoeft niet, zoals bij Aider, zelf een API-sleutel te regelen voor toegang. Je gebruikt steeds het model van Cascade en de administratieve kant wordt via je account geregeld, op basis van credits (zie volgende paragraaf). Zo’n diepere integratie is heel praktisch. Toch heeft de workflow veel overeenkomsten met Aider.

Via een deelvenster kun je een conversatie met Cascade voeren.

Werken met credits

Windsurf werkt met credits voor verschillende taken. Zo worden User Prompt-credits voor elke interactie met de assistent gebruikt en Flow Action-credits voor alle acties die worden uitgevoerd. Als je de limiet bereikt voor het premiummodel, wordt overgeschakeld naar het basismodel. De proefperiode van 14 dagen geeft je ruim voldoende credits om het voorbeeldprogramma uit dit artikel te maken. Sterker nog, je hebt ongeveer vijftien keer meer credits dan nodig, dus je kunt ook grotere en complexere programma’s proberen te maken.

Buiten die proefperiode is, om het premiummodel te gebruiken, een upgrade naar de Pro-versie bijna onvermijdelijk (ca. 18 euro per maand). Je hebt dan wel elke maand een ruime hoeveelheid credits en kunt vrij voordelig credits bijkopen.

Windsurf Editor werkt met een systeem van credits.

Beste optie voor hobbyprogrammeur?

Over het algemeen werkt het programmeren met een chatbot zoals ChatGPT goed. Voor losse functies of snippets werkt het zelfs uitstekend. Maar het is lastig om het overzicht te behouden over de gegenereerde code en eventuele aanpassingen, zeker als het om wijzigingen in meerdere bestanden gaat.

Aider en Windsurf Editor hebben een fijnere workflow, omdat ze de lokale bestanden direct voor je wijzigen, eventueel meerdere tegelijkertijd. Wat kosten betreft is Aider waarschijnlijk interessanter voor de hobbyprogrammeur die af en toe een project oppakt. Je kunt ad-hoc wat credits bijkopen of eens een ander model proberen, lokaal of via bijvoorbeeld OpenRouter. Het opensource DeepSeek R1 bijvoorbeeld. Je kunt bovendien elke ontwikkelomgeving kiezen, terwijl Windsurf Editor volledig op Visual Studio leunt. De integratie met Git ook een praktisch voordeel van Aider.