ID.nl logo
Recensie: OS X 10.8 (Mountain Lion)
© PXimport
Huis

Recensie: OS X 10.8 (Mountain Lion)

Slechts een jaar na de release van OS X Lion komt Apple met de opvolger voor het Mac-besturingssysteem. Volgens de naam (vorige naam plus een extra woord) is het geen compleet nieuwe versie, maar is het een verbeterde versie van Lion. Wij doken in de wereld van OS X Mountain Lion, op zoek naar een antwoord op de vraag of deze nieuwe versie het updaten waard is.

Ook al is Mountain Lion geen release in de grootste soort die Apple kent, het besturingssysteem kent wel meer dan 200 nieuwe functies, die we hier natuurlijk onmogelijk allemaal kunnen bespreken. We richten ons daarom op de belangrijkste zaken die het werken met OS X aanzienlijk veranderen.

iOS-feestje

Het eerste wat opvalt, is dat Apple een behoorlijk iOS-feestje heeft gemaakt van deze nieuwe release van OS X. Dat was bij Lion ook al enigszins zo met de introductie van Launchpad (wat eigenlijk gewoon de interface van iOS was). Die lijn wordt doorgezet in Mountain Lion. Dat vertaalt zich in voor de hand liggende zaken als Game Center, Herinneringen en Notities voor OS X. Dit zijn stuk voor stuk kopieën van de gelijknamige apps op de iPod touch, iPhone en iPad. Uiteraard worden deze apps allemaal gesynchroniseerd via iCloud.

Vernieuwender zijn de andere iOS-functionaliteiten die Mountain Lion bevat, zoals het Berichtencentrum: briljant in z'n eenvoud. Net als in iOS krijgt u een pop-up te zien wanneer er iets van belang gebeurt op uw computer (nieuwe mail, agendaherinnering enzovoort), al gebeurt dat niet volledig in beeld, maar rechtsboven in een hoek van het scherm. Hebt u een Magic Trackpad (of een MacBook), dan kunt u met één vingerbeweging het Berichtencentrum tevoorschijn halen. Hierbij schuift het bureaublad een stukje naar links.

©PXimport

Mountain Lion mag dan geen 'major'-release zijn, het besturingssysteem kent wel ontzettend veel nieuwe functies.

Gratis updaten

Wanneer u onlangs nog een Mac hebt gekocht en nu alweer moet investeren in een nieuwe versie van het besturingssysteem, voelt u zich natuurlijk enigszins bekocht. Dat hoeft niet, want Apple heeft standaard een overgangsperiode voor mensen die onlangs een Mac hebben aangeschaft. Hebt u uw Mac gekocht na 11 juni 2012, dan kunt u Lion gratis opwaarderen naar Mountain Lion via www.apple.com/nl/osx/uptodate.

©PXimport

De toevoeging van Berichtencentrum is briljant. Natuurlijk we kennen het al, maar het werkt verdraaid goed in OS X.

Nieuw en veranderd

Prettig is dat iMessage nu ook een onderdeel uitmaakt van OS X. Een chatprogramma voor de desktop is natuurlijk niet revolutionair, maar het concept waarbij u onderweg een gesprek begint op uw iPhone, om het vervolgens naadloos te vervolgen op uw Mac (of andersom) is dat wel. iMessage integreert in feite sms en chat op de desktop. Jammer dat het alleen tussen Apple-apparaten onderling werkt.

©PXimport

Een gesprek beginnen op de iPhone en voortzetten op de Mac, het kan haast niet gebruiksvriendelijker.

De aanpassing in Safari is even wennen. Apple heeft het zoekveld en de adresbalk gecombineerd tot één veld, in lijn met andere grote browsers. Toch is enige gewenning nodig. Nieuw is de mogelijkheid om iCloud-tabbladen te openen, waarmee u op de Mac verder kunt surfen waar u op de iPhone of iPad gebleven was. Helaas werkt dit pas met de komst van iOS 6. Bent u een actieve gebruiker van de Leeslijst, dan is het fijn om te weten dat Safari nu complete webpagina's in de lijst opslaat, zodat u de pagina's offline kunt bekijken.

Een andere opvallende nieuwkomer is Power Nap, dat helaas alleen beschikbaar is op MacBook Airs van 2011 of nieuwer en de MacBook Pro met Retina-scherm (deze computers hebben standaard een SSD ingebouwd). Energie besparen is fijn, maar u wilt natuurlijk wel dat de Mac of Macbook up-to-date blijft. Power Nap biedt die mogelijkheid, de computer kan namelijk worden bijgewerkt terwijl deze slaapt. Uw mail wordt bijvoorbeeld gewoon bijgewerkt, dus wanneer u de Mac aanzet, is deze volledig up-to-date. Dit werkt uitstekend, al is het lastig te controleren wat voor effect het precies heeft op het stroomverbruik.

©PXimport

Dat de Mac slaapt, wil niet zeggen dat deze niet bijgewerkt kan worden. Power Nap maakt het mogelijk.

Gatekeeper

Het tijdperk dat de Mac niet vatbaar was voor malware ligt achter ons. Het is nog steeds een minder groot probleem dan in Windows (dit heeft vooral te maken met het installeren van applicaties) maar het is wel een punt van aandacht. Daarom introduceert Apple Gatekeeper: een zeer heftige poortwachter waarmee u als systeembeheerder kunt instellen dat er alleen maar apps uit de Mac App Store mogen worden geïnstalleerd of alleen apps met een bepaald veiligheidscertificaat van Apple. Een heftige methode, maar wel eentje die het werken met de Mac een stuk veiliger moet maken. Standaard staat ingesteld dat u alleen applicaties uit de App Store mag installeren. Gelukkig kunt u dit wel uitschakelen.

©PXimport

De Mac is allang niet meer virusloos. Gatekeeper maakt het werken met de Mac veel veiliger, al is dat niet zonder compromis.

Delen

De nieuwe knop Delen, die u overal in Mountain Lion terugvindt, is handig om webpagina's, foto's, video's enzovoort rechtstreeks te delen via de belangrijkste sociale netwerken. Dat klinkt futiel, maar klikken en delen is veel sneller dan de foto opslaan, het sociale netwerk openen, de foto uploaden enzovoort. De knop is een echte aanwinst.

©PXimport

Heel eenvoudig: een knop Delen, maar een wereld van verschil.

Facebook

Hoe nauw OS X en iOS inmiddels met elkaar verbonden zijn, blijkt uit een functie die Mountain Lion op dit moment nog niet bevat, maar vanaf dit najaar wel zal krijgen: delen via Facebook. Die optie zal beschikbaar zijn via de knop Delen, maar is nu nog niet beschikbaar omdat deze tegelijkertijd zal worden gelanceerd met ... inderdaad: de Facebook-integratie binnen iOS.

iCloud

Dat iCloud veel meer is dan een leuke gimmick van Apple om z'n telefoons en tablets te verkopen, wordt steeds duidelijker. Naast de reeds genoemde iCloud-functionaliteiten die Mountain Lion bevat, is de technologie nu echt geïntegreerd binnen het besturingssysteem. Documenten die u opslaat, bijvoorbeeld via Pages of TextEdit, worden standaard opgeslagen in iCloud (met een cache-kopie voor als internet het even laat afweten), zodat u echt altijd en overal toegang hebt tot uw documenten. Daarnaast worden FaceTime, iMessage, Herinneringen enzovoort allemaal via iCloud geconfigureerd, dus één maal inloggen en u bent klaar.

©PXimport

iCloud is geen gimmick meer. Mountain Lion maakt (moeiteloos) werken in de cloud realiteit.

Conclusie

We kunnen Mountain Lion niet vergelijken met Lion alsof het een heel nieuw besturingssysteem is. Het is hetzelfde besturingssysteem, maar met een aantal zeer interessante uitbreidingen. Ze zijn lang niet allemaal nieuw en revolutionair (een groot deel is zelfs gekopieerd van iOS) maar het voegt ontzettend veel toe aan de naadloze onderlinge integratie van Apples apparaten. Daarmee zou je bijna kunnen beweren dat dit vooral een fijne update is voor wie een iPhone of iPad heeft, maar functies als Power Nap en Gatekeeper maken Mountain Lion ook voor de 'gewone' gebruiker heel interessant. Tot slot willen we nog toevoegen dat de instabiliteit (vele kleine bugs) die we hebben ervaren bij het testen van Lion, in deze opvolger in geen velden of wegen te bekennen zijn. Mountain Lion voelt goed, stabiel en vooral zeer gereed voor de toekomst. Absoluut z'n geld waard. Let er wel op dat Mountain Lion alleen in de Mac App Store verkrijgbaar is.

OS X 10.8 (Mountain Lion)

Prijs € 15,99

Taal Nederlands

OS OS X 10.6.8 of hoger

Oordeel 9/10

Pluspunten

Veel vernieuwingen

Berichtenservice, iMessage en meer iOS-opties geïntegreerd

Volledige iCloud-integratie

Stabiel

Minpunten

Veel functies specifiek voor iOS-gebruikers

Alleen verkrijgbaar in Mac App Store

▼ Volgende artikel
Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen
© Pippin - stock.adobe.com
Huis

Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen

Wanneer je een chatbot als ChatGPT of Copilot een vraag stelt, krijg je (hopelijk) een degelijk antwoord. Dit is mogelijk omdat deze AI-modellen zijn getraind met talloze tekstdata, zoals boeken, artikelen en websites. Maar je kunt zo’n model ook koppelen aan een eigen verzameling documenten en deze data dynamisch laten gebruiken.

In dit artikel laten we zien hoe je een AI-chatbot combineert met je eigen documenten om gerichte antwoorden te genereren:

  • Leer hoe RAG jouw documenten gebruikt om contextueel relevante antwoorden te geven
  • Gebruik NotebookLM van Google voor cloudgebaseerde documentanalyse en samenvattingen
  • Installeer en gebruik AnythingLLM lokaal voor volledige controle over je data
  • Ontdek alternatieven zoals Ollama en RAGflow voor geavanceerde lokale set-ups

Lees ook: Makkelijk switchen tussen AI-taalmodellen? Maak kennis met Jan

Dit artikel bespreekt oplossingen om eigen documenten als doorzoekbare database aan een AI-model te koppelen, zowel in de cloud (via NotebookLM) als lokaal (met tools als AnythingLLM en Ollama). Bij dit proces haalt een model eerst relevante informatie uit een specifieke externe bron of database op (retrieval) en gebruikt deze vervolgens om een contextueel antwoord te genereren (generation). Dit heet Retrieval-Augmented Generation, kortweg RAG.

Voor we concreet ingaan op de genoemde tools, leggen we kort uit hoe een AI-chatbot je prompts analyseert en op basis van getrainde kennis een relevant antwoord probeert te genereren. Daarna bekijken we hoe dit in een RAG-context verloopt.

1 LLM-dataverwerking

Veel mensen denken dat een AI-model zoals ChatGPT of andere Large Language Models (LLM’s) zoals Gemini, Grok, Llama of Claude bij een prompt direct een database van webpagina’s doorzoekt, een samenvatting maakt en die als antwoord teruggeeft. Afhankelijk van het model en je vraag kan er soms in live internetbronnen worden gezocht, maar doorgaans werkt dit proces fundamenteel anders.

In de trainingsfase leren LLM’s namelijk hoe woorden, zinnen en concepten samenhangen. Deze informatie wordt vervolgens opgesplitst in kleine woorddelen (tokens) en door een embedding-functie opgenomen (ingebed) als miljarden getallen, oftewel parameters, in één- of meerdimensionale tabellen, zoals vectoren en tensors.

Zo kan het woord ‘bank’, afhankelijk van de context, in een andere tabel belanden. Bij ‘Geld op een bank zetten’ wordt ‘bank’ gekoppeld aan financiële begrippen zoals ‘geld’ en ‘spaar’, terwijl ‘bank’ bij ‘Op een bank zitten’ aan huiselijke begrippen als ‘stoel’ en ‘zit’ wordt gelinkt. Deze structuur heet een transformer-model, en vandaar ‘GPT’: Generative Pre-trained Transformer.

Wanneer je nu een prompt invoert, zet de chatbot deze eerst om in vectoren die de contextuele betekenis weergeven. Deze worden vervolgens vergeleken met de LLM-parameters, waarna het model stapsgewijs de meest waarschijnlijke volgende tokens voorspelt. Uiteindelijk wordt deze tokenrij naar woorden omgezet en krijg je als gebruiker een antwoord terug.

De positionering van (een homoniem als) ‘bank’ in deze vector zal ook afhangen van de context.

2 RAG-dataverwerking

Wanneer je zelf databronnen toevoegt, zoals docx- of pdf-bestanden, of zelfs afbeeldingen, is het onrealistisch dat het LLM hiervoor opnieuw een trainingsfase doorloopt. Dit proces kost namelijk veel tijd en miljoenen euro’s. Daarom wordt gebruikgemaakt van technieken als RAG. Om RAG toe te passen, worden vectordatabases, zoals LanceDB en Pinecone, of document-retrievalsystemen, zoals Elasticsearch en Haystack, ingezet.

Bij vectordatabases worden tekstdata door de ingebouwde ‘embedder’ vooraf omgezet in vectoren, vergelijkbaar met een LLM. Deze vectoren worden opgeslagen in een database die doorzoekbaar is op basis van vectorovereenkomsten. Dit maakt ze geschikt voor contextueel en semantisch zoeken, veel meer dan met traditionele SQL-databanken mogelijk is.

Document-retrievalsystemen slaan de data als tekst op, vaak in gestructureerde velden, waardoor full-text search mogelijk is op basis van trefwoorden en tekstuele overeenkomsten. Deze systemen zijn meer geschikt voor exacte tekstopzoekingen.

Interessante achtergrondinformatie over vectordatabases en hun relatie tot LLM’s vind je onder meer hier.

Tekstdata worden door de ingebouwde embedder in een vectordatabase ondergebracht.

3 RAG-zoekopdrachten

Hoe verloopt een RAG-zoekproces over het algemeen? Eerst upload je alle gewenste documenten naar het systeem. De tekstdata worden daarna, via een lokaal (Ragflow, AnythingLLM) of cloudgebaseerd (NotebookLM) embedding-model, in kleine stukken verdeeld en in een vectordatabase opgeslagen, lokaal of in de cloud.

Wanneer je nu een prompt invoert, wordt deze eveneens door het embedding-model gevectoriseerd. De vectordatabase zoekt vervolgens naar relevante tekstfragmenten op basis van overeenkomsten, waarna de relevantste fragmenten worden opgehaald. Deze fragmenten worden nu gecombineerd met je originele prompt en samen naar het LLM-model gestuurd, lokaal of via een API(-sleutel) naar een cloudmodel als ChatGPT. Het gegenereerde antwoord wordt daarna teruggestuurd naar je systeem.

Draait het RAG-systeem lokaal, dan worden dus alleen de relevante fragmenten en je prompt naar de cloud gestuurd, tenzij ook de chatbot lokaal draait. In dit geval blijft alles lokaal. Je volledige documenten en de bijbehorende vectoren blijven hoe dan ook lokaal, tenzij het hele RAG-systeem in de cloud draait.

Een typisch RAG-scenario: de prompt en (alleen) de relevante data gaan naar het LLM-model.

Even appen?

Veel gebruikers weten niet dat je een AI-bot ook via WhatsApp kunt bevragen. Zo benader je ChatGPT via het telefoonnummer +1 800 2428478. Commerciële bedrijven als het Nederlandse The AI-Book Company hebben inmiddels een verdienmodel ontwikkeld waarbij AI-boeken via WhatsApp worden aangeboden.

De volledige inhoud van een specifiek boek wordt hierbij geüpload naar een document-retrievalsysteem, zoals Elasticsearch of een vectordatabase als LanceDB, en via API’s gekoppeld aan WhatsApp en een AI-chatbot als ChatGPT. Als geregistreerde gebruiker (wat meestal zo’n 10 euro kost) kun je dan via WhatsApp concrete vragen stellen aan het boek, waarna de chatbot de antwoorden genereert. Je hoeft het boek dus niet noodzakelijk zelf eerst (volledig) te lezen.

RAG-AI in de vorm van een WhatsApp-contactpersoon.

4 NotebookLM

Je weet nu ongeveer wat je met een RAG-systeem kunt en hoe dit onderliggend werkt. Hoog tijd nu om zo’n systeem aan de tand te voelen. We beginnen met een cloudgebaseerd RAG-systeem, Google NotebookLM, dat vooral geschikt is als privacy voor jou minder belangrijk is (al claimt Google je persoonsgegevens niet te gebruiken om NotebookLM te trainen).

Ga naar https://notebooklm.google en klik op de knop NotebookLM proberen. Meld je aan met een persoonlijk Google- of Google Workspace-account.

Je merkt dat er standaard al een notebook is aangemaakt: Introduction to NotebookLM. In het Bronnen-menu aan de linkerkant kun je zeven reeds toegevoegde documenten bekijken. Klik op een document voor een geautomatiseerde samenvatting en de belangrijkste aanklikbare onderwerpen. In het document NotebookLM Features lees je bijvoorbeeld welke documenttypes je kunt uploaden. Je kunt hierover open vragen stellen in het chatvenster, zoals: ‘Met welke types bronbestanden kan NotebookLM precies overweg?’ Het antwoord baseert zich grotendeels op tekstfragmenten uit dit document, zoals zichtbaar bij de genummerde bronverwijzingen.

De bot geeft bij de prompt netjes aan hoeveel bronnen hij kan raadplegen (zeven in dit geval). Stel je een vraag als ‘Is NotebookLM een Retrieval Augmented Generation-systeem (RAG)’, dan krijg je een gefundeerd antwoord met verwijzingen naar een of meer documenten, ook al wordt ‘RAG’ niet expliciet in deze documenten vermeld. NotebookLM vult namelijk antwoorden aan met eigen trainingsdata (van Gemini Pro in dit geval) wanneer dat zinvol is. Vragen die geen verband houden met je documenten blijven echter onbeantwoord.

Desnoods haalt NotebookLM aanvullende informatie uit de eigen trainingsdata op.

5 Bronnen toevoegen aan NotebookLM

We laten je zien hoe je een eigen notebook samenstelt. Een notebook kun je zien als een project dat uit meerdere documenten bestaat, vergelijkbaar met een map met bestanden. Klik op het pictogram linksboven om een overzicht van bestaande notebooks te zien. Kies hier + Nieuwe maken om documenten toe te voegen. Dit kunnen lokale bestanden zijn, zoals pdf’s, txt-bestanden en diverse audioformaten met spraak, maar ook documenten en presentaties uit Google Drive, links naar websites, publieke YouTube-video’s (met onderschriften) of tekst van het klembord. Per notebook kun je maximaal vijftig bronnen uploaden, elk tot 200 MB groot.

Audiobestanden worden automatisch intern getranscribeerd, zodat je er vragen over kunt stellen. Met de knop + Bron toevoegen voeg je meer bronnen toe aan een geselecteerd notebook. Met vinkjes bepaal je welke bronnen de dienst mag gebruiken bij vragen. Je kunt ook anderstalige documenten uploaden en in je voorkeurstaal, zoals Nederlands, vragen stellen en antwoorden ontvangen. De taalvoorkeur stel je in via de instellingen van je Google Account.

Ook anderstalige bronnen (rechts: een pdf in Adobe Reader) kun je meteen bestuderen en bevragen in je eigen taal.

6 Speciale notities in NotebookLM

Wil je antwoorden bewaren, klik dan op Notitie toevoegen. De notitie wordt opgeslagen onderaan het rechterdeelvenster Studio. Hier vind je ook nog allerlei andere knoppen:

  • Veelgestelde vragen genereert een nieuwe notitie met korte vragen over de geselecteerde bronnen, inclusief antwoorden.

  • Studiemateriaal deelt je bronmateriaal op in een glossarium, korte quizvragen met antwoorden en complexere essayvragen.

  • Overzichtsdocument toont de belangrijkste feiten en inzichten uit je bronnen, inclusief een korte inhoud, kernpunten, relevante citaten en een conclusie.

  • Tijdlijn geeft een chronologische lijst met belangrijke feiten, gebeurtenissen en eventueel betrokken personages.

  • Audio-overzicht zet bronmateriaal om in een podcast-achtige Engelstalige conversatie, die als wav-bestand te downloaden is (en die je, indien gewenst, naar bijvoorbeeld mp3 kunt omzetten, zoals met het gratis Shutter Encoder). Het zou ons weinig verbazen als dit (in de Plus-versie?) binnenkort bijvoorbeeld ook in het Nederlands kan, met je eigen stem.

Je kunt notebooks delen met andere Google-gebruikers als Kijker of Bewerker, maar je kunt op elk moment ook weer de toegang intrekken. Wie NotebookLM in Pro gebruikt, kan de chatresponses verder bijsturen en meer notebooks, bronnen, vragen en overzichten maken. Dit abonnement biedt tot 500 notebooks, elk met maximaal 300 bronnen, en dagelijks 500 chatvragen en 20 audio-overzichten (meer informatie vind je hier).

Van een tijdlijn over studiemateriaal tot een heuse podcast met slechts enkele muisklikken.

7 Cloud versus lokaal

Tools als NotebookLM zijn bijzonder nuttig voor het bestuderen, analyseren en kritisch bevragen van zowel tekst- als audiobronnen. Een nadeel is dat je bronnen naar de cloud moet uploaden. Dat kan onhandig en tijdrovend zijn en vormt altijd een risico voor de privacy, ook al zegt Google deze data niet voor trainingsdoeleinden te gebruiken.

Met de juiste tools kun je dit proces ook deels of volledig lokaal uitvoeren, zodat er weinig tot geen data online komen. Een geschikte oplossing is de gratis tool AnythingLLM, een opensource-framework waarmee je LLM’s kunt beheren en gebruiken, zowel in de cloud (meestal via API’s) als lokaal. Je kunt het systeem bovendien uitbreiden met eigen data via RAG.

Het hele systeem van AnythingLLM kan ook in de cloud worden gehost. Zo’n gehoste oplossing kost ongeveer 50 dollar (ca. 48 euro) per maand voor vier gebruikers en honderd documenten) of 99 dollar (ca. 95 euro) per maand voor grotere teams of databibliotheken.

Wil je volledige controle, dan kun je zowel dataopslag, embedder, vectordatabase als het LLM-model lokaal draaien. Hosting kan op een eigen pc of server, bijvoorbeeld als uitvoerbare applicatie voor Windows, macOS of Linux. In Linux gebruik je bijvoorbeeld dit commando:

curl -fsSL https://cdn.useanything.com/latest/installer.sh | sh

Een andere optie is om een dockercontainer te gebruiken voor een meer geïsoleerde en schaalbare omgeving.

AnythingLLM laat zich makkelijk installeren voor diverse platformen.

8 AnythingLLM

We tonen hier hoe je met de desktopapplicatie (versie 1.7.2 in ons geval) voor Windows (x64) aan de slag kunt. Je installeert deze suite met diverse AI-tools via het uitvoerbare bestand in slechts een paar muisklikken, waarna de suite direct klaar is voor gebruik. De systeemeisen hangen af van wat je wilt doen, zoals het gebruik van een lokale embedder, vectordatabase en/of LLM. Officieel zijn 2 GB geheugen, een dualcore-cpu en 5 GB opslagruimte toereikend, maar dit zijn absolute minimumwaarden, geschikt als je vooral externe diensten (zoals in de cloud) gebruikt.

Bij de eerste keer opstarten van AnythingLLM klik je op Get started. Je selecteert vervolgens een geschikte LLM-provider voor het genereren van responses op basis van je prompts en meegestuurde tekstfragmenten. Standaard wordt hier AnythingLLM voorgesteld, die onderliggend Ollama gebruikt (zie het kader 'Ollama en RAGflow’). Kies uit de veertien voorgestelde LLM’s, met onder meer modellen van Meta, Microsoft, Google en Mistral. De meeste zijn tekstmodellen, maar een paar zijn multimodaal en ondersteunen in principe ook afbeeldingen. Bij elk model staat een GB-waarde die aangeeft hoeveel geheugen nodig is (bij voorkeur VRAM van de gpu). Laat je keuze mede hierdoor bepalen. Selecteer een model zodat de aanduiding Active verschijnt en druk op de rechterpijlknop.

Je kiest zelf de LLM die je binnen je werkruimte in AnythingLLM wilt gebruiken: lokaal of extern.

Ollama en RAGflow

AnythingLLM profileert zich als een alles-in-één AI-applicatie, maar je kunt ook kiezen voor een handmatigere aanpak. Een combinatie van Ollama en een tool als RAGflow is een bruikbaar alternatief. Deze opzet vereist wel meer configuratie, maar RAGflow biedt meer opties voor finetuning.

Ollama (beschikbaar voor Windows, macOS en Linux) stelt je in staat om LLM’s lokaal te draaien of via API’s met cloudgebaseerde LLM’s te verbinden. Wil je zelf de locatie van de gedownloade LLM’s bepalen, maak dan in Windows een omgevingsvariabele aan: OLLAMA_MODELS=<pad_naar_downloadmap>. Op www.ollama.com/search kun je nu een LLM kiezen en het bijbehorende opdrachtregelcommando vinden, bijvoorbeeld ollama run llama3.2:1b. Je kunt je chatprompts meteen op de bijbehorende prompt invoeren.

RAGflow installeer je op Windows het eenvoudigst via Docker Desktop, nadat je WSL2 hebt geïnstalleerd (met het commando wsl --install). Download het zip-archief van RAGflow (druk op Code en Download ZIP). Raadpleeg de Readme voor meer details. Navigeer naar de uitgepakte map en voer hier dit commando uit:

docker compose -f docker/docker-compose.yml up

De container wordt nu toegevoegd in Docker Desktop. Zorg dat de container is gestart en open de webinterface van RAGflow via localhost:80 voor verdere configuratie, na je aanmelding. Bij Model Providers kun je nu Ollama selecteren en uit een van de gedownloade LLM’s kiezen.

RAGflow met Ollama: een sterk duo, maar wel wat set-up- en configuratiewerk.

9 Werkruimtes

Je komt op een overzichtspagina terecht waar je naast de gekozen LLM (in dit voorbeeld AnythingLLM x Ollama) ook de standaard geselecteerde embedder (Anything LLM Embedder) en de vectordatabase (LanceDB) ziet. AnythingLLM kiest bewust voor lokaal werkende oplossingen om je privacy te beschermen. Je kunt deze instellingen later wijzigen, maar bevestig nu met de rechterpijlknop. Klik eventueel op Skip Survey en vul de naam in van je eerste werkruimte. Een werkruimte functioneert als container voor documenten en gesprekken rond een specifiek thema of project, zodat je gestructureerd kunt werken.

Nadat je op de rechterpijlknop hebt gedrukt, verschijnt het hoofdvenster van AnythingLLM: links zie je de werkruimtes en rechts een welkomstvenster. Via de knop + Nieuwe Werkruimte kun je extra werkruimtes aanmaken. Een naam geven is voldoende, omdat nieuwe werkruimtes standaard de net ingestelde algemene instellingen overnemen.

Klik op het tandwielpictogram bij een werkruimte. Op het tabblad Algemene instellingen kun je de naam wijzigen of de werkruimte verwijderen. Weet wel dat alles wat je embed in de vectordatabase van toegevoegde bronbestanden verdwijnt bij verwijdering. De bronbestanden zelf blijven behouden.

Je kunt werkruimtes maken, benoemen en ook weer verwijderen.

10 Bronbestanden

Je voegt bronbestanden als volgt aan je werkruimte toe. Klik vanuit het hoofdvenster op de uploadpijl naast de werkruimte. Er opent een dialoogvenster met twee knoppen: Documents en Data Connectors. Via Documents kun je diverse bestandstypes uploaden, zoals txt-, pdf-, csv- en xls(x)-bestanden, of ze direct verslepen naar het venster. Deze bestanden worden door de ingebouwde document-processor geanalyseerd (waarbij ze worden opgesplitst in brokken (chunks) van een instelbaar aantal tokens) en vervolgens in het deelvenster My Documents geplaatst. Documenten die je eerder in andere werkruimtes hebt toegevoegd, zijn hier ook beschikbaar (met de indicatie Cached). Je kunt ook naar webpagina’s of online documenten verwijzen door de url in te voeren en op Fetch website te klikken. Toegevoegde documenten worden standaard geplaatst in de map custom-documents, maar je kunt ze ook organiseren in nieuwe mappen via + New Folder.

Selecteer documenten die je wilt gebruiken in de werkruimte en klik op Move to Workspace. Controleer ook de knop Data Connectors. Hiermee kun je (online) documenten ophalen via diensten als GitHub Repo, GitLab Repo en Confluence, of zelfs YouTube-transcripts en webpagina’s via Bulk Link Scraper. Bij deze scraper vul je een url in, plus de gewenste linkdiepte en het maximaal aantal te lezen pagina’s. Deze gegevens worden dan eveneens aan je documenten toegevoegd.

Bevestig met Save and embed om de documenten in de vectordatabase te embedden. Dit proces kan, afhankelijk van de hoeveelheid data, wel even duren.

Voeg alle gewenste bronbestanden (zoals documenten of webpagina’s) toe aan het systeem.

11 Chatomgeving

In het hoofdvenster open je de gewenste werkruimte. Standaard is er al één thread actief (Default): een conversatie tussen jou en de LLM. Je kunt extra threads aanmaken via + New Thread. Voer je prompts in en de LLM geeft (hopelijk relevante) antwoorden op basis van de doorgestuurde tekstfragmenten. Klik op Show Citations om te zien welke bronnen zijn gebruikt. Door op een bron te klikken, zie je de specifieke tekstfragmenten. Je kunt prompts ook inspreken (microfoon-pictogram) en de antwoorden laten voorlezen (luidspreker-pictogram).

Daarnaast zie je een paperclip-pictogram voor het ad hoc uploaden van extra documenten en een pictogram voor slash-commando’s en agents. Het standaard beschikbare slash-commando is /reset, waarmee je je chatgeschiedenis wist en een nieuwe sessie start. Voeg via Add a New Preset eigen commando’s toe, zoals /vertaal met een prompt als ‘Vertaal het zojuist gegeven antwoord naar het Engels’ en Engelse vertaling als beschrijving. Deze commando’s komen automatisch ook beschikbaar in je andere threads en werkruimtes.

Overigens kun je je chatgeschiedenis (van alle werkruimtes) ook bekijken, exporteren en verwijderen via het moersleutel-pictogram, in de categorie Beheerder / Werkruimte Chats.

Slash-commando’s: handig voor vaak gebruikte prompts.

12 Agents

Agents functioneren als autonome modules die AI-modellen gebruiken om specifieke taken zelfstandig uit te voeren, zoals informatie verwerken of acties uitvoeren op basis van ingestelde parameters. Klik op het moersleutel-pictogram linksonder (Open settings) en navigeer naar Agent Vaardigheden. Hier vind je standaard zeven geïntegreerde agents, waarvan je er vier kunt in- of uitschakelen, zoals Generate charts en Web Search.

We nemen deze laatste als voorbeeld. Activeer deze, selecteer een SERP (Search Engine Results Provider), bijvoorbeeld DuckDuckGo (bij sommige moet je wel nog een API-sleutel invullen). Bevestig met Save. Laat nu in de chatomgeving je prompts voorafgaan door @agent om automatisch geactiveerde en relevante agents op te roepen. Zo kan de agent actuele informatie van internet ophalen, waarbij standaard tot tien zoekresultaten worden verwerkt.

Verwant aan agents zijn de ‘agent skills’. Open de rubriek Community Hub en ga naar Explore Trending. Klik bij een skill op Import en bevestig met Import Agent Skill. Ga daarna terug naar Agent Vaardigheden, waar de skill is toegevoegd. Schakel de skill in om deze beschikbaar te maken.

Met en zonder zoekopdrachten op het web: een merkbaar verschil.

13 Instellingen

Via Open settings kun je op algemeen niveau diverse onderdelen aanpassen. In de categorie AI Providers wijzig je bijvoorbeeld de LLM, Vector Database en Inbedder, zoals een cloudgebaseerde dienst als OpenAI, Pinecone of Gemini. Voor veel opties is een API-sleutel vereist, die vaak niet gratis is. Je stelt hier ook spraak-naar-tekst- (standaard: Local Whisper) en tekst-naar-spraak-providers in. Voor tekst-naar-spraak is standaard de lokale provider PiperTTS ingesteld, maar je kunt bijvoorbeeld ook een bekende dienst als ElevenLabs kiezen (met API).

Bij Aanpassing stel je het thema, de taal en de automatische berichten voor gebruikers in. Deze instellingen gelden standaard voor alle werkruimtes, maar kunnen op werkruimteniveau worden overschreven. Klik op het tandwielpictogram naast een werkruimte om deze opties aan te passen.

In het tabblad Chat Instellingen kies je een specifieke LLM Provider of stel je de Chatmodus in. Standaard staat dit op Chat, maar met de optie Query gebruikt het systeem uitsluitend je eigen documentcontext voor responses, zonder de getrainde dataset van de LLM te raadplegen. Hier bepaal je ook hoeveel eerdere chats worden meegenomen (standaard 20) en met welke achterliggende prompt de werkruimte rekening moet houden.

Op het tabblad Agent Configuratie kun je agenten en skills selecteren die specifiek voor deze werkruimte gelden. Bevestig alle aanpassingen telkens met de voorziene knoppen.

Je kunt ook instellingen vastleggen die specifiek zijn voor de geselecteerde werkruimte.

▼ Volgende artikel
Van prompt naar programma: leer programmeren met AI
© monsitj - stock.adobe.com
Huis

Van prompt naar programma: leer programmeren met AI

Niet alleen het saaie en repetitieve werk wordt vervangen door AI. Je bent óók als kenniswerker niet meer zeker van een baan. Software wordt al grotendeels door AI geschreven. Gelukkig kun je daar als hobbyprogrammeur ook enorm van profiteren. Het brengt naast tijdwinst ook veel gemak. We helpen je op weg met drie praktische tools: ChatGPT, Aider en de Windsurf Editor. We maken enkele eenvoudige voorbeelden, zodat je een helder beeld hebt van je potentiële workflow.

In dit artikel laten we zien hoe je met hulp van AI razendsnel leert programmeren en zelfs complete programma’s bouwt:

  • Gebruik ChatGPT als programmeerpartner en laat het een volledig werkend spelletje bouwen met HTML, CSS en JavaScript
  • Installeer Aider en gebruik het in combinatie met Git om projecten via de terminal te ontwikkelen
  • Ontdek Windsurf Editor als grafisch alternatief met AI-assistent Cascade

Lees ook: Leren programmeren? Met deze tools is coderen geen geheimcode meer

Grote taalmodellen zijn al zo goed dat je comfortabel complete programma’s door AI kunt laten maken, zelfs zonder enige programmeerkennis. Afhankelijk van de tools die je gebruikt, voelt dat toch alsof je samen aan code werkt, ook wel pair-programmeren genoemd. Je houdt dus enige controle en kunt er, als je oplet, veel van leren. Ook al wordt het harde werk door AI gedaan.

Een bijkomend voordeel is dat je heel gericht aanpassingen kunt laten doen of vragen kunt stellen over de code, zonder dat je de documentatie of websites als Stack Overflow hoeft door te spitten. Het is geen verrassing dat laatstgenoemde website met fors dalende bezoekersaantallen te maken heeft. Ook andere taken, zoals het schrijven van de documentatie, zijn snel geregeld.

In dit artikel gaan we een eenvoudig programma maken met AI, zodat je een goed beeld hebt van de workflow. We gebruiken drie verschillende tools. We starten met het vertrouwde ChatGPT, al kun je ook bijvoorbeeld voor Claude of Gemini kiezen. Daarna gaan we met Aider in combinatie met Git aan de slag. Daarmee werk je ‘samen’ aan programmacode via de opdrachtprompt, in ons voorbeeld binnen het vertrouwde Visual Studio Code. Tot slot gaan we met de Windsurf Editor aan de slag, een completere grafische ontwikkelomgeving met geïntegreerde AI-features, die je van begin tot eind ondersteunt bij het maken van je programma. 

Basisbeginselen van het programmeren

Het is handig als je de basisbeginselen van een programmeertaal kent. Ook daar kan AI van nut zijn. Je kunt veel leren van de voorbeelden die worden gegenereerd. Je kunt elk detail uit laten leggen, of om meer voorbeelden vragen. Dat is heel effectief!

Ook om de basisbeginselen te leren is AI nuttig. Pas bijvoorbeeld de Pareto-methode toe. Die methode stelt dat 80 procent van de resultaten voortkomt uit 20 procent van de inspanningen. Vraag de chatbot om een plan te maken dat deze regel toepast op het leren programmeren van bijvoorbeeld Python, door te focussen op 20 procent van de concepten, tools en technieken die 80 procent van de praktische toepassingen en problemen oplossen voor een beginnende programmeur. Vraag om een gestructureerd plan dat in korte tijd resultaat oplevert, inclusief voorbeelden en kleine projecten om vaardigheden direct toe te passen.

Vraag aan ChatGPT om een leerplan op te stellen om je te helpen bij het programmeren.

ChatGPT

Chatbot

Grote taalmodellen (LLM’s) vormen de basis voor chatbots als OpenAI’s ChatGPT en Anthropics Claude, maar óók voor de tools die we hierna behandelen. Feitelijk benaderen we de chatbots in dit eerste deel van het artikel rechtstreeks, via een browser of app. De andere tools gebruiken de API van deze bedrijven. Raadpleeg eventueel voor het starten met ChatGPT deze basiscursus.

De nieuwere modellen (we gebruiken overwegend ChatGPT 4o en Claude 3.5 Sonnet) laten heel goede resultaten zien voor programmeertaken. Ze helpen uiteraard niet alleen om programmacode te schrijven maar kunnen code ook uitleggen, fouten oplossen en de documentatie schrijven. Ook kun je uitstekend brainstormen over een project of ideeën. Het is daarom, óók als je andere tools voor programmeren gebruikt, enorm praktisch om erbij te hebben! Toegang tot ChatGPT is gratis met beperkingen. Een abonnement is minder gelimiteerd en geeft vaak toegang tot nieuwere modellen (zoals o1 of o3-mini). Zo’n abonnement is niet bruikbaar voor de andere tools, die gebruiken namelijk de API waarvoor je aparte credits moet aanschaffen.

Een chatbot biedt goede ondersteuning bij al je programmeervragen.

Eerste stappen

We beginnen met een eenvoudig voorbeeld en vragen aan ChatGPT om een spelletje boter-kaas-en-eieren te maken, ook wel bekend als tic-tac-toe. Hoewel het Engels soms betere resultaten kan geven, werken we voor dit artikel volledig in het Nederlands. We starten met deze prompt: “Maak een volledig functionele boter-kaas-en-eieren voor in een browser. Maak de HTML-structuur, voeg CSS-stijlen toe en implementeer de JavaScript-logica. Maak een scheiding tussen HTML, CSS en JavaScript. Zorg dat het programma responsief is zodat het bij elke schermgrootte werkt.”

ChatGPT genereert de gevraagde code. Je kunt individueel de HTML, CSS en JavaScript kopiëren. Om het te proberen, kun je alles plakken op websites als www.jsfiddle.net en www.codepen.io. Voor dit voorbeeld hebben we bij JSFiddle een projectpagina aangemaakt. We gaan dit voorbeeld in de volgende stappen verder verbeteren, steeds met links naar de verbeterde versie.

De eerste versies van het spel boter-kaas-en-eieren.

Geluiden toevoegen

We vragen ChatGPT om het programma aan te passen, zodat er een geluid wordt afgespeeld bij elke zet. ChatGPT voegt daarop een audio-element toe aan de HTML-code. Het past ook het script aan om dit aan te roepen bij elke zet. Je moet nog wel zelf het mp3-bestand plaatsen in de uiteindelijke programmamap of een volledige link naar het mp3-bestand invullen in de HTML-code:

<audio id="move-sound" src="muisklik.mp3"></audio>

Er zijn overigens veel websites waar je leuke geluidseffecten kunt vinden die je vrij kunt gebruiken, waaronder Pixabay. Op deze pagina zie je onze aangepaste versie.

De aangepaste HTML-code bevat een verwijzing naar een mp3-bestand.

Computertegenstander

We vragen ChatGPT vervolgens om een slimme computertegenstander toe te voegen, waarbij aan het begin van het spel wordt gekozen wie er mag beginnen. Via deze webpagina kun je deze versie zien. De computertegenstander blijkt in eerste instantie overigens helemaal niet zo slim, waardoor je makkelijk je potjes wint. Maar dat is snel opgelost. Na ons verzoek om de computertegenstander slimmer te maken, controleert het programma voortaan eerst op mogelijke winnende zetten en blokkeert het de tegenstander indien nodig. Als er geen direct winnende of blokkerende zetten zijn, kiest het een willekeurige lege cel. Deze slimmere versie kun je hier bekijken.

Het aangepaste script op een canvas in ChatGPT.

Uiterlijk verfraaien

Als laatste hebben we gevraagd het uiterlijk wat mooier te maken. Hierbij wordt voornamelijk de CSS-code aangepast om de visuele stijl van het spel te verbeteren. Het resultaat is geslaagd: ChatGPT geeft de achtergrond een mooi kleurverloop. Ook zijn de stijlen van de knoppen en speelvelden aangepast. Het levert een veel moderner en aantrekkelijker uiterlijk op.

Je kunt ChatGPT uiteraard steeds vragen om het script of een deel daarvan uit te leggen. Ben je het overzicht over de wijzigingen kwijt, dan kun je uiteraard ook vragen om de laatste HTML-code in te zien, of de laatste versie van het script. Eventueel op een canvas. Toch misten wij in ChatGPT soms wat overzicht en is het bovendien lastig om een stapje terug te doen als een aanpassing niet het gewenste resultaat oplevert. Dit zijn zaken die we in het volgende deel gaan aanpakken met Aider.

De gemoderniseerde versie van boter-kaas-en-eieren.

Contextvenster bij een taalmodel

Bij het werken met een groot taalmodel ofwel een Large Language Model (LLM) zijn er enkele technische beperkingen. Een daarvan is het contextvenster. Dat kun je zien als de hoeveelheid tekst die het model kan onthouden, gemeten in tokens. Een token is een deel van een woord en kan ook spaties en leestekens bevatten. Gemiddeld is een token ongeveer 3 tot 4 tekens groot.

Eerdere versies van ChatGPT hadden een relatief klein contextvenster van 4096 tokens. Het kan dan niet altijd alle details onthouden van de gebruikte teksten. Tegenwoordig is het contextvenster veel groter, en onthouden de modellen gemakkelijk 128.000 tokens of meer. Dat is ongeveer een heel boek! Dat is niet alleen nuttig bij het werken met hele lange teksten of artikelen, maar ook bij programmeerwerk, waar je vaak met grote bibliotheken te maken hebt.

Aider

Opdrachtprompt

Voor grotere programmeerprojecten is het werken met een chatbot al snel vervelend en verwarrend. Veel praktischer is een tool die met jouw eigen projectbestanden werkt en zelf of samen de gewenste aanpassingen maakt. Als je geen moeite hebt met het werken met een opdrachtprompt, is Aider een uitstekende optie. Die tool helpt met het schrijven en aanpassen van code.

Aider is opensource en werkt met heel veel LLM’s samen. Hier gebruiken we de API voor Claude 3.5 Sonnet, maar je kunt ook de API van OpenAI gebruiken of een LLM die je zelf lokaal draait of elders, zoals via OpenRouter. De integratie met Git is enorm praktisch. Voor elke aangebrachte wijziging voert het een ‘commit’ uit, voorzien van een duidelijke omschrijving, zodat je achteraf een goed overzicht met alle veranderingen hebt en ook stapjes terug kunt doen. Niet alle alternatieven bieden dit en dat is vooral een gemis als er iets fout gaat en je geen idee meer hebt hoe je dat moet oplossen.

Aider werkt samen met alle gangbare LLM’s.

Voorbereiding

We willen weer laten zien hoe je het spelletje boter-kaas-en-eieren met Aider zou kunnen maken. We gebruiken het voor velen vertrouwde programma Visual Studio Code onder Windows en installeren Aider via een opdrachtprompt binnen die ontwikkelomgeving. Binnen de editor kun je uiteraard alle gegenereerde bestanden bekijken en handmatig aanpassen. Voor de installatie van Aider heb je Python nodig. Zet tijdens de installatie van Python een vinkje bij Add python.exe to PATH, zodat je Python vanuit elke map kunt aanroepen.

Installeer ook Visual Studio Code als je dat nog niet eerder hebt gedaan. Visual Studio Code biedt een mogelijkheid om Copilot als assistent te gebruiken, maar dat slaan we hier over.

Installeer ook Git, zodat versiebeheer mogelijk is. Kies tijdens de installatie van Git voor het gebruik van Visual Studio Code als standaardeditor. Verder kun je alle standaardinstellingen accepteren. Als je Python, Visual Studio Code en Git hebt geïnstalleerd, kun je door met de installatie van Aider.

Installeer Python onder Windows voordat je met Aider aan de slag gaat.

Installatie Aider

We kunnen nu Aider installeren. Open daarvoor Visual Studio Code en kies in het menu de optie Terminal / New Terminal. Verander de terminal, via de optie rechtsboven in het venster, naar Git Bash. Installeer daarna Aider met de volgende twee opdrachten:

python -m pip install aider-install
aider-install

Sluit de terminalvenster via het kruisje rechtsboven. Open dan een nieuwe terminal en wissel weer naar Git Bash. Als je Aider niet kunt aanroepen met aider zul je het PATH moeten uitbreiden met de aangegeven opdracht, zoals in het voorbeeld hieronder:

export PATH="C:\\Users\\gertj\\.local\\bin:$PATH"

Zorg dat je in dit voorbeeld voor Claude 3.5 Sonnet een API-sleutel hebt en voldoende credits om mee te beginnen (zie het kader ‘API-sleutel maken voor Claude’). Exporteer deze API-sleutel zodat Aider deze direct kan gebruiken:

export ANTHROPIC_API_KEY=sk-ant…

Maak nu een nieuwe map voor je toepassing, blader naar die map en maak een Git-repository:

mkdir tictactoe
cd tictactoe
git init .

Je kunt nu beginnen met programmeren, met de ondersteuning van Aider!

We installeren Aider om het binnen Visual Studio Code te gebruiken.

API-sleutel maken voor Claude

Bij Aider werken we zoals aangegeven met Claude 3.5 Sonnet, een populaire optie onder programmeurs. Voor toegang is een API-sleutel nodig. Ga daarvoor naar de console van Anthropic. Vul je e-mailadres in. Via e-mail ontvang je een beveiligde link waarmee je kunt inloggen. Ga dan naar Settings / API keys en klik op Create Key. Vul een naam in, bijvoorbeeld Aider, en klik op Add. Noteer de API-sleutel, deze is later niet meer zichtbaar!

Je hebt ook wat credits nodig. Ga daarvoor naar Billing en voeg credits toe met een creditcard via de optie Add Funds. Begin met een klein bedrag, zoals 10 dollar. Heb je over? Je kunt het altijd nog opmaken door een chatbot als Jan met de API te verbinden.

Via de console van Anthropic kun je een API-sleutel maken.

Programma maken

We gaan ons eerste programma maken. Zorg dat je een terminalvenster hebt geopend en bent gewisseld naar Git Bash. De assistent start je dan met de volgende opdracht:

aider --sonnet

Er wordt de eerste keer gevraagd om .aider* en .env toe te voegen aan .gitignore. Dat raden we aan! Hiermee voorkom je dat deze bestanden, vaak met wachtwoorden en dergelijke, per ongeluk in je Git-repository worden opgenomen en daardoor in potentie online komen, als je de repository via GitHub beschikbaar maakt.

Via de prompt kun je nu je opdrachten afvuren. We vragen zoals eerder om een volledig functionele en responsieve boter-kaas-en-eieren voor in een browser met de vereiste HTML-structuur, CSS-stijlen en JavaScript-logica in aparte bestanden.

Aider gaat direct aan de slag en laat heel overzichtelijk alle aanpassingen zien, met een beschrijving van de uiteindelijke functionaliteit. Het vraagt netjes of het de nieuwe bestanden mag maken (index.html, styles.css en script.js) en daarna of het deze mag openen in een browser. Het spel is in deze eerste versie volledig responsief met een duidelijke gebruikersinterface, houdt de speelstatus bij, detecteert wanneer iemand wint of als het een gelijkspel is, heeft een knop om het spel opnieuw te starten en is helemaal in het Nederlands. Een goed begin!

Aider heeft het programma voor ons uitgewerkt.

Aanpassingen maken

We vragen opnieuw in natuurlijke taal om wijzigingen te maken. De workflow is erg prettig. Aider geeft eerst aan welke bestanden waarschijnlijk moeten worden gewijzigd. Voor het geluid stelt het bijvoorbeeld wijzigingen in index.html en script.js voor. Dan vraagt Aider of het deze bestanden mag toevoegen aan de chat.

Als de radartjes zijn uitgedraaid, na interactie met Claude, geeft Aider heel nauwkeurig aan welke regels in welke bestanden moeten worden gewijzigd. Ook geeft Aider aan dat je een mp3-bestand genaamd move.mp3 in dezelfde map moet plaatsen.

We vragen Aider daarna ook om een slimme computertegenstander toe te voegen. Die is meteen heel slim en probeert direct te winnen als dat kan, blokkeert winnende zetten van de tegenstander, probeert het centrum te veroveren en kiest anders voor hoeken of willekeurige zetten.

Tot slot vragen we Aider om het programma te verfraaien met een moderner uiterlijk. Dat levert een flinke metamorfose op. Bekijk hier het resultaat.

Via een comfortabel proces maakt het alle gewenste aanpassingen.

Kosten voor werken met Aider

We hebben tijdens het werken met Aider continu de credits in de gaten gehouden. We controleerden dit via de console bij Anthropic, maar Aider zelf toont ook bij elke actie welke kosten het heeft gemaakt. Voor de meeste aanpassingen gaat het om zo’n 5 tot 11 dollarcent. In totaal heeft het programma ongeveer 0,23 dollar (circa 0,22 euro) gekost. Het hangt er voornamelijk vanaf hoeveel tokens er nodig zijn, wat weer samenhangt met de omvang van de bestanden die aan de chat worden toegevoegd.

Integratie met Git

De standaard integratie met Git biedt veel voordelen. Als Aider aanpassingen maakt aan een bepaald bestand zal het in Git een heldere beschrijving toevoegen aan de zogeheten commit. In Visual Studio Code kun je deze historische aanpassingen eenvoudig terugzien. Klik daarvoor op een bestand en open in de balk aan de linkerkant Timeline. Zorg dat de filterinstelling is ingesteld op Git History.

Nu zie je de commit-geschiedenis van het geselecteerde bestand. Door op een specifieke commit te klikken, kun je de aangebrachte wijzigingen bekijken. Binnen Aider zijn er ook nog wat trucjes. Zo kun je met /diff zien wat de laatste veranderingen zijn. Met /undo kun je die eenvoudig ongedaan maken.

We hebben de repository op GitHub gezet. Ook hier kun je alle veranderingen bekijken. Open daarvoor een bestand, zoals script.js, en ga dan rechtsboven naar History. Hier zie je de verschillende wijzigingen. Als je op een van de aanpassingen klikt, zie je netjes welke veranderingen in de code zijn gemaakt.

Je kunt handig zien welke historische wijzigingen zijn aangebracht in bestanden.

Git en GitHub

Aider gebruikt een git-repository. Sommige mensen verwarren dit met GitHub. Je kunt met Git prima alleen een lokale repository maken, op het systeem waarop je met Aider werkt. Optioneel kun je deze repository met GitHub verbinden, zodat je in feite een kopie in de cloud hebt. Dat is voor jezelf wel heel praktisch, omdat je veel makkelijker de wijzigingen kunt bijhouden en bestuderen. En je kunt ook met anderen samenwerken aan code.

Ook interessant om te lezen: GitHub Codespaces: altijd de juiste tools bij de hand

We hebben de repository gedeeld met GitHub, zodat je alle veranderingen kunt inzien.

Windsurf Editor

 Complete ontwikkelomgeving

Zoek je een completere ontwikkelomgeving met geïntegreerde AI, dan zijn Cursor AI en Windsurf Editor twee populaire opties. Cursor AI is een gevestigde speler, maar krijgt steeds meer concurrentie van het nieuwere Windsurf Editor. Beide ontwikkelteams blijven verbeteringen doorvoeren om niet voor elkaar onder te doen.

Beide programma’s zijn bovendien klonen van Visual Studio Code, de bekende editor van Microsoft die we ook voor Aider hebben gebruikt. Daarom lijken ze in veel opzichten op elkaar. Het kan handig zijn om verschillende thema’s te gebruiken als je ze naast elkaar gebruikt, zodat je ze uit elkaar kunt houden.

Windsurf Editor werkt met een ingebouwde assistent genaamd Cascade.

Cascade

We hebben ook in Windsurf geprobeerd om het spelletje boter-kaas-en-eieren uit dit artikel te maken. De assistent in Windsurf Editor heet Cascade; via het Cascade-deelvenster kun je hem direct aan het werk zetten. Een leuk detail is dat niet alleen code wordt gegenereerd, maar dat er ook veel aanvullende acties voor je worden uitgevoerd, zoals het aanmaken van een map voor je project en voor de geluiden, en het maken van een mp3-bestand.

Bij elke stap kun je zien welke bestanden worden aangepast en de voorgestelde wijzigingen controleren en bevestigen. Je hoeft niet, zoals bij Aider, zelf een API-sleutel te regelen voor toegang. Je gebruikt steeds het model van Cascade en de administratieve kant wordt via je account geregeld, op basis van credits (zie volgende paragraaf). Zo’n diepere integratie is heel praktisch. Toch heeft de workflow veel overeenkomsten met Aider.

Via een deelvenster kun je een conversatie met Cascade voeren.

Werken met credits

Windsurf werkt met credits voor verschillende taken. Zo worden User Prompt-credits voor elke interactie met de assistent gebruikt en Flow Action-credits voor alle acties die worden uitgevoerd. Als je de limiet bereikt voor het premiummodel, wordt overgeschakeld naar het basismodel. De proefperiode van 14 dagen geeft je ruim voldoende credits om het voorbeeldprogramma uit dit artikel te maken. Sterker nog, je hebt ongeveer vijftien keer meer credits dan nodig, dus je kunt ook grotere en complexere programma’s proberen te maken.

Buiten die proefperiode is, om het premiummodel te gebruiken, een upgrade naar de Pro-versie bijna onvermijdelijk (ca. 18 euro per maand). Je hebt dan wel elke maand een ruime hoeveelheid credits en kunt vrij voordelig credits bijkopen.

Windsurf Editor werkt met een systeem van credits.

Beste optie voor hobbyprogrammeur?

Over het algemeen werkt het programmeren met een chatbot zoals ChatGPT goed. Voor losse functies of snippets werkt het zelfs uitstekend. Maar het is lastig om het overzicht te behouden over de gegenereerde code en eventuele aanpassingen, zeker als het om wijzigingen in meerdere bestanden gaat.

Aider en Windsurf Editor hebben een fijnere workflow, omdat ze de lokale bestanden direct voor je wijzigen, eventueel meerdere tegelijkertijd. Wat kosten betreft is Aider waarschijnlijk interessanter voor de hobbyprogrammeur die af en toe een project oppakt. Je kunt ad-hoc wat credits bijkopen of eens een ander model proberen, lokaal of via bijvoorbeeld OpenRouter. Het opensource DeepSeek R1 bijvoorbeeld. Je kunt bovendien elke ontwikkelomgeving kiezen, terwijl Windsurf Editor volledig op Visual Studio leunt. De integratie met Git ook een praktisch voordeel van Aider.