ID.nl logo
Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen
© Pippin - stock.adobe.com
Huis

Stel vragen over je eigen data met RAG: zo werkt AI met jouw bronnen

Wanneer je een chatbot als ChatGPT of Copilot een vraag stelt, krijg je (hopelijk) een degelijk antwoord. Dit is mogelijk omdat deze AI-modellen zijn getraind met talloze tekstdata, zoals boeken, artikelen en websites. Maar je kunt zo’n model ook koppelen aan een eigen verzameling documenten en deze data dynamisch laten gebruiken.

In dit artikel laten we zien hoe je een AI-chatbot combineert met je eigen documenten om gerichte antwoorden te genereren:

  • Leer hoe RAG jouw documenten gebruikt om contextueel relevante antwoorden te geven
  • Gebruik NotebookLM van Google voor cloudgebaseerde documentanalyse en samenvattingen
  • Installeer en gebruik AnythingLLM lokaal voor volledige controle over je data
  • Ontdek alternatieven zoals Ollama en RAGflow voor geavanceerde lokale set-ups

Lees ook: Makkelijk switchen tussen AI-taalmodellen? Maak kennis met Jan

Dit artikel bespreekt oplossingen om eigen documenten als doorzoekbare database aan een AI-model te koppelen, zowel in de cloud (via NotebookLM) als lokaal (met tools als AnythingLLM en Ollama). Bij dit proces haalt een model eerst relevante informatie uit een specifieke externe bron of database op (retrieval) en gebruikt deze vervolgens om een contextueel antwoord te genereren (generation). Dit heet Retrieval-Augmented Generation, kortweg RAG.

Voor we concreet ingaan op de genoemde tools, leggen we kort uit hoe een AI-chatbot je prompts analyseert en op basis van getrainde kennis een relevant antwoord probeert te genereren. Daarna bekijken we hoe dit in een RAG-context verloopt.

1 LLM-dataverwerking

Veel mensen denken dat een AI-model zoals ChatGPT of andere Large Language Models (LLM’s) zoals Gemini, Grok, Llama of Claude bij een prompt direct een database van webpagina’s doorzoekt, een samenvatting maakt en die als antwoord teruggeeft. Afhankelijk van het model en je vraag kan er soms in live internetbronnen worden gezocht, maar doorgaans werkt dit proces fundamenteel anders.

In de trainingsfase leren LLM’s namelijk hoe woorden, zinnen en concepten samenhangen. Deze informatie wordt vervolgens opgesplitst in kleine woorddelen (tokens) en door een embedding-functie opgenomen (ingebed) als miljarden getallen, oftewel parameters, in één- of meerdimensionale tabellen, zoals vectoren en tensors.

Zo kan het woord ‘bank’, afhankelijk van de context, in een andere tabel belanden. Bij ‘Geld op een bank zetten’ wordt ‘bank’ gekoppeld aan financiële begrippen zoals ‘geld’ en ‘spaar’, terwijl ‘bank’ bij ‘Op een bank zitten’ aan huiselijke begrippen als ‘stoel’ en ‘zit’ wordt gelinkt. Deze structuur heet een transformer-model, en vandaar ‘GPT’: Generative Pre-trained Transformer.

Wanneer je nu een prompt invoert, zet de chatbot deze eerst om in vectoren die de contextuele betekenis weergeven. Deze worden vervolgens vergeleken met de LLM-parameters, waarna het model stapsgewijs de meest waarschijnlijke volgende tokens voorspelt. Uiteindelijk wordt deze tokenrij naar woorden omgezet en krijg je als gebruiker een antwoord terug.

De positionering van (een homoniem als) ‘bank’ in deze vector zal ook afhangen van de context.

2 RAG-dataverwerking

Wanneer je zelf databronnen toevoegt, zoals docx- of pdf-bestanden, of zelfs afbeeldingen, is het onrealistisch dat het LLM hiervoor opnieuw een trainingsfase doorloopt. Dit proces kost namelijk veel tijd en miljoenen euro’s. Daarom wordt gebruikgemaakt van technieken als RAG. Om RAG toe te passen, worden vectordatabases, zoals LanceDB en Pinecone, of document-retrievalsystemen, zoals Elasticsearch en Haystack, ingezet.

Bij vectordatabases worden tekstdata door de ingebouwde ‘embedder’ vooraf omgezet in vectoren, vergelijkbaar met een LLM. Deze vectoren worden opgeslagen in een database die doorzoekbaar is op basis van vectorovereenkomsten. Dit maakt ze geschikt voor contextueel en semantisch zoeken, veel meer dan met traditionele SQL-databanken mogelijk is.

Document-retrievalsystemen slaan de data als tekst op, vaak in gestructureerde velden, waardoor full-text search mogelijk is op basis van trefwoorden en tekstuele overeenkomsten. Deze systemen zijn meer geschikt voor exacte tekstopzoekingen.

Interessante achtergrondinformatie over vectordatabases en hun relatie tot LLM’s vind je onder meer hier.

Tekstdata worden door de ingebouwde embedder in een vectordatabase ondergebracht.

3 RAG-zoekopdrachten

Hoe verloopt een RAG-zoekproces over het algemeen? Eerst upload je alle gewenste documenten naar het systeem. De tekstdata worden daarna, via een lokaal (Ragflow, AnythingLLM) of cloudgebaseerd (NotebookLM) embedding-model, in kleine stukken verdeeld en in een vectordatabase opgeslagen, lokaal of in de cloud.

Wanneer je nu een prompt invoert, wordt deze eveneens door het embedding-model gevectoriseerd. De vectordatabase zoekt vervolgens naar relevante tekstfragmenten op basis van overeenkomsten, waarna de relevantste fragmenten worden opgehaald. Deze fragmenten worden nu gecombineerd met je originele prompt en samen naar het LLM-model gestuurd, lokaal of via een API(-sleutel) naar een cloudmodel als ChatGPT. Het gegenereerde antwoord wordt daarna teruggestuurd naar je systeem.

Draait het RAG-systeem lokaal, dan worden dus alleen de relevante fragmenten en je prompt naar de cloud gestuurd, tenzij ook de chatbot lokaal draait. In dit geval blijft alles lokaal. Je volledige documenten en de bijbehorende vectoren blijven hoe dan ook lokaal, tenzij het hele RAG-systeem in de cloud draait.

Een typisch RAG-scenario: de prompt en (alleen) de relevante data gaan naar het LLM-model.

Even appen?

Veel gebruikers weten niet dat je een AI-bot ook via WhatsApp kunt bevragen. Zo benader je ChatGPT via het telefoonnummer +1 800 2428478. Commerciële bedrijven als het Nederlandse The AI-Book Company hebben inmiddels een verdienmodel ontwikkeld waarbij AI-boeken via WhatsApp worden aangeboden.

De volledige inhoud van een specifiek boek wordt hierbij geüpload naar een document-retrievalsysteem, zoals Elasticsearch of een vectordatabase als LanceDB, en via API’s gekoppeld aan WhatsApp en een AI-chatbot als ChatGPT. Als geregistreerde gebruiker (wat meestal zo’n 10 euro kost) kun je dan via WhatsApp concrete vragen stellen aan het boek, waarna de chatbot de antwoorden genereert. Je hoeft het boek dus niet noodzakelijk zelf eerst (volledig) te lezen.

RAG-AI in de vorm van een WhatsApp-contactpersoon.

4 NotebookLM

Je weet nu ongeveer wat je met een RAG-systeem kunt en hoe dit onderliggend werkt. Hoog tijd nu om zo’n systeem aan de tand te voelen. We beginnen met een cloudgebaseerd RAG-systeem, Google NotebookLM, dat vooral geschikt is als privacy voor jou minder belangrijk is (al claimt Google je persoonsgegevens niet te gebruiken om NotebookLM te trainen).

Ga naar https://notebooklm.google en klik op de knop NotebookLM proberen. Meld je aan met een persoonlijk Google- of Google Workspace-account.

Je merkt dat er standaard al een notebook is aangemaakt: Introduction to NotebookLM. In het Bronnen-menu aan de linkerkant kun je zeven reeds toegevoegde documenten bekijken. Klik op een document voor een geautomatiseerde samenvatting en de belangrijkste aanklikbare onderwerpen. In het document NotebookLM Features lees je bijvoorbeeld welke documenttypes je kunt uploaden. Je kunt hierover open vragen stellen in het chatvenster, zoals: ‘Met welke types bronbestanden kan NotebookLM precies overweg?’ Het antwoord baseert zich grotendeels op tekstfragmenten uit dit document, zoals zichtbaar bij de genummerde bronverwijzingen.

De bot geeft bij de prompt netjes aan hoeveel bronnen hij kan raadplegen (zeven in dit geval). Stel je een vraag als ‘Is NotebookLM een Retrieval Augmented Generation-systeem (RAG)’, dan krijg je een gefundeerd antwoord met verwijzingen naar een of meer documenten, ook al wordt ‘RAG’ niet expliciet in deze documenten vermeld. NotebookLM vult namelijk antwoorden aan met eigen trainingsdata (van Gemini Pro in dit geval) wanneer dat zinvol is. Vragen die geen verband houden met je documenten blijven echter onbeantwoord.

Desnoods haalt NotebookLM aanvullende informatie uit de eigen trainingsdata op.

5 Bronnen toevoegen aan NotebookLM

We laten je zien hoe je een eigen notebook samenstelt. Een notebook kun je zien als een project dat uit meerdere documenten bestaat, vergelijkbaar met een map met bestanden. Klik op het pictogram linksboven om een overzicht van bestaande notebooks te zien. Kies hier + Nieuwe maken om documenten toe te voegen. Dit kunnen lokale bestanden zijn, zoals pdf’s, txt-bestanden en diverse audioformaten met spraak, maar ook documenten en presentaties uit Google Drive, links naar websites, publieke YouTube-video’s (met onderschriften) of tekst van het klembord. Per notebook kun je maximaal vijftig bronnen uploaden, elk tot 200 MB groot.

Audiobestanden worden automatisch intern getranscribeerd, zodat je er vragen over kunt stellen. Met de knop + Bron toevoegen voeg je meer bronnen toe aan een geselecteerd notebook. Met vinkjes bepaal je welke bronnen de dienst mag gebruiken bij vragen. Je kunt ook anderstalige documenten uploaden en in je voorkeurstaal, zoals Nederlands, vragen stellen en antwoorden ontvangen. De taalvoorkeur stel je in via de instellingen van je Google Account.

Ook anderstalige bronnen (rechts: een pdf in Adobe Reader) kun je meteen bestuderen en bevragen in je eigen taal.

6 Speciale notities in NotebookLM

Wil je antwoorden bewaren, klik dan op Notitie toevoegen. De notitie wordt opgeslagen onderaan het rechterdeelvenster Studio. Hier vind je ook nog allerlei andere knoppen:

  • Veelgesteldevragen genereert een nieuwe notitie met korte vragen over de geselecteerde bronnen, inclusief antwoorden.

  • Studiemateriaal deelt je bronmateriaal op in een glossarium, korte quizvragen met antwoorden en complexere essayvragen.

  • Overzichtsdocument toont de belangrijkste feiten en inzichten uit je bronnen, inclusief een korte inhoud, kernpunten, relevante citaten en een conclusie.

  • Tijdlijn geeft een chronologische lijst met belangrijke feiten, gebeurtenissen en eventueel betrokken personages.

  • Audio-overzicht zet bronmateriaal om in een podcast-achtige Engelstalige conversatie, die als wav-bestand te downloaden is (en die je, indien gewenst, naar bijvoorbeeld mp3 kunt omzetten, zoals met het gratis Shutter Encoder). Het zou ons weinig verbazen als dit (in de Plus-versie?) binnenkort bijvoorbeeld ook in het Nederlands kan, met je eigen stem.

Je kunt notebooks delen met andere Google-gebruikers als Kijker of Bewerker, maar je kunt op elk moment ook weer de toegang intrekken. Wie NotebookLM in Pro gebruikt, kan de chatresponses verder bijsturen en meer notebooks, bronnen, vragen en overzichten maken. Dit abonnement biedt tot 500 notebooks, elk met maximaal 300 bronnen, en dagelijks 500 chatvragen en 20 audio-overzichten (meer informatie vind je hier).

Van een tijdlijn over studiemateriaal tot een heuse podcast met slechts enkele muisklikken.

7 Cloud versus lokaal

Tools als NotebookLM zijn bijzonder nuttig voor het bestuderen, analyseren en kritisch bevragen van zowel tekst- als audiobronnen. Een nadeel is dat je bronnen naar de cloud moet uploaden. Dat kan onhandig en tijdrovend zijn en vormt altijd een risico voor de privacy, ook al zegt Google deze data niet voor trainingsdoeleinden te gebruiken.

Met de juiste tools kun je dit proces ook deels of volledig lokaal uitvoeren, zodat er weinig tot geen data online komen. Een geschikte oplossing is de gratis tool AnythingLLM, een opensource-framework waarmee je LLM’s kunt beheren en gebruiken, zowel in de cloud (meestal via API’s) als lokaal. Je kunt het systeem bovendien uitbreiden met eigen data via RAG.

Het hele systeem van AnythingLLM kan ook in de cloud worden gehost. Zo’n gehoste oplossing kost ongeveer 50 dollar (ca. 48 euro) per maand voor vier gebruikers en honderd documenten) of 99 dollar (ca. 95 euro) per maand voor grotere teams of databibliotheken.

Wil je volledige controle, dan kun je zowel dataopslag, embedder, vectordatabase als het LLM-model lokaal draaien. Hosting kan op een eigen pc of server, bijvoorbeeld als uitvoerbare applicatie voor Windows, macOS of Linux. In Linux gebruik je bijvoorbeeld dit commando:

curl -fsSL https://cdn.useanything.com/latest/installer.sh | sh

Een andere optie is om een dockercontainer te gebruiken voor een meer geïsoleerde en schaalbare omgeving.

AnythingLLM laat zich makkelijk installeren voor diverse platformen.

8 AnythingLLM

We tonen hier hoe je met de desktopapplicatie (versie 1.7.2 in ons geval) voor Windows (x64) aan de slag kunt. Je installeert deze suite met diverse AI-tools via het uitvoerbare bestand in slechts een paar muisklikken, waarna de suite direct klaar is voor gebruik. De systeemeisen hangen af van wat je wilt doen, zoals het gebruik van een lokale embedder, vectordatabase en/of LLM. Officieel zijn 2 GB geheugen, een dualcore-cpu en 5 GB opslagruimte toereikend, maar dit zijn absolute minimumwaarden, geschikt als je vooral externe diensten (zoals in de cloud) gebruikt.

Bij de eerste keer opstarten van AnythingLLM klik je op Get started. Je selecteert vervolgens een geschikte LLM-provider voor het genereren van responses op basis van je prompts en meegestuurde tekstfragmenten. Standaard wordt hier AnythingLLM voorgesteld, die onderliggend Ollama gebruikt (zie het kader 'Ollama en RAGflow’). Kies uit de veertien voorgestelde LLM’s, met onder meer modellen van Meta, Microsoft, Google en Mistral. De meeste zijn tekstmodellen, maar een paar zijn multimodaal en ondersteunen in principe ook afbeeldingen. Bij elk model staat een GB-waarde die aangeeft hoeveel geheugen nodig is (bij voorkeur VRAM van de gpu). Laat je keuze mede hierdoor bepalen. Selecteer een model zodat de aanduiding Active verschijnt en druk op de rechterpijlknop.

Je kiest zelf de LLM die je binnen je werkruimte in AnythingLLM wilt gebruiken: lokaal of extern.

Ollama en RAGflow

AnythingLLM profileert zich als een alles-in-één AI-applicatie, maar je kunt ook kiezen voor een handmatigere aanpak. Een combinatie van Ollama en een tool als RAGflow is een bruikbaar alternatief. Deze opzet vereist wel meer configuratie, maar RAGflow biedt meer opties voor finetuning.

Ollama (beschikbaar voor Windows, macOS en Linux) stelt je in staat om LLM’s lokaal te draaien of via API’s met cloudgebaseerde LLM’s te verbinden. Wil je zelf de locatie van de gedownloade LLM’s bepalen, maak dan in Windows een omgevingsvariabele aan: OLLAMA_MODELS=<pad_naar_downloadmap>. Op www.ollama.com/search kun je nu een LLM kiezen en het bijbehorende opdrachtregelcommando vinden, bijvoorbeeld ollama run llama3.2:1b. Je kunt je chatprompts meteen op de bijbehorende prompt invoeren.

RAGflow installeer je op Windows het eenvoudigst via Docker Desktop, nadat je WSL2 hebt geïnstalleerd (met het commando wsl --install). Download het zip-archief van RAGflow (druk op Code en Download ZIP). Raadpleeg de Readme voor meer details. Navigeer naar de uitgepakte map en voer hier dit commando uit:

docker compose -f docker/docker-compose.yml up

De container wordt nu toegevoegd in Docker Desktop. Zorg dat de container is gestart en open de webinterface van RAGflow via localhost:80 voor verdere configuratie, na je aanmelding. Bij Model Providers kun je nu Ollama selecteren en uit een van de gedownloade LLM’s kiezen.

RAGflow met Ollama: een sterk duo, maar wel wat set-up- en configuratiewerk.

9 Werkruimtes

Je komt op een overzichtspagina terecht waar je naast de gekozen LLM (in dit voorbeeld AnythingLLM x Ollama) ook de standaard geselecteerde embedder (Anything LLMEmbedder) en de vectordatabase (LanceDB) ziet. AnythingLLM kiest bewust voor lokaal werkende oplossingen om je privacy te beschermen. Je kunt deze instellingen later wijzigen, maar bevestig nu met de rechterpijlknop. Klik eventueel op Skip Survey en vul de naam in van je eerste werkruimte. Een werkruimte functioneert als container voor documenten en gesprekken rond een specifiek thema of project, zodat je gestructureerd kunt werken.

Nadat je op de rechterpijlknop hebt gedrukt, verschijnt het hoofdvenster van AnythingLLM: links zie je de werkruimtes en rechts een welkomstvenster. Via de knop + NieuweWerkruimte kun je extra werkruimtes aanmaken. Een naam geven is voldoende, omdat nieuwe werkruimtes standaard de net ingestelde algemene instellingen overnemen.

Klik op het tandwielpictogram bij een werkruimte. Op het tabblad Algemene instellingen kun je de naam wijzigen of de werkruimte verwijderen. Weet wel dat alles wat je embed in de vectordatabase van toegevoegde bronbestanden verdwijnt bij verwijdering. De bronbestanden zelf blijven behouden.

Je kunt werkruimtes maken, benoemen en ook weer verwijderen.

10 Bronbestanden

Je voegt bronbestanden als volgt aan je werkruimte toe. Klik vanuit het hoofdvenster op de uploadpijl naast de werkruimte. Er opent een dialoogvenster met twee knoppen: Documents en Data Connectors. Via Documents kun je diverse bestandstypes uploaden, zoals txt-, pdf-, csv- en xls(x)-bestanden, of ze direct verslepen naar het venster. Deze bestanden worden door de ingebouwde document-processor geanalyseerd (waarbij ze worden opgesplitst in brokken (chunks) van een instelbaar aantal tokens) en vervolgens in het deelvenster My Documents geplaatst. Documenten die je eerder in andere werkruimtes hebt toegevoegd, zijn hier ook beschikbaar (met de indicatie Cached). Je kunt ook naar webpagina’s of online documenten verwijzen door de url in te voeren en op Fetch website te klikken. Toegevoegde documenten worden standaard geplaatst in de map custom-documents, maar je kunt ze ook organiseren in nieuwe mappen via + NewFolder.

Selecteer documenten die je wilt gebruiken in de werkruimte en klik op Move to Workspace. Controleer ook de knop Data Connectors. Hiermee kun je (online) documenten ophalen via diensten als GitHub Repo, GitLab Repo en Confluence, of zelfs YouTube-transcripts en webpagina’s via Bulk Link Scraper. Bij deze scraper vul je een url in, plus de gewenste linkdiepte en het maximaal aantal te lezen pagina’s. Deze gegevens worden dan eveneens aan je documenten toegevoegd.

Bevestig met Save and embed om de documenten in de vectordatabase te embedden. Dit proces kan, afhankelijk van de hoeveelheid data, wel even duren.

Voeg alle gewenste bronbestanden (zoals documenten of webpagina’s) toe aan het systeem.

11 Chatomgeving

In het hoofdvenster open je de gewenste werkruimte. Standaard is er al één thread actief (Default): een conversatie tussen jou en de LLM. Je kunt extra threads aanmaken via + New Thread. Voer je prompts in en de LLM geeft (hopelijk relevante) antwoorden op basis van de doorgestuurde tekstfragmenten. Klik op Show Citations om te zien welke bronnen zijn gebruikt. Door op een bron te klikken, zie je de specifieke tekstfragmenten. Je kunt prompts ook inspreken (microfoon-pictogram) en de antwoorden laten voorlezen (luidspreker-pictogram).

Daarnaast zie je een paperclip-pictogram voor het ad hoc uploaden van extra documenten en een pictogram voor slash-commando’s en agents. Het standaard beschikbare slash-commando is /reset, waarmee je je chatgeschiedenis wist en een nieuwe sessie start. Voeg via Add aNew Preset eigen commando’s toe, zoals /vertaal met een prompt als ‘Vertaal het zojuist gegeven antwoord naar het Engels’ en Engelse vertaling als beschrijving. Deze commando’s komen automatisch ook beschikbaar in je andere threads en werkruimtes.

Overigens kun je je chatgeschiedenis (van alle werkruimtes) ook bekijken, exporteren en verwijderen via het moersleutel-pictogram, in de categorie Beheerder / Werkruimte Chats.

Slash-commando’s: handig voor vaak gebruikte prompts.

12 Agents

Agents functioneren als autonome modules die AI-modellen gebruiken om specifieke taken zelfstandig uit te voeren, zoals informatie verwerken of acties uitvoeren op basis van ingestelde parameters. Klik op het moersleutel-pictogram linksonder (Open settings) en navigeer naar Agent Vaardigheden. Hier vind je standaard zeven geïntegreerde agents, waarvan je er vier kunt in- of uitschakelen, zoals Generate charts en WebSearch.

We nemen deze laatste als voorbeeld. Activeer deze, selecteer een SERP (Search Engine Results Provider), bijvoorbeeld DuckDuckGo (bij sommige moet je wel nog een API-sleutel invullen). Bevestig met Save. Laat nu in de chatomgeving je prompts voorafgaan door @agent om automatisch geactiveerde en relevante agents op te roepen. Zo kan de agent actuele informatie van internet ophalen, waarbij standaard tot tien zoekresultaten worden verwerkt.

Verwant aan agents zijn de ‘agent skills’. Open de rubriek Community Hub en ga naar Explore Trending. Klik bij een skill op Import en bevestig met Import Agent Skill. Ga daarna terug naar Agent Vaardigheden, waar de skill is toegevoegd. Schakel de skill in om deze beschikbaar te maken.

Met en zonder zoekopdrachten op het web: een merkbaar verschil.

13 Instellingen

Via Open settings kun je op algemeen niveau diverse onderdelen aanpassen. In de categorie AI Providers wijzig je bijvoorbeeld de LLM, Vector Database en Inbedder, zoals een cloudgebaseerde dienst als OpenAI, Pinecone of Gemini. Voor veel opties is een API-sleutel vereist, die vaak niet gratis is. Je stelt hier ook spraak-naar-tekst- (standaard: LocalWhisper) en tekst-naar-spraak-providers in. Voor tekst-naar-spraak is standaard de lokale provider PiperTTS ingesteld, maar je kunt bijvoorbeeld ook een bekende dienst als ElevenLabs kiezen (met API).

Bij Aanpassing stel je het thema, de taal en de automatische berichten voor gebruikers in. Deze instellingen gelden standaard voor alle werkruimtes, maar kunnen op werkruimteniveau worden overschreven. Klik op het tandwielpictogram naast een werkruimte om deze opties aan te passen.

In het tabblad Chat Instellingen kies je een specifieke LLM Provider of stel je de Chatmodus in. Standaard staat dit op Chat, maar met de optie Query gebruikt het systeem uitsluitend je eigen documentcontext voor responses, zonder de getrainde dataset van de LLM te raadplegen. Hier bepaal je ook hoeveel eerdere chats worden meegenomen (standaard 20) en met welke achterliggende prompt de werkruimte rekening moet houden.

Op het tabblad Agent Configuratie kun je agenten en skills selecteren die specifiek voor deze werkruimte gelden. Bevestig alle aanpassingen telkens met de voorziene knoppen.

Je kunt ook instellingen vastleggen die specifiek zijn voor de geselecteerde werkruimte.

▼ Volgende artikel
Trick or treat? Zo ontmasker je cybercriminelen
© ID.nl
Zekerheid & gemak

Trick or treat? Zo ontmasker je cybercriminelen

Halloween: één avond in het jaar waarop iedereen zich vermomt en niets meer is wat het lijkt. Maar online is het elke dag Halloween. Cybercriminelen dragen digitale maskers en doen zich voor als je bank, pakketbezorger of zelfs als een familielid. Hun doel: jou laten klikken, inloggen of betalen. In dit artikel lees je hoe je hun trucs doorziet en hoe je jezelf beschermt tegen online oplichters.

Partnerbijdrage - in samenwerking met Bitdefender

Phishing bestaat al bijna zo lang als e-mail zelf, maar de aanpak is totaal veranderd. Waar je vroeger nog gewaarschuwd werd door kromme zinnen of vreemde links, zijn valse berichten vandaag bijna niet meer van echt te onderscheiden. En het blijft allang niet meer beperkt tot e-mail: ook via sms, WhatsApp en sociale media proberen criminelen je te misleiden. Ze gebruiken het logo van je bank, de tone of voice van PostNL of de opmaak van een bekende webwinkel. Alles klopt – behalve de bedoeling erachter.

De aanvallen zijn bovendien persoonlijker geworden. Met gegevens die online circuleren weten criminelen precies hoe ze iemand moeten aanspreken, van voornaam tot aankoopgeschiedenis. Zo voelt een nepmail of bericht als iets vertrouwds. Eén klik op een link is dan genoeg om je gegevens prijs te geven of malware te installeren.

Deepfakes, stemklonen en AI: vermommingen steeds beter

De komst van kunstmatige intelligentie heeft online oplichting een nieuw gezicht gegeven. Met taalmodellen kunnen criminelen foutloze berichten schrijven in elke taal. Deepfake-video's en stemklonen zorgen dat zelfs beeldbellen of voicemail niet langer betrouwbaar is.

Steeds vaker duiken voorbeelden op van mensen die zogenaamd gebeld worden door een bekende stem – een collega, familielid of zelfs een leidinggevende – met een dringende vraag om geld over te maken. In werkelijkheid praten ze met een digitale imitatie. Die technologie was ooit ingewikkeld, maar is nu voor iedereen toegankelijk. Daarmee is AI niet alleen een handig hulpmiddel voor creatieve toepassingen, maar ook een nieuw masker voor criminelen.

©terovesalainen

Zo herken je digitale vermommingstrucs

Cybercriminelen spelen in op haast, emotie en angst. Berichten waarin je 'nu moet betalen', 'direct moet bevestigen' of waarin met blokkades (van bijvoorbeeld je rekening of simkaart) wordt gedreigd, zijn bijna altijd verdacht. Controleer het e-mailadres van de afzender: kleine afwijkingen zoals een extra punt, cijfer of letter zijn vaak al voldoende om nep van echt te onderscheiden.

Staat er een link in de mail? Beweeg er met je muis over zonder te klikken. Verschijnt er een vreemd webadres, dan klopt er iets niet. Kijk ook naar details: ontbreekt er een persoonlijke aanhef, is de toon onlogisch of komt het bericht op een vreemd moment? Dat zijn signalen dat er iets niet pluis is.

Bel bij twijfel altijd zelf het officiële nummer van de organisatie, in plaats van te reageren op het bericht.

Scam Copilot helpt je oplichters te ontmaskeren

Om gebruikers beter te beschermen tegen steeds geraffineerdere aanvallen ontwikkelde Bitdefender Scam Copilot. Deze slimme functie gebruikt kunstmatige intelligentie om verdachte berichten, e-mails en websites in realtime te analyseren. Waar traditionele beveiliging vooral kijkt naar bekende dreigingen, herkent Scam Copilot ook nieuwe patronen en trucs die nog niet eerder zijn gezien.

De technologie kijkt naar typische kenmerken van oplichting: dwingende toon, vage links, afwijkende namen of zinsconstructies die niet passen bij een echte organisatie. Zodra iets verdacht is, verschijnt direct een waarschuwing. Zo helpt Scam Copilot je om verdachte berichten te ontmaskeren nog vóórdat je erop klikt.

Het systeem leert bovendien voortdurend bij. Nieuwe vormen van phishing, deepfake-aanvallen of misleidende berichten op sociale media worden razendsnel herkend. Zo ben je beschermd tegen zowel oude als nieuwe digitale maskers.

Scam Copilot is onderdeel van Bitdefender Premium Security en Bitdefender Ultimate Security. Die pakketten bieden een complete beveiliging voor alle apparaten in huis – van laptop tot smartphone – en combineren Scam Copilot met krachtige antivirusbescherming, een onbeperkte VPN, een wachtwoordmanager en identiteitsbewaking.

Bitdefender Premium Security: vangnet voor heel je digitale leven

Bitdefender Premium Security biedt meermaals bekroonde bescherming tegen virussen, malware, ransomware en frauduleuze websites. De software werkt op Windows, macOS, Android en iOS en beveiligt al je apparaten met één abonnement.

Naast Scam Copilot en de geavanceerde virusscanner bevat Premium Security diverse functies die gericht zijn op privacy en gebruiksgemak. Zo krijg je toegang tot onbeperkt VPN-verkeer, met meer dan vierduizend servers verspreid over vijftig landen. Daarmee surf je veilig en anoniem, ook op openbare wifi-netwerken.

De password manager helpt bij het genereren en veilig opslaan van sterke wachtwoorden, zodat je nooit meer hoeft te vertrouwen op zwakke of hergebruikte wachtwoorden. Verder blokkeert de systeembrede advertentie- en trackerbescherming ongewenste volgers en zorgt Cryptomining Protection ervoor dat kwaadwillenden je systeem niet stiekem inzetten om digitale valuta te delven.

Ook aan identiteit is gedacht. Zodra er een datalek wordt ontdekt waarin jouw gegevens opduiken, ontvang je realtime meldingen. Zo kun je snel actie ondernemen om schade te voorkomen. Bitdefender Premium Security combineert daarmee virusbescherming, privacyfuncties en identiteitswaarschuwingen in één helder pakket.

🎃 Trick or treat: laat je niet misleiden

Cybercriminelen dragen het hele jaar door digitale maskers. Ze sturen overtuigende berichten, gebruiken deepfake-stemmen en maken misbruik van AI om je te misleiden. Bitdefender Scam Copilot herkent phishing en andere oplichtingstrucs in realtime en waarschuwt direct bij gevaar. Met Premium Security en Ultimate Security beschik je over bescherming op al je apparaten, een onbeperkte VPN, anti-tracker, password manager en – bij Ultimate – volledige identiteitsmonitoring via Digital Identity Protection. Phishing, deepfakes en online oplichting verdwijnen niet, maar met Scam Copilot aan je zijde hoef je ze niet te vrezen. Zo houd je grip op wat echt is – en wat slechts een digitale vermomming blijkt te zijn.

▼ Volgende artikel
Dit kun je allemaal nog doen in de tuin in november
© melnikviva - stock.adobe.com
Huis

Dit kun je allemaal nog doen in de tuin in november

In november lijkt de tuin tot stilstand te komen, maar schijn bedriegt. Juist nu leg je de basis voor een prachtige tuin in het voorjaar. Van het beschermen van planten tegen de kou tot het planten van bollen en fruitbomen: wie in november de handen uit de mouwen steekt, wordt in de lente beloond met een gezonde, bloeiende tuin.

November in de tuin: in het kort

November is de maand waarin je opruimt, beschermt en voorbereidt. Zet vorstgevoelige planten in pot alvast binnen of maak er ruimte voor in de schuur. Hark het gevallen blad van het gazon, en gebruik het blad op andere plekken in je tuin als natuurlijke bodembedekking. Nu is ook het moment om fruitbomen en bloembollen te planten en wintergroene planten zoals heide of Skimmia in potten te zetten. Snoei fruitstruiken en knot de treurwilg, zodat ze straks sterker terugkomen in het voorjaar.

Lees ook: Zo maak je je tuinmeubilair winterklaar

Maak je tuin winterklaar

Een goed voorbereide tuin kan tegen een stootje. Zodra de temperatuur daalt, bescherm je gevoelige planten met vliesdoek of noppenfolie. Leg dat materiaal nu alvast klaar, zodat je snel kunt handelen bij vorst. Maak in de schuur of het tuinhuisje plek voor planten in pot die niet tegen kou kunnen. Binnen blijven ze het best bij een temperatuur tussen de 2 en 10 graden. Vergeet niet af en toe te luchten en de aarde vochtig te houden, zodat de wortels niet uitdrogen. Controleer tot slot de fruitbomen en verwijder ingedroogde of verschrompelde vruchten. Die kunnen schimmels bevatten en zo de boom verzwakken.

Nog even wat extra liefde voor je gazon

In november geef je het gazon nog een laatste onderhoudsbeurt voordat het in winterrust gaat. Steek de randen strak af en verwijder het blad dat op het gras ligt. Blijven bladeren liggen, dan krijgt het gazon te weinig licht en kunnen er schimmels ontstaan. Gebruik het blad liever op andere plekken in de tuin, bijvoorbeeld onder struiken of tussen vaste planten, omdat het blad verteert en voedingsstoffen aan de grond afgeeft.

©Konstantin Zibert - stock.adobe.com

Planten: fruitbomen...

November is een goede maand om fruitbomen te planten. De grond is nog relatief warm, waardoor de wortels kunnen aanslaan voordat de winter begint. Graaf een ruim plantgat en maak in het midden een kleine heuvel waar de stam op rust. Spreid de wortels voorzichtig uit, vul het gat met een mengsel van aarde en compost en druk de grond stevig aan. Geef ruim water en plaats een boompaal als de boom op een open of winderige plek staat.

Waarom een boompaal belangrijk is

Een pas geplante boom heeft nog geen sterke wortels en kan bij harde wind gaan wiebelen. Daardoor scheuren jonge wortels af en groeit de boom minder goed aan. Een boompaal geeft steun totdat de wortels zich stevig hebben vastgezet. Plaats de paal aan de windzijde van de boom en bevestig hem met een boomband. Na een jaar of twee mag de paal weer weg.

...en bollen

Ook bloembollen kunnen nu de grond in: tulpen, narcissen, hyacinten en irissen bloeien in het voorjaar als je ze nu plant. Wie meteen wat kleur in de tuin wil, kan wintervaste planten als heide, winterviolen, Skimmia of kleine coniferen in potten zetten.

©iMarzi - stock.adobe.com

Snoeien en onkruid wieden (ja, ook nu nog!)

Zolang het niet vriest, kun je nog prima snoeien. Vooral kale fruitstruiken zijn nu aan de beurt: door oude takken weg te halen, verjong je de struik en bevorder je de groei van nieuwe scheuten. Ook jonge boompjes met een doorgaande stam kun je licht terugsnoeien, zodat ze een mooie, evenwichtige vorm ontwikkelen. De treurwilg mag in deze periode worden geknot, zodat hij in het voorjaar weer mooi uitloopt.

Blijf daarnaast onkruid verwijderen, ook al groeit het minder hard. Door het bij te houden, voorkom je dat het in het voorjaar de overhand krijgt. Zo blijft de tuin netjes en houd je het werk beperkt wanneer alles straks weer begint te groeien.

Vooruitkijken naar het voorjaar

Wie in november nog even de handen uit de mouwen steekt, maakt het zichzelf straks een stuk makkelijker. De tuin krijgt rust, maar de basis voor een nieuw seizoen ligt er al. Zodra de eerste zon zich in het voorjaar laat zien, zie je de beloning van het werk dat je nu hebt gedaan: gezonde planten, een sterk gazon en fruitbomen die vol leven zitten.