ID.nl logo
Hoe gaan we om met AI?
© Reshift Digital
Huis

Hoe gaan we om met AI?

Zelfrijdende auto’s op de weg, slimme assistenten in huis en software die bepaalt of je een lening krijgt - het is allemaal geen toekomstmuziek meer. AI heeft een steeds grotere impact op ons dagelijks leven en verstookt ook heel wat energie met de bijbehorende CO₂-uitstoot. Reden te meer om eens dieper na te denken over hoe we als maatschappij met AI willen omgaan.

AI (artificial intelligence, ofwel kunstmatige intelligentie) speelt een steeds belangrijkere rol in ons dagelijks leven. De technologie biedt heel wat voordelen: slimme assistenten verstaan je spraak, je smartphone verbetert je typefouten en binnenkort hoeven we misschien zelf niet meer te rijden omdat onze auto dat voor ons doet.

Maar het gebruik van AI roept ook heel wat vragen op. Niet alleen over privacy, maar zelfs nog veel fundamenteler: wíllen we al die taken wel door computers laten uitvoeren? Willen we bijvoorbeeld wel volledig door een algoritme laten bepalen wie een lening krijgt, zonder enige menselijke inbreng? En nog extremer: willen we wel een drone in oorlogsgebied automatisch laten bepalen of iemand een burger of vijandige soldaat is om die dan neer te schieten?

01 Van grondrechten tot ethische beginselen

In april 2019 publiceerde de ‘High-Level Expert Group on AI’ van de Europese Commissie ethische richtlijnen voor betrouwbare AI. Dit deden ze om een kader te bieden om over dit soort vragen na te denken en beslissingen over het gebruik van AI te kunnen nemen die mensen in hun waarde laten.

De expertgroep baseert zich op grondrechten die in de EU-verdragen, het Handvest van de grondrechten van de EU en de internationale mensenrechtenwetgeving opgenomen zijn. Het gaat dan bijvoorbeeld om respect voor de menselijke waardigheid, vrijheid van het individu, respect voor democratie, justitie en de rechtsstaat, gelijkheid, non-discriminatie en solidariteit en rechten van burgers (zoals het recht op behoorlijk bestuur en het recht op inzage in openbare documenten). Bij de ontwikkeling en het gebruik van AI mogen die grondrechten nooit in het gedrang komen, vindt de expertgroep.

De auteurs noemen in hun rapport vier ethische beginselen die in die grondrechten geworteld zijn en die ontwikkelaars en gebruikers van AI altijd zouden moeten naleven: respect voor de menselijke autonomie, preventie van schade, rechtvaardigheid en verantwoording. Door deze beginselen na te leven, zouden we met AI het individuele en collectieve welzijn kunnen verbeteren.

©PXimport

02 Respect voor de menselijke autonomie

Een belangrijk grondrecht is de vrijheid van het individu: ieder is vrij om zijn eigen levenskeuzes te maken. Daaronder vallen ook de vrijheid van meningsuiting en het recht op een privéleven. Een AI-systeem mag mensen daarom niet onterecht onderwerpen of tot iets dwingen, maar ook niet misleiden of manipuleren.

Een AI-systeem dat dit ethische beginsel omarmt, zou juist ontworpen moeten zijn om de menselijke cognitieve, sociale en culturele vaardigheden aan te vullen en te versterken. Zo zou een AI-systeem op de werkvloer dat respect heeft voor de autonomie van de werknemers juist ondersteunend zijn en het werk nog zinvoller maken. Bovendien betekent respect voor de menselijke autonomie ook dat er altijd menselijke controle moet zijn op de werkprocessen van het AI-systeem.

03 Preventie van schade

Een AI-systeem mag geen schade veroorzaken of vergroten bij mensen, zowel op fysiek als mentaal gebied. Hieronder vallen ook regels dat het systeem robuust en veilig moet zijn, zodat het niet misbruikt kan worden. Maar het gaat verder: een AI-systeem dat bijvoorbeeld ongelijkheid vergroot of de machtsverhoudingen tussen werkgever en werknemers verandert doordat die eerste meer informatie krijgt over zijn werknemers, gaat in tegen deze richtlijn.

Ook tussen een bedrijf en zijn klanten of consumenten, of tussen een overheid en zijn burgers is er die scheeftrekking van de machtsverhoudingen. We zien dan ook momenteel dat veel bedrijven en overheden AI juist (willen) inzetten om hun macht te vergroten, en dat is een rechtstreekse inbreuk op dit beginsel.

04 Rechtvaardigheid

Rechtvaardigheid is een breed begrip dat ook nog eens cultureel bepaald is. Dit is waarschijnlijk dan ook het moeilijkste ethische beginsel om in de praktijk te brengen. Toch zijn er enkele algemene regels: een AI-systeem zou niemand mogen discrimineren, stigmatiseren, ongelijke kansen geven of arbitrair in zijn keuzevrijheid beperken.

Discriminatie hoeft overigens niet bewust ingebouwd te zijn: het kan ook een ‘bug’ zijn. Zo werkt gezichtsherkenning doorgaans minder goed bij een donkere huid, waardoor gekleurde personen vaker verkeerd geïdentificeerd worden.

Rechtvaardigheid betekent ook dat tegengestelde belangen altijd afgewogen moeten worden en dat de inzet van een AI-systeem evenredig moet zijn met het doel. De inzet van gezichtsherkenning om iemand publiekelijk aan de schandpaal te nagelen na het oversteken bij rood licht, is bijvoorbeeld een onevenredig gebruik van de technologie en dus niet rechtvaardig. Tenminste in Europa; in China vindt men dit heel normaal.

05 Verantwoording

Minstens zo belangrijk als de vorige beginselen is dat de werking van een AI-systeem verantwoord moet kunnen worden. De processen van het systeem dienen transparant te zijn en de mogelijkheden en het doel dienen openbaar te zijn. Bovendien moeten de beslissingen die een AI-systeem neemt te verklaren zijn voor wie er de gevolgen van ondervindt. Als je een aanvraag voor een lening doet en die wordt geweigerd door het systeem, heb je recht op een betere verklaring dan “Computer says no”. De computer moet een redenering kunnen geven als: je bent geweigerd omdat je loon te laag is en je in het verleden een lening tijdelijk niet hebt afbetaald. Als je zo’n antwoord krijgt, kun je dit tenminste aanvechten door tegenargumenten te geven.

06 Checklist voor bedrijven

Allemaal goed en wel, maar dat blijven vrij vage ethische richtlijnen. Hoe werk je dat in de praktijk uit? Verrassend genoeg biedt het rapport van de Europese Commissie aan de voorgaande beginselen ook heel praktische richtlijnen in de vorm van een lijst met zeven concrete vereisten waaraan elk AI-systeem zou moeten voldoen. Op basis van feedback is er in juli 2020 een herziene versie van die richtlijnen gepubliceerd: Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment.

Bij elk van deze vereisten worden methodes vermeld die bedrijven kunnen gebruiken om hun AI-systeem aan de vereisten te laten voldoen. Eén van die concrete vereisten is bijvoorbeeld het belang van privacy en ‘data governance’ (gegevenskwaliteitsbeheer). De checklist beklemtoont dat verzamelde persoonsgegevens vertekend, onvolledig, onnauwkeurig, of fout kunnen zijn. Dit moet verholpen worden vóórdat het systeem met deze gegevens getraind wordt. Bovendien moet elke stap - zoals het plannen, trainen, testen en installeren - getest en gedocumenteerd worden om de integriteit te waarborgen. En de algoritmes, gegevens en ontwerpprocessen moeten te evalueren zijn door interne en externe controleurs.

Bij de vereisten staat ook dat een AI-systeem zich tegenover een gebruiker niet als mens mag voordoen: het moet altijd als AI-systeem herkenbaar zijn. Bovendien moet een AI-systeem toegankelijk zijn voor iedereen ongeacht, leeftijd, geslacht of beperkingen. Opmerkelijk is ook dat de checklist erop wijst dat de energieconsumptie tijdens het trainen van een AI-systeem geminimaliseerd moet worden. Bedrijven die met AI bezig zijn, kunnen de richtlijnen consulteren of een webtools voor de checklist volgen.

©PXimport

07 Van ethiek naar wetgeving

Ethische richtlijnen zijn nuttig. Maar volgens digitale burgerrrechtenorganisatie Acces Now en consumentenverenigingen ANEC en BEUC (die alle drie een lid in de expertgroep hadden) is dit maar een eerste stap. Zonder bijbehorende wetgeving en controles kunnen we niet verzekeren dat AI-systemen de rechten van gebruikers respecteren. Aan de wetgeving wordt al gewerkt (zie het kader ‘Europese regelgeving rond AI’), maar zal die gehandhaafd kunnen worden?

Access Now signaleert ook dat de Europese Commissie in de expertgroep voornamelijk vertegenwoordigers uit het bedrijfsleven heeft geplaatst, en dat de richtlijnen daardoor niet voldoende de mens centraal stellen. De organisatie stelt ook voor om de uitdagingen rond AI meer in termen van mensenrechten te bespreken, zoals ze in 2018 hebben gedaan in hun publicatie ‘Human rights in the age of artificial intelligence’.

08 Wie is er verantwoordelijk?

Iets anders waar het rapport van de Europese Commissie aan voorbijgaat, is het probleem van verantwoordelijkheid. Als een zelfrijdende auto door een fout een dodelijk ongeval veroorzaakt, wie is dan de schuldige? De auto? Maar apparaten zijn geen levende wezens, dus daar kunnen we geen verantwoordelijkheid aan toekennen.

De producent dan? Op zich verschilt een AI-systeem zoals een zelfrijdende auto niet zoveel van elk ander product. Als een klassieke auto door een fout plots tijdens een manoeuvre blokkeert en daardoor een ongeval veroorzaakt, zal de producent verantwoordelijk gesteld worden. Zo ook bij een zelfrijdende auto.

Europese regelgeving rond AI

De ethische richtlijnen voor betrouwbare AI die de ‘High-Level Expert Group on AI’ van de Europese Commissie in 2019 publiceerde waren slechts een eerste stap. In april heeft de expertgroep ook een voorstel gedaan voor een geharmoniseerde Europese regelgeving. De huidige wetgeving geeft immers onvoldoende garanties over het betrouwbaar inzetten van AI met respect voor mensenrechten. De nieuwe voorgestelde regelgeving wil vooral de transparantie van AI-systemen verhogen en de risico’s voor de veiligheid en fundamentele rechten minimaliseren. Daarbij ligt de focus op het gebruik van AI in toepassingen met hoge risico’s, zoals in rekrutering, bij het bepalen van de kredietwaardigheid en bij gerechtelijke besluitvorming. Aan deze systemen zullen specifieke vereisten worden opgelegd, zoals het gebruik van datasets van hoge kwaliteit en menselijke controle.

09 Complexe oorzaken

Maar het is veel complexer dan dat: een zelfrijdend systeem bestaat uit zoveel subsystemen van zoveel andere bedrijven, en is getraind op zoveel data uit allerlei bronnen, dat het heel moeilijk te bepalen is wat precies de fout veroorzaakt heeft. Misschien ligt de fout wel in een verkeerde training door een werknemer die op een vrijdagavond vroeger naar huis wilde, waardoor de auto de situatie verkeerd ingeschat heeft. Of misschien kwam de auto in een situatie waarin er gewoon geen juiste oplossing was (zie het kader ‘Het trolleyprobleem’).

Stellen we dan degene die de keuze in een algoritme gegoten heeft verantwoordelijk voor elke dode die uit die keuze voortvloeit? En die complexiteit leidt weer tot andere problemen. Elon Musk heeft aangegeven dat Tesla de verantwoordelijkheid aanvaardt in het geval van een ongeval, op voorwaarde dat de software een fout gemaakt heeft. En hoe bepaal je dat? Door de auto tijdens het rijden continu alle mogelijke gegevens te laten verzamelen en naar Tesla te sturen. We kopen de verantwoordelijkheid van de producent dus af met onze privacy.

10 Te veel vertrouwen in AI

Producenten van AI-systemen stellen de capaciteiten altijd mooier voor dan ze zijn. Daardoor hebben politici, overheidsdiensten maar ook wij allemaal te veel vertrouwen in AI, terwijl veel systemen nog helemaal niet zo goed werken dat we ze in de plaats van menselijke experts zouden kunnen gebruiken. Je kunt je schouder ophalen met de boodschap dat het allemaal wel zal verbeteren, maar ondertussen wordt AI wel in heel wat domeinen toegepast of overwogen waar het juist tot extra risico’s leidt. Het ‘Berkman Klein Center for Internet & Society’ van de Universiteit van Harvard publiceerde in 2018 een overzicht van de risico’s in het rapport ‘Artificial Intelligence & Human Rights: Opportunities & Risks’.

Het trolleyprobleem

Een klassiek gedachtenexperiment in de ethiek is het trolleyprobleem: een op hol geslagen tram staat op het punt vijf op het spoor vastgebonden personen dood te rijden, maar je kunt aan een hendel trekken om de tram van spoor te doen veranderen, waarna die een enkele vastgebonden persoon doodrijdt. Zou jij aan de hendel trekken? Door de handeling maak je jezelf immers medeplichtig aan de dood van die ene persoon. Het gedachtenexperiment, dat overigens niet zonder kritiek is, wordt ook vaak gebruikt in ethische dilemma’s op het gebied van zelfrijdende auto’s. Als een auto een botsing niet kan vermijden, kiest die dan voor een botsing met vijf inzittenden of met een enkele inzittende? Of kiest de auto er zelfs voor om zijn eigen inzittenden op te offeren en tegen een boom te crashen in plaats van tegen een andere auto? Onderzoekers van het MIT hebben op hun website Moral Machine een boel van deze scenario’s met een zelfrijdende auto voorgesteld waar ze bezoekers vragen om een verscheurende keuze te maken.

©PXimport

11 Mensenrechten onder druk

Het rapport gaat met zes domeinen in op de impact van AI op mensenrechten. Opvallend is dat er maar een domein is waarin de auteurs de positieve impact groter zien dan de negatieve impact: diagnostiek in de gezondheidszorg. In het strafrecht, de financiële sector, onderwijs, online content moderation en human resources weegt momenteel de negatieve impact door of is de impact nog onduidelijk.

De problemen zijn afhankelijk van het domein, maar hetzelfde komt vaak terug: het systeem beoordeelt iemand nog te vaak fout en er is geen enkel verweer tegen doordat de beslissing niet transparant genomen wordt. Omdat de gebruikers (politiemensen, rechters, hr-personen, bankiers) blindelings vertrouwen in de technologie waarmee ze mensen beoordelen, zijn ze niet geneigd om de bezwaren van de slachtoffers serieus te nemen. Het is nu eenmaal gemakkelijk om de verantwoordelijkheid voor een moeilijke beslissing naar een computer door te schuiven.

12 Dichter bij huis

Dit is geen ver-van-mijn-bedshow. In Nederland koppelde de overheid van 2014 tot 2020 persoonsgegevens van burgers uit verschillende databases aan elkaar om risicoprofielen op te stellen. Het systeem heette SyRI (Systeem Risico Indicatie) en was ondanks grote bezwaren van het toenmalige College Bescherming Persoonsgegevens en de Raad van State ingevoerd, zonder enige vorm van inzicht in wat er met de gegevens van burgers gebeurt.

De gemeenten, het UWV, de Sociale Verzekeringsbank, de Inspectie SZW en de Belastingdienst konden allemaal van SyRI gebruikmaken als ze bijvoorbeeld fraude met uitkeringen, toeslagen of belastingen vermoedden. Het systeem ging dan aan het rekenen en bepaalde zo welke adressen een verhoogd risico op fraude hadden. Dat kon niet zomaar: er was een hele procedure. Een gemeente kon bijvoorbeeld toestemming vragen om een specifieke wijk te onderzoeken.

In de vijf jaar dat het systeem actief was, hebben vijf gemeenten dat gedaan, maar uit onderzoek van de Volkskrant bleek dat bij geen van die algoritmische onderzoeken een fraudegeval ontdekt werd. Gegevens waren vaak niet meer actueel of verkeerd ingevuld, of er was te weinig personeel. SyRI was bovendien helemaal niet transparant: bewoners van ‘zwakkere’ wijken kwamen onder een vergrootglas te liggen terwijl ze helemaal niet wisten welke privacygevoelige gegevens over hen gebruikt werden. Door het groeiende protest over de gang van zaken besloot Rotterdam om het fraudeonderzoek met SyRI stop te zetten. In het begin van 2020 oordeelde de rechtbank dat de wetgeving die de inzet van SyRI regelde in strijd was met artikel 8 van het Verdrag voor de Rechten voor de Mens, dat het recht op respect voor het privéleven beschermt.

AI voor iedereen

Ondertussen profiteren bedrijven zoals Google, Facebook en Amazon van de grote hoeveelheden gegevens waarover ze beschikken om krachtige AI-toepassingen te trainen, die zelden in het voordeel van gebruikers zijn. Als je de website Google AI zou bezoeken, zou je niet geloven dat dit hetzelfde bedrijf is dat 80% van het webverkeer traceert met cookies of trackers. Als we even voorbijgaan aan de privacy-inbreuken van Google, bevat de website van Google AI een interessante houding tegenover AI. Google wil met AI naar eigen zeggen technologieën ontwikkelen die belangrijke problemen oplossen en mensen in hun dagelijks leven helpen.

©PXimport

De mens centraal

Het bedrijf somt zelfs enkele principes op die het volgt in zijn keuze om specifieke AI-toepassingen al dan niet te ontwikkelen. Zo mag een AI-technologie volgens Google geen vooroordelen creëren of versterken, moet ze verantwoording kunnen geven en moet ze de maatschappij van voordeel zijn. Google heeft zelfs een People + AI Guidebook gepubliceerd voor wie zelf een AI-systeem ontwikkelt en daarbij wil weten hoe dit het best de mens centraal stelt. Hoe mooi al deze principes en richtlijnen ook zien, Google krijgt veel kritiek van onderzoekers omdat het zelf deze richtlijnen vaak overtreedt.

15 Energieslokoppen

AI heeft nog een ander probleem: technieken zoals deep learning vragen enorm veel rekenkracht. Bij deep learning wordt een neuraal netwerk opgesteld met een groot aantal lagen neuronen tussen invoer en uitvoer. De beste netwerken worden altijd groter. Zo had GPT-2 van OpenAI in 2019 ‘slechts’ 1,5 miljard parameters nodig, terwijl de opvolger GPT-3 vorig jaar maar liefst 175 miljard parameters vereiste. Ook de rekenkracht die nodig was om beide modellen te trainen nam sterk toe: GPT-2 vereiste enkele tientallen petaflopdagen, terwijl dat bij GPT-3 al meerdere duizenden petaflopdagen bedroeg. Honderd keer zoveel rekenkracht, en dus energieverbruik, op een jaar tijd.

Energieverbruik betekent meestal ook een CO₂-voetafdruk. In 2019 publiceerden computerwetenschappers van de University of Massachusetts de studie ‘Energy and Policy Considerations for Deep Learning in NLP’. Daarin schatten ze dat het productieklaar maken van een enkel neuraal netwerk even veel CO₂ uitstoot als vijf auto’s tijdens hun hele levensduur. En in 2020 schatten studenten van de universiteit van Kopenhagen dat het trainen van GPT-3 een even grote CO₂-voetafdruk heeft als 700.000 km rijden met een nieuwe auto. Ze ontwikkelden een tool, carbontracker om het energieverbruik en de CO₂-voetafdruk van het trainen van een deeplearningmodel te schatten.

©PXimport

16 Inzicht in de CO₂-voetafdruk

In hun publicatie ‘Quantifying the Carbon Emissions of Machine Learning’ hebben onderzoekers van Element AI en het instituut Mila in Montréal de factoren blootgelegd die een impact hebben op de CO₂-voetafdruk van het trainen van een deeplearningmodel. Op basis hiervan hebben ze de Machine Learning Emissions Calculator ontwikkeld. Je vult hier in bij welke cloudprovider en in welke regio je het model traint, om welk hardwaretype het gaat en hoeveel uren het trainen in totaal duurde.

Je krijgt dan niet alleen de CO₂-uitstoot te zien, maar ook suggesties om die te verbeteren, bijvoorbeeld het model in een andere regio trainen of naar een andere cloudprovider overstappen. Daar zijn grote verschillen tussen. Zo draait het Google Cloud Platform voor een groter deel op hernieuwbare energie dan Amazon Web Services. Bedrijven die de impact van hun AI-toepassingen op het milieu willen beperken, kunnen op deze manier de juiste keuzes maken.

©PXimport

17 Steeds minder verbetering

Het gigantische energieverbruik van de steeds groter wordende AI-modellen is vaak ook gewoon niet meer te verantwoorden. Want de modellen worden wel beter, maar het energieverbruik groeit sterker dan de verbetering van de prestaties. Dat is al jaren zo. Het computervisiemodel ResNeXt uit 2017 verbruikte bijvoorbeeld 35% meer energie bij het trainen dan de voorganger ResNet uit 2015, maar was slechts 0,5% nauwkeuriger.

Als AI-onderzoekers op dezelfde manier blijven doorgaan, zullen ze dus grotere en grotere modellen maken die steeds meer energie vragen, en dat om steeds kleiner wordende verbeteringen te realiseren. Een van de redenen waarom deze verspilling blijft gebeuren, is omdat veel AI-onderzoekers geobsedeerd zijn om met hun algoritme op de eerste plaats te raken in een van de vele gepubliceerde benchmarks. Het levert de onderzoekers faam op, zelfs al is hun algoritme maar een fractie van een procent beter dan de nummer twee.

18 Intelligenter dan domme berekeningen

AI-onderzoekers zouden dus beter ook naar de energiekosten kijken, en wetenschappelijke artikels en onderzoeksvoorstellen zouden hierop ook beoordeeld moeten worden. Maar het is ook duidelijk dat de huidige aanpak van steeds maar grotere modellen niet meer vol te houden is. We hebben vooral nieuwe fundamentele inzichten in AI nodig. Zodat we AI-algoritmes kunnen ontwikkelen die niet alleen intelligenter zijn dan brute rekenkracht, maar ook niet zoveel kostbare energie verspillen. Zo komt ons menselijke brein toe met een gemiddeld energieverbruik van nog geen 20 watt!

▼ Volgende artikel
SSD vs. HDD: waarom is een SSD zo veel sneller dan een harde schijf?
© arinahabich
Huis

SSD vs. HDD: waarom is een SSD zo veel sneller dan een harde schijf?

Waarom start een computer met een SSD binnen enkele seconden op, terwijl een oude harde schijf blijft ratelen? Het vervangen van een HDD door een SSD is de beste upgrade voor een trage laptop of pc. We leggen in dit artikel uit waar die enorme snelheidswinst vandaan komt en wat het fundamentele verschil is tussen deze twee opslagtechnieken.

Iedereen die zijn computer of laptop een tweede leven wil geven, krijgt vaak hetzelfde advies: vervang de oude harde schijf door een SSD. De snelheidswinst is direct merkbaar bij het opstarten en het openen van programma's. Maar waar komt dat enorme verschil in prestaties vandaan? Het antwoord ligt in de fundamentele technologie die schuilgaat onder de behuizing van deze opslagmedia.

De vertraging van mechanische onderdelen

Om te begrijpen waarom een Solid State Drive (SSD) zo snel is, moeten we eerst kijken naar de beperkingen van de traditionele harde schijf (HDD). Een HDD werkt met magnetische roterende platen. Dat kun je vergelijken met een geavanceerde platenspeler. Wanneer je een bestand opent, moet een fysieke lees- en schrijfkop zich naar de juiste plek op de draaiende schijf verplaatsen om de data op te halen. Dat fysieke proces kost tijd, wat we latentie noemen. Hoe meer de data op de schijf verspreid staat, hoe vaker de kop heen en weer moet bewegen en wachten tot de juiste sector onder de naald doordraait. Dit mechanische aspect is de grootste vertragende factor in traditionele opslag.

©Claudio Divizia

Flashgeheugen en directe gegevensoverdracht

Een SSD rekent definitief af met deze wachttijden omdat er geen bewegende onderdelen in de behuizing zitten. De naam 'Solid State' verwijst hier ook naar; het is een vast medium zonder rammelende componenten. In plaats van magnetische platen gebruikt een SSD zogenoemd NAND-flashgeheugen. Dat is vergelijkbaar met de technologie in een usb-stick, maar dan veel sneller en betrouwbaarder. Omdat de data op microchips wordt opgeslagen, is de toegang tot bestanden volledig elektronisch. Er hoeft geen schijf op toeren te komen en er hoeft geen arm te bewegen. De controller van de SSD stuurt simpelweg een elektrisch signaal naar het juiste adres op de chip en de data is direct beschikbaar.

Toegangstijd en willekeurige leesacties

Hoewel de maximale doorvoersnelheid van grote bestanden bij een SSD indrukwekkend is, zit de echte winst voor de consument in de toegangstijd. Een besturingssysteem zoals Windows of macOS is constant bezig met het lezen en schrijven van duizenden kleine systeembestandjes. Een harde schijf heeft daar enorm veel moeite mee, omdat de leeskop als een bezetene heen en weer moet schieten. Een SSD kan deze willekeurige lees- en schrijfopdrachten (random read/write) nagenoeg gelijktijdig verwerken met een verwaarloosbare vertraging. Dat is de reden waarom een pc met een SSD binnen enkele seconden opstart, terwijl een computer met een HDD daar soms minuten over doet.

©KanyaphatStudio

Van SATA naar NVMe-snelheden

Tot slot speelt de aansluiting een rol in de snelheidsontwikkeling. De eerste generaties SSD's gebruikten nog de SATA-aansluiting, die oorspronkelijk was ontworpen voor harde schijven. Hoewel dat al een flinke verbetering was, liepen snelle SSD's tegen de grens van deze aansluiting aan. Moderne computers maken daarom gebruik van het NVMe-protocol via een M.2-aansluiting. Deze technologie communiceert rechtstreeks via de snelle PCIe-banen van het moederbord, waardoor de vertragende tussenstappen van de oude SATA-standaard worden overgeslagen. Hierdoor zijn snelheden mogelijk die vele malen hoger liggen dan bij de traditionele harde schijf.

Populaire merken voor SSD's

Als je op zoek bent naar een betrouwbare en snelle SSD, is er een aantal fabrikanten dat de markt domineert. Samsung wordt door velen gezien als de marktleider op het gebied van flashgeheugen en staat bekend om de uitstekende prestaties van hun EVO- en PRO-series. Daarnaast is Western Digital (WD) een vaste waarde; dit merk heeft de transitie van traditionele harde schijven naar SSD's succesvol gemaakt met hun kleurgecodeerde (Blue, Black en Red) series voor verschillende doeleinden. Ook Transcend is een uitstekende keuze; dit merk staat al jaren bekend om zijn betrouwbare geheugenproducten en biedt duurzame SSD's die lang meegaan. Tot slot bieden merken als Kingston en Seagate betrouwbare alternatieven die vaak net iets vriendelijker geprijsd zijn, zonder dat je daarbij veel inlevert op stabiliteit.

▼ Volgende artikel
AI zonder programmeren: Zo bouw je je eigen chatbot
© ID.nl
Huis

AI zonder programmeren: Zo bouw je je eigen chatbot

Misschien heb je wel eens een vraag gesteld aan een AI-chatbot als ChatGPT, Microsoft Copilot of Perplexity. Maar hoe ontwerp je zelf nu zo'n chatbot? Met de juiste tools is daar zelfs weinig tot geen programmeerwerk voor vereist. We bekijken twee uiteenlopende oplossingen.

Een AI-chatbot is een digitale gesprekspartner die wordt aangedreven door kunstmatige intelligentie. Meestal is de intelligentie gebaseerd op een taalmodel dat is getraind om mensachtige gesprekken te voeren. In tegenstelling tot traditionele op regels gebaseerde chatbots, die alleen vooraf ingestelde antwoorden geven, kan een AI-chatbot vrije tekst begrijpen en ‘natuurlijke’ reacties geven.

In dit artikel kijken we naar het bouwen van een eigen chatbot die je op je desktop of mobiel kunt gebruiken en zelfs op een eigen website kunt plaatsen. We bespreken twee manieren. De eenvoudigste is een no-code chatbotplatform dat het AI-gedeelte achter de schermen afhandelt en je via een gebruiksvriendelijke interface laat bepalen hoe de gespreksflow verloopt. Typische voorbeelden zijn Chatfuel en Chatbot voor zakelijke toepassingen. Daarnaast zijn er de meer toegankelijke Poe en Coze, die we hier behandelen. Onze tweede oplossing is technischer, maar flexibeler. Daarbij gebruik je de Application Programming Interface (API) van een AI-taalmodel om de AI-functionaliteit in je eigen omgeving te integreren. Hiervoor werken we graag met de online omgeving Google Colab.

Poe

Laten we starten met een gebruiksvriendelijke optie: het no-code chatbotplatform Poe (www.poe.com). Je kunt hier ook de app voor desktop of mobiel downloaden en installeren, met vrijwel dezelfde interface en functies als in de browser. De eerste keer maak je een account aan of meld je je aan met je Google- of Apple-account. Via Bots and apps kun je met allerlei AI-chatbots praten, maar in dit geval willen we vooral een eigen chatbot maken. Concreet gaat het om het creëren van een eigen ‘persona’ binnen een gekozen AI-model. Zo’n persona kun je zien als het perspectief, de rol of identiteit die je een AI-bot meegeeft.

Klik hiervoor op Create +. Je krijgt nu verschillende opties, zoals Image generation bot, Video generation bot en Prompt bot. Wij kiezen dit laatste.

Poe bestaat ook als desktop-app en biedt toegang tot vele tientallen AI-modellen.

Creatie

Je hoeft nu eigenlijk alleen maar een onlineformulier in te vullen. We doorlopen kort de belangrijkste onderdelen. Naast het gekozen bottype moet je een naam verzinnen. Omdat deze deel uitmaakt van de url, kies je bij voorkeur een originele, korte naam in kleine letters. Voeg ook een beschrijving toe, die zichtbaar is voor gebruikers van je bot.

Bij Base bot selecteer je een geschikt AI-model, bijvoorbeeld Claude-Haiku-3, GPT-4o-mini, GPT-5 of Grok-4. Afhankelijk van het model gelden er soms beperkingen. Poe-abonnees krijgen doorgaans uitgebreidere toegang tot de duurdere modellen.

Bij Prompt beschrijf je nauwkeurig en uitgebreid hoe de bot moet reageren. De optie Optimize prompt for Previews kun je uitgeschakeld laten. Vul bij Greeting message een welkomstwoord in dat de bot bij elke start toont. Het onderdeel Advanced kun je eigenlijk ongemoeid laten, maar interessant is wel dat je bij Custom temperature het ‘creativiteitsgehalte’ van de bot kunt instellen: hoe hoger de waarde, hoe creatiever en onvoorspelbaarder.

Bij Access kies je de zichtbaarheid van je bot. Wellicht is Only people with the access link de handigste optie, waarna de url zichtbaar wordt en je deze kunt verspreiden. Klik bovenin op Edit picture en kies of ontwerp een passend pictogram. Is alles ingevuld, klik dan onderin op Publish. Je bot is nu klaar voor gebruik. Om je bot te bewerken, hoef je deze maar bij Bots and apps te selecteren en via het knopje met de drie puntjes op Edit te klikken. Ook de optie Delete is beschikbaar.

Geef duidelijk aan wat je bot precies moet doen.
GPT's van OpenAI

Binnen de omgeving van OpenAI (https://chat.openai.com) kun je ook je eigen AI-chatbots maken, de zogeheten GPT’s. Hiervoor heb je wel een plusabonnement nodig (23 euro per maand). Je bent daarbij ook beperkt tot de GPT-modellen van OpenAI, maar je kunt je creaties wel delen via een link of in de GPT-store.

In het kort werkt dit als volgt. Meld je aan en klik links op GPT’s. Klik rechtsboven op + Maken. Via Configureren stel je alles handmatig in, maar via Maken kan het ook ‘al converserend’. Beschrijf kort wat je GPT moet doen en voor wie. Laat de tool een naam en profielfoto voorstellen en beantwoord de vragen om toon en werking af te stemmen. Test je GPT in de preview en ga daarna naar Configureren, waar je naam, beschrijving, instructies en gespreksopeningen ziet. Bij Kennis kun je bestanden uploaden zodat je GPT ook informatie uit je eigen documenten haalt. Via Nieuwe handeling maken koppel je eventueel acties aan externe API’s, gebruik alleen API’s die je vertrouwt. Bevestig met Maken en bepaal hoe je je GPT deelt: Alleen ik, Iedereen met de link of GPT-winkel (in een zelfgekozen categorie). Rond af met Opslaan. Je kunt de link (https://chatgpt.com/g/<code><naam>) daarna kopiëren en verspreiden. Via GPT’s / Mijn GPT’s kun je eerder gemaakte GPT’s bewerken of verwijderen.

Je kunt ook je ook eigen ‘chatbots’ (GPT’s) ontwerpen, gebruiken en met anderen delen.

Poe biedt ook geavanceerdere mogelijkheden als een Server bot-type (waarmee je ook andere API’s kunt aanroepen). Via Knowledge base kun je verder eigen informatiebronnen toevoegen waaruit de bot kan putten. Voor complexere bots gebruiken we toch liever het no-code platform Coze (www.coze.com) dat veel extra opties kent. Meld je aan met je Google-account, klik op + Create in de linkerkolom en daarna op + Create bij Create agent.

Coze

Coze gebruikt de term agent in plaats van bot om duidelijk te maken dat je er een digitale assistent mee kunt maken die niet alleen met een AI-model antwoorden geeft, maar ook geheugen of context kan gebruiken en meerdere kanalen kan bedienen, zoals een website of een Discord-server, maar zover gaan we hier niet.

Vul een passende naam voor je bot of agent in en schrijf een korte maar duidelijke omschrijving, bijvoorbeeld “Deze bot haalt allerlei informatie uit onze eigen documenten rond computerbeveiliging.” Laat Personal geselecteerd bij Workspace en klik linksonder op het knopje om een geschikt pictogram te uploaden of klik op het sterretje om er een te laten genereren. Klik daarna op Confirm.

De start van je eigen AI-chatbot (of agent) in Coze.

Uitwerking

Je komt nu in je dashboard waar je de bot verder vorm kunt geven. Ontwerp de persona door in het linkerdeelvenster een uitvoerige omschrijving van de bot in te vullen. Optimaliseer deze omschrijving snel met het blauwe knopje Auto Optimize prompt rechtsboven. Na bevestiging met Auto-optimize werkt Coze meteen een geoptimaliseerde prompt uit voor de persona. Klik op Replace om deze te gebruiken. In het rechterdeelvenster kun je je bot direct testen. De antwoorden komen uit de kennisdatabank van het geselecteerde model (zoals GPT-4o).



Wil je dat de bot ook uit eigen bronnen put, dan moet je deze eerst uploaden. Dit doe je in het middelste deelvenster, bij

Knowledge, waar je uit Text, Table en Images kunt kiezen. Klik op het plusknopje bij bijvoorbeeld Text en daarna op Create knowledge. Selecteer Text format en geef een naam aan je informatiebundel. Je kunt data ophalen uit bronnen als Notion of Google Doc, maar wij kiezen voor Local documents om eigen bestanden te uploaden. Klik op Create and import en versleep de gewenste documenten naar het venster. Klik daarna op Next (3x) en wat later zijn je documenten verwerkt. Rond af met Confirm en met Add to Agent rechtsboven. Je vindt je informatiebundel nu terug bij Knowledge en de bot put voortaan (ook) uit deze gegevens.

Om je bot beschikbaar te maken, klik je rechtsboven op Publish en daarna op Confirm. Je kunt hem op diverse platformen publiceren, onder meer in de Coze Agent Store. Selecteer een passende categorie en bevestig met Publish.

Laat AI je helpen bij het ontwerpen van een optimale persona.

Extra's

Daarnaast biedt Coze nog diverse andere nuttige opties, zoals talrijke plug-ins. Klik hiervoor op het plusknopje bij Plugins of gebruik het A-knopje om automatisch geschikte plug-ins te laden op basis van je persona-beschrijving. Deze kun je meteen inzetten, eventueel na optimale afstelling via het tandwielpictogram.

Je kunt de functionaliteit van je bot eenvoudig uitbreiden met talrijke plug-ins.

API-sleutels

No code-platformen als Poe en Coze zijn handig, maar wil je meer flexibiliteit en schrik je niet terug voor enige basiscodering, dan werk je beter met de API van een AI-model. Deze fungeert als tussenpersoon die je script en de AI-dienst laat communiceren via een set regels en commando’s. We gaan uit van de API van OpenAI (GPT) en maken eerst een sleutel aan om de API-interface te gebruiken. Ga naar https://platform.openai.com/api-keys, meld je aan met je account (zoals Google) en klik op +Create new secret key. Geef de sleutel een naam, bijvoorbeeld aibot, en klik op Create secret key. Klik daarna op Copy en bewaar de sleutel op een veilige plek. Rond af met Done: de sleutel is nu toegevoegd. Je kunt deze hier op elk moment ook weer intrekken.

Je hebt een sleutel nodig om de API te kunnen gebruiken.

Interactie

Een snelle manier om een script te maken dat deze API aanroept, is via het gratis Google Colab (https://colab.research.google.com), een online notitieboek voor Python. Meld je aan met je Google-account, klik op + Nieuw notebook of ga naar Bestand en kies Nieuw notebook in Drive, en geef het ipynb-bestand (Interactive PYthon NoteBook) een zinvolle naam. Het notebook wordt automatisch in je Google Drive bewaard en is bereikbaar via het pictogram met de oranje cirkels.

Klik nu op + Code voor je eerste codecel, waarmee je de OpenAI-bibliotheek installeert:

!pip install openai

Voer dit uit met het pijlknopje en klik vervolgens op + Code voor de tweede cel met de volgende code:


from openai import OpenAI

client = OpenAI(api_key="<je_API-sleutel>")

response = client.chat.completions.create(

    model="gpt-3.5-turbo",

    messages=[{"role": "user", "content": "Wat weet je over Haarlem( Nederlands)?"}]

)

print(response.choices[0].message.content)


Je laadt hierbij eerst de geïnstalleerde Python-bibliotheek en zet je geheime sleutel in de clientconfiguratie. Vervolgens stuur je een chataanvraag naar OpenAI en bewaar je het antwoord in de variabele ‘response’. Vervolgens haal je de tekst van het (eerste) antwoord op en druk je dit af in de uitvoer van de code-cel.

Een eenvoudige interactie tussen je script en GPT via de API.

Eigen chatbot

 We gaan nu een stap verder en maken er een heuse chatbot van die via een while-lus een doorlopend gesprek kan voeren:


from openai import OpenAI

client = OpenAI(api_key="<je_API-sleutel>")

messages=[

    {"role":"system","content":"Je beantwoordt elke prompt leuk, maar correct, met een rijmschema zoals ABAB of ABBA"}]

while True:

  user_input=input("Jij:")

  if user_input.lower() in ["stop","exit","quit"]:

    break

  messages.append({"role":"user","content":user_input})

  response=client.chat.completions.create(

      model="gpt-4o",messages=messages)

  bot_reply=response.choices[0].message.content

  print("Bot:",bot_reply)

  messages.append({"role":"assistant","content":bot_reply})


Zolang de gebruiker geen stopwoord invoert, blijft de lus actief. De bot antwoordt in de stijl en taal die je zelf hebt vastgelegd in de systeemrol (zie coderegel 3). Met de methode-aanroep messages.append voeg je telkens een nieuw bericht van zowel de gebruiker (user) als de bot (assistant) toe aan de gespreksgeschiedenis.

Mocht je ergens een fout hebben gemaakt in je script, dan is de kans groot dat je via de knop Fout uitleggen nuttige feedback krijgt en met de knop Accepteren (en uitvoeren) de fout zelfs automatisch kunt laten verbeteren.

In het kader ‘Mooi gepresenteerd’ lichten we kort toe hoe je dit script bijvoorbeeld ook op een eigen webpagina kunt laten draaien.

Onze rijmende chatbot wordt wakker geschud vanuit Colab.
Mooi gepresenteerd

Je Colab-script werkt, maar het oogt niet fraai en je wilt het natuurlijk mooi gepresenteerd met anderen delen. Dit doe je het makkelijkst met Gradio, een opensource-Python-bibliotheek waarmee je snel een webinterface rond je script bouwt. Installeer en importeer daarvoor eerst Gradio in je Colab-omgeving:

!pip install -q gradio

import gradio

Via www.kwikr.nl/colabcode vind je de code (als py-bestand) waarmee je rond het Colab-script met Gradio een eenvoudige webinterface genereert. Deze verschijnt in je Colab-omgeving, maar je krijgt ook een publieke url te zien waar je de interface rechtstreeks kunt openen (https://<code>.gradio.live).

Dankzij de volgende aanroep in de laatste coderegel kunnen bezoekers van deze webpagina je chatbot-script ook als PWA-app op hun pc bewaren en starten:

demo.launch(share=True,pwa=True)

Een alternatief is deze webpagina via een <iframe>-instructie in de html-code van je eigen site op te nemen:

<iframe src=https://<code>.gradio.live></iframe>

Gradio heeft een eenvoudige webinterface gecreëerd voor ons chatbotscript.