ID.nl logo
Zekerheid & gemak

Hoe werkt machine learning precies?

Software die uit zichzelf kan leren, daar kijken we niet meer van op. Denk aan spraakherkenning die ons telkens beter begrijpt, of een slimme thermostaat die na een tijdje weet wanneer we dagelijks van ons werk komen en dan de verwarming al op tijd wat hoger zet. Maar hoe werkt machine learning precies?

We spreken van machinelearning als een programma in staat is om zonder menselijke inbreng te leren hoe het een specifieke taak kan uitvoeren en beter wordt in die taak hoe meer ervaring het heeft. Er is dus geen mens die een algoritme programmeert om die taak uit te voeren; de mens programmeert een algoritme dat uit zichzelf leert om de taak uit te voeren.

Hoe programmeer je zo’n algoritme om te leren? Kort door de bocht bestaat dat leren eruit dat het algoritme zoveel mogelijk informatie uit een verzameling gegevens haalt en zo een signaal van ‘ruis’ kan onderscheiden in die gegevens. Zo zijn in spraakherkenningstechnologie de gegevens een geluidsopname, terwijl de informatie de uitgesproken woorden zijn. Al de rest van de geluidsopname is ruis.

In de praktijk trainen we de software op een trainingset, een verzameling gegevens die een goede voorstelling vormen van de gegevens die de software zal tegenkomen. Nadat de software op die manier getraind is, kan ze ook onbekende gegevens aan. Wel moet de taak altijd duidelijk afgelijnd zijn. Software die spraak herkent, kun je niet integraal inzetten om muziek te herkennen en al zeker niet om gezichten te herkennen.

Neuraal netwerk

Neurale netwerken (‘artificial neural networks’) vormen een belangrijke aanpak in machinelearning. Ze bootsen de werking van de hersenen na, die een biologisch neuraal netwerk vormen: een kluwen van ontzettend veel verbindingen tussen neuronen (hersencellen). Een kunstmatig neuraal netwerk bestaat meestal uit meerdere lagen: een invoerlaag van neuronen die de invoer van een probleem voorstellen, een uitvoerlaag van neuronen die de oplossing van het probleem voorstellen, en één of meer tussenliggende lagen die berekeningen uitvoeren.

Bij een fully connected neural network krijgt elk neuron invoer van alle neuronen in de laag ervoor en geeft het zijn uitvoer aan alle neuronen in de laag erna. Bij een convolutioneel neuraal netwerk is een neuron niet afhankelijk van alle neuronen in de vorige laag. Een neuraal netwerk programmeer je niet door expliciet aan te geven hoe het een probleem moet oplossen; je ‘traint’ het door het vele voorbeelden van een probleem te geven, waardoor het uit zichzelf de taak leert.

Deep learning

Vooral deeplearning maakt de laatste jaren furore in de wereld van machinelearning. Bij deeplearning gebruikt het algoritme een groot aantal lagen tussen input en output. De invoerlaag verwerkt de input en stuurt die door naar de volgende laag, die zijn input verwerkt en naar de volgende laag doorstuurt, enzovoort, tot er aan het einde de output uitkomt. Dit grote aantal lagen maakt complexe transformaties mogelijk.

Een prominente gebruiker van deeplearning is Google DeepMind. In 2014 nam Google de start-up DeepMind uit Cambridge over. Begin 2016 kwam het in het nieuws met de overwinning van AlphaGo op de menselijke kampioen in het bordspel go. En het systeem van DeepMind blinkt uit in het spelen van games zoals Space Invaders en Pac Man.

Google DeepMind combineert deeplearning op een convolutioneel neuraal netwerk met het zogenoemde Q-learning om spelletjes te leren spelen zonder dat het hoeft te weten wat de goede zet is: het algoritme krijgt alleen informatie over ‘winst’ of ‘verlies’. Google DeepMind noemt hun techniek deep reinforcement learning.

Google heeft het geld voor de mensen en de computers om op grote schaal machine learning te ontwikkelen

-

Wat heeft Google DeepMind dat anderen niet hebben? “Vooral geld,” zegt Sander Bohte, onderzoeker bij het Amsterdamse CWI (Centrum voor Wiskunde & Informatica). “Wanneer je een industrieel onderzoekslabo hebt waar een paar honderd briljante mensen werken, verkrijg je de resultaten van Google DeepMind. Google heeft het geld om de beste mensen ter wereld aan te nemen en ze hebben geld voor krachtige computerclusters. Zij kunnen dus op een heel andere schaal werken dan universiteiten.”

Facebook, Microsoft, Apple...

Google is niet de enige die geld investeert in machinelearning. Facebook heeft een Applied Machine Learning-team dat spam herkent, foto’s automatisch tagt en nog heel wat andere slimme taken uitvoert op het sociale netwerk.

In 2015 kocht Microsoft het bedrijf Equivio, dat patronen in grote hoeveelheden e-mails en documenten doorspit. En Apple nam in 2016 de vooraanstaande onderzoeker Ruslan Salakhutdinov aan als hoofd van zijn AI Research team. Ook Amazon, Twitter en Baidu zijn bezig met machinelearning. En dan is er nog IBM, dat met zijn supercomputer Watson belangrijke toepassingen ontwikkelt.

De kunstmatige neurale netwerken die een belangrijke rol spelen in machinelearning zijn losjes geïnspireerd op de neuronen in onze hersenen. Maar ze werken helemaal niet zo efficiënt, zegt Sander Bohte: “Onze hersenen verbruiken zo’n 25 W energie. Een neuraal netwerk op een pc verbruikt al snel 300 W. Dat kunnen we niet in een drone implementeren, want die verbruikt dan te veel energie om lang in de lucht te blijven op zijn batterijlading."

"En als we een neuraal netwerk ter grootte van de hersenen zouden maken, zou dat 5 MW verbruiken. Onze kunstmatige neurale netwerken zijn dus aanzienlijk minder efficiënt dan hun biologische evenknieën.”

De grote uitdaging is dus om dat verschil te verkleinen. Dat kunnen we volgens Sander Bohte bereiken als we ons nog meer laten inspireren op biologische neurale netwerken: “Neuronen in onze hersenen communiceren met pulsen. Gemiddeld sturen ze één puls per seconde. Maar neuronen zijn niet continu actief. Soms doen ze een seconde niets en soms vuren ze tien keer op een seconde.”

Spiking neural networks

Sander Bohte doet onderzoek naar spiking neural networks, die net zoals biologische neuronen geen energie gebruiken wanneer er niets gebeurt. “We hopen zo neurale netwerken toch een factor 100 energie-efficiënter te maken,” zegt hij. IBM gebruikt dezelfde aanpak in zijn TrueNorth-processor, die met een miljoen neuronen maar 70 mW verbruikt.

Spiking neurale netwerken hebben volgens Sander Bohte nog een ander voordeel: ze zijn compatibel met biologische neuronen omdat ze dezelfde taal spreken. “We kunnen een spiking neuraal netwerk in principe rechtstreeks op ons brein aansluiten. Zo werk ik nu samen met het Leids Universitair Medisch Centrum om cochleaire implantaten te verbeteren. "

"Ik verwacht dat neuroprotheses met spiking neurale netwerken binnen vijf jaar mogelijk zijn. En ik verwacht ook veel van het Amerikaanse DARPA, dat veel geld steekt in projecten binnen het BRAIN Initiative met als doel om 1 miljoen gelijktijdige ‘aansluitingen’ met de hersenen te maken.”

Onbetrouwbare resultaten

Een nadeel van neurale netwerken is dat ze een soort ‘black box’ vormen: wanneer ze een resultaat geven, weet je niet hoe ze tot dat resultaat komen. In sommige domeinen is dat helemaal geen wenselijke eigenschap. Stel dat we software ontwikkelen om een arts te helpen bij het nemen van juiste beslissingen. Als de software een diagnose stelt, maar de arts helemaal niet weet waarop die diagnose gebaseerd is, kan hij daarop niet vertrouwen. Een verkeerde beslissing kan immers een grote impact hebben.

“In zulke domeinen werk je daarom liever met predictieve modellen die voor de expert te begrijpen zijn,” zegt Gilles Vandewiele, doctoraatsstudent aan het Internet Technology and Data Science Lab (IDLab) van de Universiteit Gent – imec. Gilles Vandewiele werkt daarom met decision support systemen.

Wanneer neurale netwerken een resultaat geven, weet je niet hoe ze daartoe zijn gekomen

-

“Dat vereist vaak meer menselijke inbreng dan een neuraal netwerk, omdat we zelf aan feature extraction (het verminderen van de hoeveelheid middelen die nodig zijn om een grote set van gegevens te beschrijven – red.) doen, terwijl dat bij deeplearning automatisch gebeurt. Maar het resultaat is dan wel een begrijpelijk model dat vaak sneller getraind kan worden dan zijn tegenpool, omdat we dan geen miljoenen parameters meer moeten leren.”

Naast de medische sector zijn ook de financiële en juridische sectoren geïnteresseerd in deze aanpak, omdat experts in die domeinen een uitleg moeten kunnen geven bij hun beslissingen. “De nauwkeurigheid ligt bij deeplearning wel nog hoger. Bij de keuze tussen deeplearning- en decision support-systemen maak je altijd de afweging tussen nauwkeurigheid en begrijpelijkheid van het model.”

Ook IBM Watson is op deze aanpak gebaseerd. De DeepQA-software die het hart uitmaakt van Watson kan allerlei gestructureerde en ongestructureerde gegevens combineren en zijn beslissingen uitleggen. IBM heeft Watson dan ook al in meerdere ziekenhuizen ingezet en waagt zich met het systeem ook aan weersvoorspellingen.

Lees verder op de volgende pagina.

Vandewiele wijst ook op Kaggle, een online platform dat programmeerwedstrijden in data science-problemen organiseert. “Op Kaggle vind je heel veel state-of-the-art oplossingen voor machinelearning-problemen. Voor problemen die niet over afbeeldingen, video’s of geluid gaan, is de meest prominente tactiek om hoge classificaties te halen het trainen van heel veel verschillende modellen op basis van geëxtraheerde features en dan de voorspellingen van die modellen gebruiken als nieuwe features voor een finaal model.

Een van de meest voorkomende algoritmes daarvoor is eXtreme Gradient Boosting (XGBoost), een algoritme gebaseerd op beslissingsbomen.” In 2015 en 2016 haalden doctoraatsstudenten van de Universiteit Gent de eerste respectievelijk tweede plaats in de Data Science Bowl van Kaggle.

Bayesiaans netwerk

Nog een andere aanpak in machinelearning vormen de Bayesiaanse netwerken. Een Bayesiaans netwerk is een probabilistisch grafisch model dat de conditionele afhankelijkheden van willekeurige variabelen voorstelt. Zo kun je de relaties tussen ziektes en symptomen voorstellen. Bij het voorkomen van bepaalde symptomen, kun je dan berekenen wat de kans is op allerlei ziektes.

“Voor een Bayesiaans netwerk moet je ontzettend sterke aannames maken over de wereld,” zegt Peter Grünwald van het Amsterdamse CWI. “Je moet aangeven hoe groot de kans is op alle mogelijke toestanden van de wereld, je prior beliefs. Voor complexere problemen gaat dat al snel over een kansverdeling van miljoenen getallen. Het is conceptueel niet zo eenvoudig om je dan voor te stellen waar je nu eigenlijk mee bezig bent.”

Peter Grünwald is daarom voorstander van een informatietheoretische aanpak. “Eigenlijk is dat een veralgemening van de Bayesiaanse methode, maar de interpretatie ervan is helemaal anders, in termen van datacompressie. De kern bestaat uit het minimum description length (MDL) principle. Dit principe zegt dat de beste hypothese voor een bepaalde verzameling gegevens degene is die leidt tot de beste compressie van deze gegevens.”

Als je ruwe data zoals x- en y-coördinaten letterlijk zou opschrijven zonder enige compressie, zouden die veel ruimte innemen. Maar als er een patroon tussen x en y bestaat, bijvoorbeeld y is een functie van x, dan kun je die gegevens kleiner opschrijven. Je schrijft dan de functie op en daarna de x-coördinaten. Die tweede manier comprimeert de gegevens beter dan de eerste en is dus een betere hypothese.

Machine learning en robots

We denken bij machinelearning doorgaans aan ‘virtuele’ oplossingen zoals slimme assistenten en vertaalprogramma’s, maar we zien ook meer en meer oplossingen in robotica, die een effect in de echte wereld hebben. “Het is een hele uitdaging om robots te leren bewegen en ze zo adaptief mogelijk te maken in menselijke situaties,” zegt Francis wyffels, die hiernaar onderzoek doet aan het IDLab van de Universiteit Gent.

Vooral in kleinere bedrijven is die aanpak interessant. Terwijl grotere productiebedrijven vaak grotendeels geautomatiseerde fabrieken hebben met robots die zonder enige menselijke inbreng hun werk doen, gaat het bij mkb’s vaak anders: de robots krijgen steeds wisselende taken en voeren die in nauwe samenwerking met mensen uit. Dat vereist heel wat meer intelligentie én aanpassingsvermogen.

Het is een hele uitdaging om robots te leren bewegen en ze zo adaptief mogelijk te maken in menselijke situaties

-

Om intelligentere robots mogelijk te maken, is ook heel wat fundamenteel onderzoek nodig. Zo bekijken onderzoekers hoe ze de werking van robots meer door biologische processen kunnen laten inspireren. “In onze ruggengraat zitten de Central Pattern Generators (CPG’s), neurale netwerken die de spieren aansturen. Voor motorische controle op hoog niveau zijn de hersenen natuurlijk nog nodig, maar de CPG’s werken op een lager niveau. De controle gebeurt dus door neurale netwerken op verschillende niveaus,” legt Francis wyffels uit.

“We kunnen dan ook allerlei basisbewegingen doen zonder dat onze hersenen dat moeten aansturen. Robots werken daarentegen doorgaans met één centraal programma dat alles aanstuurt. Wat als je nu de bewegingen van een robot ook hiërarchisch laat aansturen, met onafhankelijk werkende motorneuronen zoals in onze ruggengraat? Dit onderzoek staat wel nog in zijn kinderschoenen, maar het is een veelbelovende aanpak.”

Binnen enkele jaren zouden we ons domoticasysteem volgens Francis wyffels niet meer via een aanraakscherm aan de muur of via onze tablet aansturen, maar we zouden ermee op een natuurlijke manier communiceren via een soort kunstmatige huiscoach.

“Zo’n sociale robot waarmee je spreekt kan de aversie van veel mensen voor technische systemen overwinnen. Veel mensen zijn bang voor een domoticasysteem omdat ze in de war raken door al die knopjes en instellingen. Dat is allemaal veel te abstract voor hen. We hebben alle bouwblokken om een sociale interactie met ons domoticasysteem te ontwikkelen: goede spraakherkenning, beeldverwerking, kennis over human-robot interaction enzovoort. De ontwikkelingen zullen hier dus niet zo heel lang op zich laten wachten.”

De toekomst

De vooruitgang in machinelearning zal niet alleen in ons dagelijks leven gevolgen hebben, maar ook breder in onze maatschappij. Vaak hoor je het doemscenario dat we allemaal onze banen gaan verliezen aan computers. Artsen, journalisten, juristen, ... volgens de doemdenkers is hun baan binnen afzienbare tijd bijna volledig te automatiseren. Onderzoeksbureau Forrester voorspelt dat in 2021 al zes procent van de banen in de VS door robots zijn overgenomen.

Toch is het toekomstbeeld niet zo negatief voor onze baanvooruitzichten als vaak wordt voorgesteld. In zijn rapport ‘Preparing for the Future of Artificial Intelligence’ van eind 2016 schetste de Obama-administratie in één van zijn laatste publicaties dat we onze banen kunnen behouden als we mens en machine laten samenwerken om elkaars zwakheden te compenseren.

Zo vermeldt het rapport een studie waarbij afbeeldingen van cellen van lymfeknopen door een computer of door een dokter beoordeeld werden om te bepalen of het om kanker ging. De computer maakte 7,5 procent fouten, de menselijke patholoog 3,5 procent fouten. Maar als de patholoog werd bijgestaan door een computer, werd het foutpercentage van de gecombineerde aanpak gereduceerd tot 0,5 procent.

De grootste uitdaging in het domein is volgens Francis wyffels dat we te weinig mensen hebben die onderzoek doen naar machinelearning. Dat is volgens hem ook een gevolg van het gebrek aan interesse in wetenschappen en technologie bij de jeugd, in het bijzonder de informaticawetenschappen. Het sterotypische beeld van de asociale computernerd is nog altijd niet uitgeroeid.

“Hier ligt een grote taak voor de overheden en scholen: zij moeten onze jeugd voldoende laten kennismaken met informaticawetenschappen en hen leren om met de snelle veranderingen in de toekomst om te gaan. Er zijn gelukkig heel wat scholen die al op eigen houtje initiatieven invoeren om hun leerlingen warm te maken voor informaticawetenschappen.” Om leerkrachten daarbij te helpen, richtte Francis wyffels de vzw Dwengo op en heeft hij didactisch materiaal op de website program-uurtje verzameld.

▼ Volgende artikel
AI zonder programmeren: Zo bouw je je eigen chatbot
© ID.nl
Huis

AI zonder programmeren: Zo bouw je je eigen chatbot

Misschien heb je wel eens een vraag gesteld aan een AI-chatbot als ChatGPT, Microsoft Copilot of Perplexity. Maar hoe ontwerp je zelf nu zo'n chatbot? Met de juiste tools is daar zelfs weinig tot geen programmeerwerk voor vereist. We bekijken twee uiteenlopende oplossingen.

Een AI-chatbot is een digitale gesprekspartner die wordt aangedreven door kunstmatige intelligentie. Meestal is de intelligentie gebaseerd op een taalmodel dat is getraind om mensachtige gesprekken te voeren. In tegenstelling tot traditionele op regels gebaseerde chatbots, die alleen vooraf ingestelde antwoorden geven, kan een AI-chatbot vrije tekst begrijpen en ‘natuurlijke’ reacties geven.

In dit artikel kijken we naar het bouwen van een eigen chatbot die je op je desktop of mobiel kunt gebruiken en zelfs op een eigen website kunt plaatsen. We bespreken twee manieren. De eenvoudigste is een no-code chatbotplatform dat het AI-gedeelte achter de schermen afhandelt en je via een gebruiksvriendelijke interface laat bepalen hoe de gespreksflow verloopt. Typische voorbeelden zijn Chatfuel en Chatbot voor zakelijke toepassingen. Daarnaast zijn er de meer toegankelijke Poe en Coze, die we hier behandelen. Onze tweede oplossing is technischer, maar flexibeler. Daarbij gebruik je de Application Programming Interface (API) van een AI-taalmodel om de AI-functionaliteit in je eigen omgeving te integreren. Hiervoor werken we graag met de online omgeving Google Colab.

Poe

Laten we starten met een gebruiksvriendelijke optie: het no-code chatbotplatform Poe (www.poe.com). Je kunt hier ook de app voor desktop of mobiel downloaden en installeren, met vrijwel dezelfde interface en functies als in de browser. De eerste keer maak je een account aan of meld je je aan met je Google- of Apple-account. Via Bots and apps kun je met allerlei AI-chatbots praten, maar in dit geval willen we vooral een eigen chatbot maken. Concreet gaat het om het creëren van een eigen ‘persona’ binnen een gekozen AI-model. Zo’n persona kun je zien als het perspectief, de rol of identiteit die je een AI-bot meegeeft.

Klik hiervoor op Create +. Je krijgt nu verschillende opties, zoals Image generation bot, Video generation bot en Prompt bot. Wij kiezen dit laatste.

Poe bestaat ook als desktop-app en biedt toegang tot vele tientallen AI-modellen.

Creatie

Je hoeft nu eigenlijk alleen maar een onlineformulier in te vullen. We doorlopen kort de belangrijkste onderdelen. Naast het gekozen bottype moet je een naam verzinnen. Omdat deze deel uitmaakt van de url, kies je bij voorkeur een originele, korte naam in kleine letters. Voeg ook een beschrijving toe, die zichtbaar is voor gebruikers van je bot.

Bij Base bot selecteer je een geschikt AI-model, bijvoorbeeld Claude-Haiku-3, GPT-4o-mini, GPT-5 of Grok-4. Afhankelijk van het model gelden er soms beperkingen. Poe-abonnees krijgen doorgaans uitgebreidere toegang tot de duurdere modellen.

Bij Prompt beschrijf je nauwkeurig en uitgebreid hoe de bot moet reageren. De optie Optimize prompt for Previews kun je uitgeschakeld laten. Vul bij Greeting message een welkomstwoord in dat de bot bij elke start toont. Het onderdeel Advanced kun je eigenlijk ongemoeid laten, maar interessant is wel dat je bij Custom temperature het ‘creativiteitsgehalte’ van de bot kunt instellen: hoe hoger de waarde, hoe creatiever en onvoorspelbaarder.

Bij Access kies je de zichtbaarheid van je bot. Wellicht is Only people with the access link de handigste optie, waarna de url zichtbaar wordt en je deze kunt verspreiden. Klik bovenin op Edit picture en kies of ontwerp een passend pictogram. Is alles ingevuld, klik dan onderin op Publish. Je bot is nu klaar voor gebruik. Om je bot te bewerken, hoef je deze maar bij Bots and apps te selecteren en via het knopje met de drie puntjes op Edit te klikken. Ook de optie Delete is beschikbaar.

Geef duidelijk aan wat je bot precies moet doen.
GPT's van OpenAI

Binnen de omgeving van OpenAI (https://chat.openai.com) kun je ook je eigen AI-chatbots maken, de zogeheten GPT’s. Hiervoor heb je wel een plusabonnement nodig (23 euro per maand). Je bent daarbij ook beperkt tot de GPT-modellen van OpenAI, maar je kunt je creaties wel delen via een link of in de GPT-store.

In het kort werkt dit als volgt. Meld je aan en klik links op GPT’s. Klik rechtsboven op + Maken. Via Configureren stel je alles handmatig in, maar via Maken kan het ook ‘al converserend’. Beschrijf kort wat je GPT moet doen en voor wie. Laat de tool een naam en profielfoto voorstellen en beantwoord de vragen om toon en werking af te stemmen. Test je GPT in de preview en ga daarna naar Configureren, waar je naam, beschrijving, instructies en gespreksopeningen ziet. Bij Kennis kun je bestanden uploaden zodat je GPT ook informatie uit je eigen documenten haalt. Via Nieuwe handeling maken koppel je eventueel acties aan externe API’s, gebruik alleen API’s die je vertrouwt. Bevestig met Maken en bepaal hoe je je GPT deelt: Alleen ik, Iedereen met de link of GPT-winkel (in een zelfgekozen categorie). Rond af met Opslaan. Je kunt de link (https://chatgpt.com/g/<code><naam>) daarna kopiëren en verspreiden. Via GPT’s / Mijn GPT’s kun je eerder gemaakte GPT’s bewerken of verwijderen.

Je kunt ook je ook eigen ‘chatbots’ (GPT’s) ontwerpen, gebruiken en met anderen delen.

Poe biedt ook geavanceerdere mogelijkheden als een Server bot-type (waarmee je ook andere API’s kunt aanroepen). Via Knowledge base kun je verder eigen informatiebronnen toevoegen waaruit de bot kan putten. Voor complexere bots gebruiken we toch liever het no-code platform Coze (www.coze.com) dat veel extra opties kent. Meld je aan met je Google-account, klik op + Create in de linkerkolom en daarna op + Create bij Create agent.

Coze

Coze gebruikt de term agent in plaats van bot om duidelijk te maken dat je er een digitale assistent mee kunt maken die niet alleen met een AI-model antwoorden geeft, maar ook geheugen of context kan gebruiken en meerdere kanalen kan bedienen, zoals een website of een Discord-server, maar zover gaan we hier niet.

Vul een passende naam voor je bot of agent in en schrijf een korte maar duidelijke omschrijving, bijvoorbeeld “Deze bot haalt allerlei informatie uit onze eigen documenten rond computerbeveiliging.” Laat Personal geselecteerd bij Workspace en klik linksonder op het knopje om een geschikt pictogram te uploaden of klik op het sterretje om er een te laten genereren. Klik daarna op Confirm.

De start van je eigen AI-chatbot (of agent) in Coze.

Uitwerking

Je komt nu in je dashboard waar je de bot verder vorm kunt geven. Ontwerp de persona door in het linkerdeelvenster een uitvoerige omschrijving van de bot in te vullen. Optimaliseer deze omschrijving snel met het blauwe knopje Auto Optimize prompt rechtsboven. Na bevestiging met Auto-optimize werkt Coze meteen een geoptimaliseerde prompt uit voor de persona. Klik op Replace om deze te gebruiken. In het rechterdeelvenster kun je je bot direct testen. De antwoorden komen uit de kennisdatabank van het geselecteerde model (zoals GPT-4o).



Wil je dat de bot ook uit eigen bronnen put, dan moet je deze eerst uploaden. Dit doe je in het middelste deelvenster, bij

Knowledge, waar je uit Text, Table en Images kunt kiezen. Klik op het plusknopje bij bijvoorbeeld Text en daarna op Create knowledge. Selecteer Text format en geef een naam aan je informatiebundel. Je kunt data ophalen uit bronnen als Notion of Google Doc, maar wij kiezen voor Local documents om eigen bestanden te uploaden. Klik op Create and import en versleep de gewenste documenten naar het venster. Klik daarna op Next (3x) en wat later zijn je documenten verwerkt. Rond af met Confirm en met Add to Agent rechtsboven. Je vindt je informatiebundel nu terug bij Knowledge en de bot put voortaan (ook) uit deze gegevens.

Om je bot beschikbaar te maken, klik je rechtsboven op Publish en daarna op Confirm. Je kunt hem op diverse platformen publiceren, onder meer in de Coze Agent Store. Selecteer een passende categorie en bevestig met Publish.

Laat AI je helpen bij het ontwerpen van een optimale persona.

Extra's

Daarnaast biedt Coze nog diverse andere nuttige opties, zoals talrijke plug-ins. Klik hiervoor op het plusknopje bij Plugins of gebruik het A-knopje om automatisch geschikte plug-ins te laden op basis van je persona-beschrijving. Deze kun je meteen inzetten, eventueel na optimale afstelling via het tandwielpictogram.

Je kunt de functionaliteit van je bot eenvoudig uitbreiden met talrijke plug-ins.

API-sleutels

No code-platformen als Poe en Coze zijn handig, maar wil je meer flexibiliteit en schrik je niet terug voor enige basiscodering, dan werk je beter met de API van een AI-model. Deze fungeert als tussenpersoon die je script en de AI-dienst laat communiceren via een set regels en commando’s. We gaan uit van de API van OpenAI (GPT) en maken eerst een sleutel aan om de API-interface te gebruiken. Ga naar https://platform.openai.com/api-keys, meld je aan met je account (zoals Google) en klik op +Create new secret key. Geef de sleutel een naam, bijvoorbeeld aibot, en klik op Create secret key. Klik daarna op Copy en bewaar de sleutel op een veilige plek. Rond af met Done: de sleutel is nu toegevoegd. Je kunt deze hier op elk moment ook weer intrekken.

Je hebt een sleutel nodig om de API te kunnen gebruiken.

Interactie

Een snelle manier om een script te maken dat deze API aanroept, is via het gratis Google Colab (https://colab.research.google.com), een online notitieboek voor Python. Meld je aan met je Google-account, klik op + Nieuw notebook of ga naar Bestand en kies Nieuw notebook in Drive, en geef het ipynb-bestand (Interactive PYthon NoteBook) een zinvolle naam. Het notebook wordt automatisch in je Google Drive bewaard en is bereikbaar via het pictogram met de oranje cirkels.

Klik nu op + Code voor je eerste codecel, waarmee je de OpenAI-bibliotheek installeert:

!pip install openai

Voer dit uit met het pijlknopje en klik vervolgens op + Code voor de tweede cel met de volgende code:


from openai import OpenAI

client = OpenAI(api_key="<je_API-sleutel>")

response = client.chat.completions.create(

    model="gpt-3.5-turbo",

    messages=[{"role": "user", "content": "Wat weet je over Haarlem( Nederlands)?"}]

)

print(response.choices[0].message.content)


Je laadt hierbij eerst de geïnstalleerde Python-bibliotheek en zet je geheime sleutel in de clientconfiguratie. Vervolgens stuur je een chataanvraag naar OpenAI en bewaar je het antwoord in de variabele ‘response’. Vervolgens haal je de tekst van het (eerste) antwoord op en druk je dit af in de uitvoer van de code-cel.

Een eenvoudige interactie tussen je script en GPT via de API.

Eigen chatbot

 We gaan nu een stap verder en maken er een heuse chatbot van die via een while-lus een doorlopend gesprek kan voeren:


from openai import OpenAI

client = OpenAI(api_key="<je_API-sleutel>")

messages=[

    {"role":"system","content":"Je beantwoordt elke prompt leuk, maar correct, met een rijmschema zoals ABAB of ABBA"}]

while True:

  user_input=input("Jij:")

  if user_input.lower() in ["stop","exit","quit"]:

    break

  messages.append({"role":"user","content":user_input})

  response=client.chat.completions.create(

      model="gpt-4o",messages=messages)

  bot_reply=response.choices[0].message.content

  print("Bot:",bot_reply)

  messages.append({"role":"assistant","content":bot_reply})


Zolang de gebruiker geen stopwoord invoert, blijft de lus actief. De bot antwoordt in de stijl en taal die je zelf hebt vastgelegd in de systeemrol (zie coderegel 3). Met de methode-aanroep messages.append voeg je telkens een nieuw bericht van zowel de gebruiker (user) als de bot (assistant) toe aan de gespreksgeschiedenis.

Mocht je ergens een fout hebben gemaakt in je script, dan is de kans groot dat je via de knop Fout uitleggen nuttige feedback krijgt en met de knop Accepteren (en uitvoeren) de fout zelfs automatisch kunt laten verbeteren.

In het kader ‘Mooi gepresenteerd’ lichten we kort toe hoe je dit script bijvoorbeeld ook op een eigen webpagina kunt laten draaien.

Onze rijmende chatbot wordt wakker geschud vanuit Colab.
Mooi gepresenteerd

Je Colab-script werkt, maar het oogt niet fraai en je wilt het natuurlijk mooi gepresenteerd met anderen delen. Dit doe je het makkelijkst met Gradio, een opensource-Python-bibliotheek waarmee je snel een webinterface rond je script bouwt. Installeer en importeer daarvoor eerst Gradio in je Colab-omgeving:

!pip install -q gradio

import gradio

Via www.kwikr.nl/colabcode vind je de code (als py-bestand) waarmee je rond het Colab-script met Gradio een eenvoudige webinterface genereert. Deze verschijnt in je Colab-omgeving, maar je krijgt ook een publieke url te zien waar je de interface rechtstreeks kunt openen (https://<code>.gradio.live).

Dankzij de volgende aanroep in de laatste coderegel kunnen bezoekers van deze webpagina je chatbot-script ook als PWA-app op hun pc bewaren en starten:

demo.launch(share=True,pwa=True)

Een alternatief is deze webpagina via een <iframe>-instructie in de html-code van je eigen site op te nemen:

<iframe src=https://<code>.gradio.live></iframe>

Gradio heeft een eenvoudige webinterface gecreëerd voor ons chatbotscript.
▼ Volgende artikel
De beste koptelefoon voor in de trein: rustig reizen met noise cancelling
© Svetlana - stock.adobe.com
Huis

De beste koptelefoon voor in de trein: rustig reizen met noise cancelling

Behoefte aan totale rust tijdens je treinreis? De juiste koptelefoon filtert lawaai weg en verhoogt je concentratie. Ontdek waarom active noise cancelling (ANC) niet mag ontbreken. Wij laten je zien welke functies, zoals comfort en lange accuduur, belangrijk zijn voor de forens of gelegenheidsreiziger.

Reizen met de trein kan heerlijk zijn, maar luidruchtige medepassagiers en het gedender over het spoor verstoren nogal eens de rust. Een goede koptelefoon maakt hier het verschil tussen irritatie en ontspanning. Als je op zoek bent naar de beste optie voor onderweg, is er eigenlijk maar één technologie die er echt toe doet: active noise cancelling. In dit artikel lees je waar je precies op moet letten.

Waarom active noise cancelling onmisbaar is

De absolute topprioriteit voor elke treinreiziger is active noise cancelling, oftewel ANC. Deze techniek gebruikt microfoons aan de buitenkant van de oorschelpen om omgevingsgeluid op te vangen en een tegengeluidsgolf te produceren. Vooral het constante, lage gebrom van de treinmotor en de wielen op de rails worden hiermee effectief weggefilterd. Hoewel geen enkele koptelefoon álle geluiden volledig blokkeert, zorgen modellen met hoogwaardige ANC ervoor dat je op een normaal volume naar muziek of podcasts kunt luisteren zonder dat je het volume ongezond hard hoeft te zetten om het lawaai te overstemmen.

Over-ear versus in-ear in het openbaar vervoer

Naast de technologie is de pasvorm van groot belang voor de demping. Over-ear modellen, die volledig over je oren vallen, bieden van nature al een goede passieve isolatie. De oorkussens sluiten je gehoorgang af van de buitenwereld, wat de actieve ruisonderdrukking aanzienlijk ondersteunt. Voor de meeste forenzen is dit de beste keuze. In-ear oordopjes zijn weliswaar compacter en makkelijker mee te nemen, maar laten vaak toch iets meer geluid door omdat ze minder fysieke barrière opwerpen. Als comfort en maximale stilte voorop staan, wint de over-ear variant het sowieso.

©ER | ID.nl

Comfort en accuduur voor lange ritten

Omdat je in de trein vaak langere tijd stilzit, mag de koptelefoon niet gaan knellen. Let daarom goed op de kwaliteit van de hoofdband en de oorkussens; traagschuim (memory foam) is hierbij een aanrader omdat dit materiaal zich naar je hoofd vormt en de druk verdeelt. Daarnaast is de accuduur een belangrijke factor voor de frequente reiziger. Zoek naar modellen die minimaal 20 tot 30 uur meegaan met ANC ingeschakeld. Veel moderne koptelefoons beschikken bovendien over snellaadfuncties, waardoor je na 10 minuten laden weer uren vooruit kunt. Daarmee voorkom je dat je halverwege je reis opeens zonder muziek komt te zitten.

Connectiviteit en handige functies

Een functie die specifiek in de trein van pas komt, is de transparantiemodus. Hiermee versterk je tijdelijk het omgevingsgeluid via de microfoons, zodat je een omroepbericht van de conducteur kunt horen zonder je koptelefoon af te zetten. Ook multipoint-bluetooth is een waardevolle toevoeging voor forenzen die werken tijdens het reizen. Hiermee koppel je de koptelefoon gelijktijdig aan zowel je smartphone als je laptop, zodat je naadloos kunt wisselen tussen een videocall en je favoriete afspeellijst zonder opnieuw verbinding te hoeven maken.

Populaire merken voor noise cancelling koptelefoons

Als we kijken naar de marktleiders op het gebied van ruisonderdrukking, springen een paar namen er direct uit. Sony wordt al jaren geprezen om hun toonaangevende XM-serie, die bekendstaat om uitstekende ANC-prestaties en uitgebreide app-ondersteuning. Bose is de directe concurrent en blinkt vaak uit in draagcomfort en zeer effectieve stilte, wat bijvoorbeeld de QuietComfort-serie enorm populair maakt onder zakelijke reizigers. Voor liefhebbers van een meer audiofiele geluidsweergave is Sennheiser een sterke optie, waarbij geluidskwaliteit en functionaliteit in balans zijn, zoals de Momentum 4. Tot slot kiezen Apple-gebruikers vaak voor de AirPods Max en AirPods Pro vanwege de naadloze integratie met hun andere apparaten, hoewel deze in een aanzienlijk hoger prijssegment vallen.