Is ChatGPT wel veilig? Dit zijn de privacy- en beveiligingsrisico’s
Eerder dit jaar werd ChatGPT in Italië verboden. Inmiddels is de populaire chatbot weer beschikbaar in dat land, maar wat was daar precies aan de hand? En wat betekent het gebruik van de chatbot voor je privacy? Dit wil je weten over de beveiligingsrisico’s.
Veel gebruikers zien chatbots als ChatGPT als leuk speelgoed. Maar een handjevol mensen maken zich zorgen over het gebruik van dergelijke algoritmen. Daar gaan we in dit artikel dieper op in.
- Eerder werd ChatGPT voor een maand verboden in Italië.
- Cybercriminelen gebruiken de chatbot voor het schrijven van malware en bouwen van malafide websites.
- De dienst verzamelt zogenaamde PII: Persoonlijk identificeerbare informatie.
Lees ook: 10 veelgestelde vragen over AI
Eind maart 2023 werd ChatGPT verboden in Italië. OpenAI, het Amerikaanse bedrijf achter de chatbot, verschafte op dat moment namelijk weinig duidelijkheid over het verzamelen van persoonsgegevens. Die gegevens gebruikt OpenAI om de (ervaring met) het programma te verbeteren, door de algoritmes te verbeteren. Het verzamelen van zulke gegevens gaat tegen de Europese privacywet in. De Europese consumentenorganisatie BEUC meldt verder dat gebruikers misleid en bedrogen kunnen worden via chatbots, middels phishing en bijvoorbeeld het verspreiden van desinformatie.
Een maand later was ChatGPT weer beschikbaar in Italië, nadat OpenAI enkele veranderingen had doorgevoerd. Zo moeten gebruikers jonger dan dertien jaar kunnen aantonen toestemming van hun ouders te hebben voor het gebruik van de chatbot. Bovendien is er een opt-out-formulier beschikbaar, waarmee je kunt aangeven dat je gegevens niet gebruikt mogen worden voor het trainen van het algoritme. Verder is er een optie beschikbaar die ervoor zorgt dat de gesprekken die je voert met de bot niet automatisch opgeslagen worden.
©Supatman - stock.adobe.com
Wat betekent ChatGPT voor je veiligheid?
Hoewel dat allemaal prima klinkt, rijst nog steeds de vraag: wat betekent ChatGPT voor je privacy? Het programma heeft een aantal, algemene beveiligingsrisico’s waar je wellicht niet direct mee te maken krijgt – maar wel via een omweg. Zo kunnen cybercriminelen de software gebruiken om malware te schrijven, malafide websites te bouwen, phishing-e-mails te genereren, nepnieuws te maken en nog veel meer. Alles wat jij ermee kunt doen, kan een kwaadwillend persoon natuurlijk ook en meestal met het doeleinde iemand te bedriegen of op te lichten.
Daarnaast kwam in maart van dit jaar ook al naar buiten dat gebruikers de titels van andermans gesprekken konden inzien via de chatbot. Dit kwam weliswaar door een softwarefout in de opensourcebibliotheek, maar dat laat des te meer zien hoe voorzichtig je moet zijn met wat je deelt met ChatGPT. Medewerkers van het Zuid-Koreaanse bedrijf Samsung hebben dit aan den lijve ondervonden. Zij gebruikten de chatbot dagelijks ter ondersteuning van hun werk en daardoor kwam er vertrouwelijke bedrijfsinformatie op straat te liggen. Dat soort dingen wil je natuurlijk voorkomen.
ChatGPT kun je via een computer, maar ook via je smartphone gebruiken. Zo gebruik je ChatGPT op Android en iOS.
En hoe zit het met je privacy?
Hoewel online veiligheid en privacy niet dezelfde dingen zijn, zijn ze wel aan elkaar verbonden. Wanneer ChatGPT beveiligingsrisico’s met zich meedraagt, dan vormt dat een probleem voor je privacy en omgekeerd. Maar als het om privacy gaat, waar moet je dan precies aan denken? In de basis maakt het programma gebruik van miljarden opgeslagen (openbaar beschikbare) woorden die allemaal van het internet geschraapt zijn. Die database breidt constant uit, aangezien mensen de chatbot woorden, informatie en gegevens blijven voeren tijdens het (dagelijkse) gebruik.
©irissca
Al die informatie wordt opgeslagen, zodat het algoritme beter werk kan leveren en mensen meer waarde gaan hechten aan hetgeen ChatGPT levert. En dan ontstaat er een vicieuze cirkel. De Amerikaanse non-profitorganisatie Common Sense, dat middels zijn Privacy Program populaire applicaties en diensten evalueert met als doel een betere digitale toekomst te realiseren, geeft de dienst (op moment van schrijven) een score van 48 punten. Een dikke onvoldoende dus, omdat de chat PII en andere gevoelige gegevens verzamelt, opslaat en zelfs deelt met derde partijen.
PII staat voor persoonlijk identificeerbare informatie. Dit is alleen voor Amerikaanse gebruikers relevant. Hoewel de term zelf weinig aan de verbeelding overlaat, is wat die behelst onduidelijk. PII wordt namelijk in geen enkel rechtsdocument gedefinieerd. Wetten en voorschriften houden rekening met verschillende informatie. Hier in Europa gebruiken we het woord persoonsgegevens; een term die voorzien is van één juridische betekenis. De betekenis is vastgelegd in de Algemene verordening gegevensbescherming (AVG) en is in de Europese Unie als wet aanvaardt.
Als je niet precies weet wat je nou wel of niet met ChatGPT kunt delen, dan hebben we een handige stelregel voor je. Deel niets met de chatbot wat je ook niet zomaar aan vreemden zou vertellen. Vind je het geen fijn idee dat bepaalde informatie in het openbaar terechtkomt, dan moet je die dus helemaal niet delen met zo’n programma. Want dat is vragen om problemen.
De toekomst van ChatGPT en chatbots
Uit de meest recente cijfers van het GfK blijkt dat ChatGPT tussen december 2022 en maart 2023 bijna anderhalf miljoen Nederlandse gebruikers aan zich gebonden heeft. Vooral Nederlandse jongeren en twintigers (die op school zitten of een opleiding volgen) maken gretig gebruik van de dienst. Niet alleen leidde dit eerder al tot zorgen vanuit het onderwijs (aangezien scholieren en studenten maar wat graag hun huiswerk uitbesteden aan de chatbot), ook vraagt dit om regulering en bescherming van al die gebruikers. Chatbots zijn er nu eenmaal en gaan niet meer weg.
©Diego - stock.adobe.com
Niet alleen omdat Microsoft tien miljard dollar in OpenAI investeerde, ook omdat Google met chatbot Bard een deel van de markt naar zich toe wil trekken. En dan hebben we ook nog bijvoorbeeld Midjourney en DALL-E voor afbeeldingen en Speechyfi en Murf AI voor audio. We moeten dus allemaal manieren gaan vinden om er veilig mee om te gaan. Dergelijke algoritmen zullen mettertijd gereguleerd gaan woorden door bijvoorbeeld de Europese Unie. Dat is iets waar Europese politici voorlopig nog mee worstelen. We moeten dus nog even afwachten om te zien wat daar uit komt.
Tot die tijd moeten we er rekening mee houden dat dergelijke technologie – zoals vaker het geval is bij nieuwe ontwikkelingen – misbruikt wordt. Malwarebytes schrijft dat chatbots straks een integraal onderdeel vormen van zoekmachines, persoonlijke assistenten (zoals Siri en Google Assistent) en belangrijke rollen gaan vervullen in verschillende industrieën en sectoren. Chatbots vormen daardoor een grote bron van zorgen. Daar staat tegenover dat chatbots óók gebruikt kunnen worden door beveiligingsexperts. Ze kunnen bijvoorbeeld softwarefouten of verdachte netwerkactiviteiten (sneller) opsporen.
En over tien jaar?
Wat doen ChatGPT en chatbots over tien jaar? Dat is momenteel moeilijk te voorspellen. We weten in elk geval zeker dat dergelijke algoritmen niet meer zullen weggaan en dat we in de komende jaren meer van dit soort diensten en producten gaan tegenkomen. Daardoor is het van belang dat we allemaal weten waar we mee te maken hebben. Niet alleen als het gaat om de opties, maar ook om zaken als privacy en online veiligheid. Zo kunnen gebruikers uitgaan van een veilige ervaring en kan dergelijke technologie zich mogelijk op een ethische manier ontwikkelen.