Nieuwe AI-wet van Europese Unie moet jou beter gaan beschermen
Het gebruik van AI kan voor verbeteringen op allerlei vlakken (gaan) zorgen: van betere gezondheidszorg, veiliger en schoner vervoer, efficiëntere productie en goedkopere en duurzamere energie. Maar er zitten ook risico’s aan. De Europese Unie wil nu door middel van wetgeving grip krijgen op AI, waardoor gebruikers en consumenten beter beschermd worden.
In april 2021 stelde de Europese Commissie het eerste EU-regelgevingskader voor AI voor. Dit kader stelt dat AI-systemen die in verschillende toepassingen kunnen worden gebruikt, worden geanalyseerd en geclassificeerd op basis van het risico dat ze vormen voor gebruikers. Afhankelijk van het risiconiveau zal er meer of minder regulering zijn. Eenmaal goedgekeurd, zullen dit de eerste wereldwijde regels voor AI zijn.
Het Europees Parlement wil ervoor zorgen dat AI-systemen die in de EU worden gebruikt veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. AI-systemen moeten worden gecontroleerd door mensen, niet door automatisering, om schadelijke resultaten te voorkomen. Het Parlement wil ook een technologie-neutrale, uniforme definitie voor AI vaststellen die kan worden toegepast op toekomstige AI-systemen.
De nieuwe regels stellen verplichtingen in voor aanbieders en gebruikers, afhankelijk van het risiconiveau van kunstmatige intelligentie. Daarvoor moeten de systemen beoordeeld worden.
❗ Beperkt risico: transparantie-eisen
AI-systemen met een beperkt risico moeten voldoen aan minimale transparantie-eisen die gebruikers in staat stellen geïnformeerde beslissingen te nemen. Het moet voor gebruikers duidelijk zijn wanneer ze interactie hebben met AI, zodat ze zelf kunnen beslissen of ze de betreffende applicatie willen blijven gebruiken, Dit omvat AI-systemen die beeld-, audio- of video-inhoud genereren of manipuleren, bijvoorbeeld deepfakes.
Hoe zit het met ChatGPT? Generatieve AI, zoals ChatGPT, moet voldoen aan transparantie-eisen. Zo moet duidelijk zijn dat content door AI is gegenereerd, moet het systeem zó ontwerpen worden dat het niet mogelijk is om illegale content te genereren, en moet publiek worden gemaakt welke auteursrechtelijk beschermde gegevens er voor de training van het systeem is gebruikt. Lees ook: Is ChatGPT wel veilig? Dit zijn de privacy- en beveiligingsrisico’s
❗❗ Hoog risico: vooraf beoordeeld en doorlopend gemonitord
AI-systemen die een negatieve impact hebben op de veiligheid of fundamentele rechten, worden als hoog risico beschouwd. Deze systemen zullen worden onderverdeeld in twee categorieën:
1) AI-systemen die worden gebruikt in producten die vallen onder de productveiligheidswetgeving van de EU. Dit omvat speelgoed, luchtvaart, auto's, medische apparaten en liften.
2) AI-systemen die vallen onder acht specifieke gebieden die geregistreerd moeten worden in een EU-database:
• Biometrische identificatie en categorisatie van natuurlijke personen
• Beheer en bediening van kritieke infrastructuur
• Onderwijs en beroepsopleiding
• Werkgelegenheid, werknemersbeheer en toegang tot zelfstandig ondernemerschap
• Toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en voordelen
• Rechtshandhaving
• Migratie, asiel en grenscontrolebeheer
• Assistentie bij juridische interpretatie en toepassing van de wet.
Alle hoogrisico AI-systemen zullen worden beoordeeld voordat ze op de markt worden gebracht en ook gedurende hun levenscyclus.
❗❗❗ Onaanvaardbaar risico: verboden
AI-systemen die een onaanvaardbaar risico vormen, worden beschouwd als een bedreiging voor mensen en zullen worden verboden. Dit omvat bijvoorbeeld speelgoed dat geactiveerd wordt door spraak en gevaarlijk gedrag bij kinderen aanmoedigt, sociale scoring en real-time en op afstand biometrische identificatiesystemen, zoals gezichtsherkenning.
Wat is social scoring? Sociale scoring is een methode waarbij individuen worden beoordeeld en geclassificeerd op basis van hun gedrag, socio-economische status of persoonlijke kenmerken. Dit kan een breed scala aan factoren omvatten, zoals financiële geschiedenis, sociale media-activiteit, gezondheidsgeschiedenis, en zelfs de kenmerken of het gedrag van vrienden en familie. Een bekend voorbeeld van een sociaal scoresysteem is het 'sociaal kredietsysteem' van China, dat de reputatie van burgers en bedrijven beoordeelt op basis van hun economisch en sociaal gedrag.
En nu?
Op woensdag 14 juni heeft het Europees Parlement zijn onderhandelingspositie over de AI Act aangenomen met 499 stemmen voor, 28 tegen en 93 onthoudingen. De onderhandelingspositie verwijst naar de standpunten en prioriteiten die het Parlement heeft vastgesteld met betrekking tot een bepaalde kwestie of wetgeving en wordt gebruikt als basis voor onderhandelingen en gesprekken. Die gesprekken, over de definitieve vorm van de wet, gaan gevoerd worden met EU-lidstaten en starten ook op 14 juni.