ID.nl logo
Ethische richtlijnen voor kunstmatige intelligentie
© PXimport
Zekerheid & gemak

Ethische richtlijnen voor kunstmatige intelligentie

Zelfrijdende auto’s op de weg, slimme assistenten in huis en software die bepaalt of je een lening krijgt, het is allemaal geen toekomstmuziek meer. AI heeft een steeds grotere impact op ons dagelijks leven. Reden te meer om eens dieper na te denken over hoe we als maatschappij met AI willen omgaan.

AI (artificial intelligence, ofwel kunstmatige intelligentie) speelt een steeds belangrijker rol in ons dagelijks leven. De technologie biedt heel wat voordelen: slimme assistenten verstaan je spraak, je smartphone verbetert je typefouten, en binnenkort hoeven we misschien zelf niet meer te rijden omdat onze auto dat voor ons doet.

Maar het gebruik van AI roept ook heel wat vragen op. Niet alleen over privacy, maar zelfs nog veel fundamenteler: wíllen we al die taken wel door computers laten uitvoeren? Willen we bijvoorbeeld wel het bepalen van wie een lening krijgt volledig door algoritmes laten gebeuren, zonder enige menselijke inbreng? En nog extremer: willen we wel een drone in oorlogsgebied automatisch laten bepalen of iemand een burger of vijandige soldaat is om die dan neer te schieten?

In april publiceerde de ‘High-Level Expert Group on AI’ van de Europese Commissie ethische richtlijnen voor betrouwbare AI, om een kader aan te bieden om over dit soort vragen na te denken en beslissingen over het gebruik van AI te kunnen nemen die de mensen in hun waarde laten.

De expertgroep baseert zich op grondrechten die in de EU-verdragen, het Handvest van de grondrechten van de EU en de internationale mensenrechtenwetgeving opgenomen zijn. Het gaat dan bijvoorbeeld om respect voor de menselijke waardigheid, vrijheid van het individu, respect voor democratie, justitie en de rechtsstaat, gelijkheid, non-discriminatie en solidariteit en rechten van burgers (zoals het recht op behoorlijk bestuur en het recht op inzage in openbare documenten). Bij de ontwikkeling en het gebruik van AI mogen die grondrechten nooit in het gedrang komen, vindt de expertgroep.

De auteurs noemen in hun rapport vier ethische beginselen die in die grondrechten geworteld zijn en die ontwikkelaars en gebruikers van AI altijd zouden moeten naleven: respect voor de menselijke autonomie, preventie van schade, rechtvaardigheid en verantwoording. Door deze beginselen na te leven, zouden we met AI het individuele en collectieve welzijn kunnen verbeteren.

AI-eisen

Een belangrijk grondrecht is de vrijheid van het individu: ieder is vrij om zijn eigen levenskeuzes te maken. Daaronder vallen ook de vrijheid van meningsuiting en het recht op een privéleven. Een AI-systeem mag mensen daarom niet onterecht onderwerpen of tot iets dwingen, maar ook niet misleiden of manipuleren.

Integendeel, een AI-systeem dat dit ethische beginsel omarmt, zou juist ontworpen moeten zijn om de menselijke cognitieve, sociale en culturele vaardigheden aan te vullen en te versterken. Zo zou een AI-systeem op de werkvloer dat respect heeft voor de autonomie van de werknemers juist ondersteunend zijn en het werk nog zinvoller maken. Bovendien betekent respect voor de menselijke autonomie ook dat er altijd menselijke controle moet zijn op de werkprocessen van het AI-systeem.

Een AI-systeem mag geen schade veroorzaken of vergroten bij mensen, zowel op fysiek als mentaal gebied. Hieronder vallen ook regels dat het systeem robuust en veilig moet zijn, zodat het niet misbruikt kan worden. Maar het gaat verder: een AI-systeem dat bijvoorbeeld ongelijkheid vergroot of de machtsverhoudingen tussen werkgever en werknemers verandert doordat die eerste meer informatie krijgt over zijn werknemers, gaat in tegen deze richtlijn.

©PXimport

Ook tussen een bedrijf en zijn klanten/consumenten of tussen een overheid en zijn burgers is er die scheeftrekking van de machtsverhoudingen. We zien dan ook momenteel dat veel bedrijven en overheden AI juist (willen) inzetten om hun macht te vergroten, en dat is een rechtstreekse inbreuk op dit beginsel.

Rechtvaardigheid is een breed begrip dat ook nog eens cultureel bepaald is. Dit is waarschijnlijk dan ook het moeilijkste ethische beginsel om in de praktijk te brengen. Toch zijn er enkele algemene regels: een AI-systeem zou niemand mogen discrimineren, stigmatiseren, ongelijke kansen geven of arbitrair in zijn keuzevrijheid beperken.

Discriminatie hoeft overigens niet bewust ingebouwd te zijn: het kan ook een ‘bug’ zijn. Zo werkt gezichtsherkenning doorgaans minder goed op een donkere huid, waardoor gekleurde personen vaker verkeerd geïdentificeerd worden.

Rechtvaardigheid betekent ook dat tegengestelde belangen altijd afgewogen moeten worden en dat de inzet van een AI-systeem evenredig moet zijn met het doel. Gezichtsherkenning inzetten om wie door een rood licht het zebrapad oversteekt publiekelijk aan de schandpaal te nagelen, is bijvoorbeeld een onevenredig gebruik van de technologie en dus niet rechtvaardig. Tenminste in Europa; in China vindt men dit heel normaal …

Minstens zo belangrijk als de vorige beginselen is dat de werking van een AI-systeem verantwoord moet kunnen worden. De processen van het systeem dienen transparant te zijn en de mogelijkheden en het doel dienen openbaar te zijn.

Bovendien moeten de beslissingen die een AI-systeem neemt te verklaren zijn voor wie er de gevolgen van ondervindt. Als je een aanvraag voor een lening doet en die door het systeem geweigerd wordt, heb je recht op een betere verklaring dan “Computer says no”. De computer moet een redenering kunnen geven als: je bent geweigerd omdat je loon te laag is en je in het verleden een lening tijdelijk niet hebt afbetaald. Als je zo’n antwoord krijgt, kun je dit tenminste aanvechten door tegenargumenten te geven.

In de praktijk

Allemaal goed en wel, maar dat blijven vrij vage ethische richtlijnen. Hoe werk je dat in de praktijk uit? Verrassend genoeg biedt het rapport van de Europese Commissie aan de voorgaande beginselen ook heel praktische richtlijnen in de vorm van een lijst met zeven concrete vereisten waaraan elk AI-systeem zou moeten voldoen. Bovendien worden bij elk van deze vereisten methodes vermeld die bedrijven kunnen gebruiken om hun AI-systeem aan de vereisten te laten voldoen.

Eén van die concrete vereisten is bijvoorbeeld het belang van privacy en ‘data governance’ (gegevenskwaliteitsbeheer). Het rapport beklemtoont dat gegevens die over personen verzameld zijn vertekend, onvolledig, onnauwkeurig, of fout kunnen zijn. Dit moet verholpen worden vóórdat het systeem met deze gegevens getraind wordt.

Bovendien moet elke stap, zoals het plannen, trainen, testen en installeren, getest en gedocumenteerd worden om de integriteit te waarborgen. En de algoritmes, gegevens en ontwerpprocessen moeten te evalueren zijn door interne en externe controleurs.

©PXimport

Bij de vereisten staat ook dat een AI-systeem zich tegenover een gebruiker niet als mens mag voordoen: het moet altijd als AI-systeem herkenbaar zijn. Bovendien moet een AI-systeem toegankelijk zijn voor iedereen ongeacht, leeftijd, geslacht of beperkingen. Opmerkelijk is ook dat het rapport erop wijst dat de energieconsumptie tijdens het trainen van een AI-systeem geminimaliseerd moet worden.

Bedrijven die met AI bezig zijn, vinden in het rapport een checklist van dit soort vragen die ze zichzelf kunnen stellen. De Europese Commissie spoort elk bedrijf aan om intern de checklist uit te testen en feedback te geven over de toepasbaarheid, volledigheid en relevantie, zodat er begin 2020 een herziene versie opgesteld kan worden.

Van ethiek naar wetgeving

Ethische richtlijnen zijn nuttig, maar volgens digitale burgerrrechtenorganisatie Acces Now en consumentenverenigingen ANEC en BEUC, die alle drie een lid in de expertgroep hadden, is dit maar een eerste stap. Zonder bijbehorende wetgeving en controles kunnen we niet verzekeren dat AI-systemen de rechten van gebruikers respecteren.

Access Now klaagt ook aan dat de Europese Commissie in de expertgroep voornamelijk vertegenwoordigers uit het bedrijfsleven heeft geplaatst, en dat de richtlijnen daardoor niet voldoende de mens centraal stellen. De organisatie stelt ook voor om de uitdagingen rond AI meer in termen van mensenrechten te bespreken, zoals ze vorig jaar hebben gedaan in hun publicatie ‘Human rights in the age of artificial intelligence’.

Iets anders waar het rapport van de Europese Commissie aan voorbijgaat, is het probleem van verantwoordelijkheid. Als een zelfrijdende auto door een fout een dodelijk ongeval veroorzaakt, wie is dan de ‘schuldige’? De auto? Maar apparaten zijn geen levende wezens, dus daar kunnen we geen verantwoordelijkheid aan toekennen.

De producent dan? Op zich verschilt een AI-systeem zoals een zelfrijdende auto niet zoveel van elk ander product. Als een klassieke auto door een fout plots tijdens een manoeuvre blokkeert en daardoor een ongeval veroorzaakt, zal de producent verantwoordelijk gesteld worden. Zo ook bij een zelfrijdende auto.

©PXimport

Maar het is veel complexer dan dat: een zelfrijdend systeem bestaat uit zoveel subsystemen van zoveel andere bedrijven, en is getraind op zoveel data uit allerlei bronnen, dat het heel moeilijk te bepalen is wat juist de fout veroorzaakt heeft. Misschien ligt de fout wel in een verkeerde training door een werknemer die op een vrijdagavond vroeger naar huis wilde, waardoor de auto de situatie verkeerd ingeschat heeft.

Of misschien kwam de auto in een situatie waarin er gewoon geen juiste oplossing was. Stellen we dan degene die de keuze in een algoritme gegoten heeft verantwoordelijk voor elke dode die uit die keuze voortvloeit?

En die complexiteit leidt weer tot andere problemen. Elon Musk heeft aangegeven dat Tesla de verantwoordelijkheid aanvaardt in het geval van een ongeval, op voorwaarde dat de software een fout gemaakt heeft. En hoe bepaal je dat? Door de auto tijdens het rijden continu alle mogelijke gegevens te laten verzamelen en naar Tesla te sturen. We kopen de verantwoordelijkheid van de producent dus af met onze privacy.

Te veel vertrouwen in AI

Producenten van AI-systemen stellen de capaciteiten altijd mooier voor dan ze zijn. Daardoor hebben politici, overheidsdiensten maar ook wij allemaal te veel vertrouwen in AI, terwijl veel systemen nog helemaal niet zo goed werken dat we ze in de plaats van menselijke experts zouden kunnen gebruiken.

Je kunt je schouder ophalen met de boodschap dat het allemaal wel zal verbeteren, maar ondertussen wordt AI wel in heel wat domeinen toegepast of overwogen waar het juist tot extra risico’s leidt. Het ‘Berkman Klein Center for Internet & Society’ van de universiteit van Harvard publiceerde vorig jaar een overzicht van de risico’s in het rapport ‘Artificial Intelligence & Human Rights: Opportunities & Risks’.

Het rapport gaat in zes domeinen in op de impact van AI op mensenrechten. Opvallend is dat er maar één domein is waarin de auteurs de positieve impact groter zien dan de negatieve impact: diagnostiek in de gezondheidszorg. In het strafrecht, de financiële sector, onderwijs, online content moderation en human resources weegt momenteel de negatieve impact door of is de impact nog onduidelijk.

De problemen zijn afhankelijk van het domein, maar hetzelfde komt vaak terug: het systeem beoordeelt iemand nog te vaak fout en er is geen enkel verweer tegen doordat de beslissing niet transparant genomen wordt. Omdat de gebruikers (politiemensen, rechters, hr-personen, bankiers) blindelings vertrouwen in de technologie waarmee ze mensen beoordelen, zijn ze niet geneigd om de bezwaren van de slachtoffers serieus te nemen. Het is nu eenmaal gemakkelijk om de verantwoordelijkheid voor een moeilijke beslissing naar een computer door te schuiven.

AI in Nederland

Dit is geen ver-van-mijn-bedshow. In Nederland koppelt de overheid sinds 2014 persoonsgegevens van burgers uit verschillende databases aan elkaar om risicoprofielen op te stellen. Het systeem heet SyRI (Systeem Risico Indicatie) en is ondanks grote bewaren van het toenmalige College Bescherming Persoonsgegevens en de Raad van State ingevoerd, zonder enige vorm van inzicht in wat er met de gegevens van burgers gebeurt.

De gemeenten, het UWV, de Sociale Verzekeringsbank, de Inspectie SZW en de Belastingdienst kunnen allemaal van SyRI gebruikmaken als ze bijvoorbeeld fraude met uitkeringen, toeslagen of belastingen vermoeden. Het systeem gaat dan aan het rekenen en bepaalt zo welke adressen een verhoogd risico op fraude hebben. Dat kan niet zomaar: er is een hele procedure. Een gemeente kan bijvoorbeeld toestemming vragen om een specifieke wijk te onderzoeken.

©PXimport

In de vijf jaar dat het systeem actief is, hebben vijf gemeenten dat gedaan, maar uit onderzoek van de Volkskrant blijkt dat bij geen van die algoritmische onderzoeken een fraudegeval ontdekt werd. Gegevens waren vaak niet meer actueel of verkeerd ingevuld, of er was te weinig personeel. SyRI is bovendien helemaal niet transparant: bewoners van ‘zwakkere’ wijken komen onder een vergrootglas te liggen terwijl ze helemaal niet weten welke privacygevoelige gegevens over hen gebruikt worden. Door het groeiende protest over de gang van zaken besloot Rotterdam om het fraudeonderzoek met SyRI stop te zetten.

Google AI

Ondertussen profiteren bedrijven zoals Google, Facebook en Amazon van de grote hoeveelheden gegevens waarover ze beschikken om krachtige AI-toepassingen te trainen, die zelden in het voordeel van gebruikers zijn. Als je de website Google AI zou bezoeken, zou je niet geloven dat dit hetzelfde bedrijf is dat 80% van het webverkeer traceert met cookies of trackers.

Als we even voorbijgaan aan de privacy-inbreuken van Google, bevat de website van Google AI een interessante houding tegenover AI. Google wil met AI naar eigen zeggen technologieën ontwikkelen die belangrijke problemen oplossen en mensen in hun dagelijks leven helpen.

Het bedrijf somt zelfs enkele principes op die het volgt in zijn keuze om specifieke AI-toepassingen al dan niet te ontwikkelen. Zo mag een AI-technologie volgens Google geen vooroordelen creëren of versterken, moet ze verantwoording kunnen geven en moet ze de maatschappij van voordeel zijn. Google heeft ook een People + AI Guidebook gepubliceerd voor wie zelf een AI-systeem ontwikkelt en daarbij wil weten hoe dit het best de mens centraal stelt.

▼ Volgende artikel
Dit is waarom No Frost eigenlijk onmisbaar is bij inbouw-vriezers
© Kirill Sirotiouk
Huis

Dit is waarom No Frost eigenlijk onmisbaar is bij inbouw-vriezers

Als je je vriezer wilt ontdooien, trek je eerst de stekker eruit. Laat je 'm aanstaan, dan blijft het apparaat koelen en smelt het ijs nauwelijks. Bij een vrijstaand model is dat zo gebeurd, maar bij een inbouw-vriezer ligt dat anders. De plint moet los, het apparaat moet naar voren, en pas dan kun je bij het stopcontact. Gedoe dus. Wil je een inbouw-vriezer, dan kun je dus het beste kiezen voor een model met No Frost. Maar wat is dat eigenlijk, en hoe werkt het?

In dit artikel lees je:
  • Wat No Frost precies doet
  • Waarom No Frost een must is, zeker bij inbouw-vriezers
  • Of er nadelen zitten aan No Frost
  • Wat het verschil is met Low Frost

Wat doet No Frost precies?

In een vriezer zonder No Frost ontstaat na verloop van tijd een ijslaag op de binnenwanden. Dat komt door vochtige lucht die binnenkomt elke keer dat je de deur opent. Daardoor gaan de lades minder soepel open en dicht, vriezen verpakkingen vast en stijgt het energieverbruik zonder dat je het meteen doorhebt.

No Frost voorkomt dat. In plaats van het vocht te laten condenseren en bevriezen, circuleert er droge, koude lucht door de vriezer dankzij een ingebouwde ventilator. Die onttrekt actief vocht aan de lucht in het vriesdeel, waardoor ijsvorming helemaal uitblijft. Alles in de vriezer blijft los van elkaar, zonder dat er zich een laag ijs vormt op lades of verpakkingen.

©Tolstoy | Prozorov Andrey

Waarom No Frost juist bij inbouw zo handig is

Dat je nooit meer hoeft te ontdooien is prettig, maar No Frost heeft nog een paar duidelijke voordelen. Een vriezer zonder ijslaag werkt efficiënter: zodra er ijs aan de binnenwanden ontstaat, moet de compressor meer moeite doen om alles op temperatuur te houden. Dat zie je terug op je energierekening.

Bij inbouw-vriezers speelt dat nog sterker. Omdat die vriezers in een kast zijn weggewerkt, is de luchtcirculatie rond het apparaat beperkter. Warmte die normaal via de zijkanten en achterkant wordt afgevoerd, blijft langer hangen. Daardoor neemt de kans op condensvorming en dus ijsopbouw toe bij modellen zonder No Frost. Als de vriezer daardoor harder moet werken, loopt het verbruik op en verslechtert de energieprestatie – zelfs als het label op papier zuinig lijkt. Met No Frost voorkom je dat, en blijft de vriezer goed werken, ook als hij is ingebouwd.

Beter voor je eten

Ook blijft door No Frost de kwaliteit van ingevroren eten beter behouden. IJskristallen op verpakkingen en producten ontstaan bij temperatuurwisselingen en vochtophoping. Met een No Frost-systeem blijft de lucht in het vriesvak stabiel en droog. Daardoor droogt je eten minder snel uit en blijft de kwaliteit beter behouden. 

Zijn er ook nadelen?

No Frost heeft geen echte nadelen, al zijn er wel een paar dingen om rekening mee te houden. Een No Frost-vriezer gebruikt in theorie iets meer stroom door het ventilatiesysteem. In de praktijk weegt dat ruimschoots op tegen het lagere verbruik dankzij het ontbreken van ijsvorming. Ook maakt de luchtcirculatie soms een zacht zoemend geluid. Bij inbouw hoor je daar meestal weinig van, omdat het apparaat in een kast is weggewerkt. Ook ligt de prijs vaak iets hoger dan bij standaard vriezers.

Hoe zit het met Low Frost bij inbouw-vriezers?

Niet alle vriezers zonder ijsvorming zijn automatisch No Frost. Er bestaan ook modellen met Low Frost. Die werken met verdampers in de wand, waardoor er veel minder snel ijs ontstaat. Helemaal ijsvrij blijft het vriesgedeelte niet, maar ontdooien hoeft nog maar één of twee keer per jaar. Bij een vrijstaand model kan dat prima, maar bij inbouw eigenlijk niet. Want één keer per jaar ontdooien is bij een ingebouwd apparaat nog steeds onhandig. Daarom is No Frost bij inbouw eigenlijk de enige keuze waarmee je het jezelf écht makkelijk maakt.

©qwartm - stock.adobe.com

No Frost is bij inbouw geen luxe, maar logica

Het allergrootste voordeel van No Frost bij een inbouw-vriezer is natuurlijk dat de rompslomp van ontdooien je bespaard blijft. Daarnaast zorgt No Frost ervoor dat de vriezer constant blijft presteren, ook in een krappe, slecht geventileerde nis. Het voorkomt ijsvorming, houdt het energieverbruik stabiel en zorgt dat je ingevroren etenswaren zo lang mogelijk hun kwaliteit behouden. Zeker bij een inbouwmodel is No Frost dus geen luxe, maar gewoon een slimme keuze.

Nog even dit

Vriezers hebben ruimte nodig om hun warmte kwijt te kunnen. Bij No Frost-modellen is dat extra belangrijk, omdat die werken met actieve luchtstroom. Bij een vrijstaande vriezer is voldoende ruimte meestal geen probleem, maar bij inbouw-modellen is het belangrijk dat ze niet te krap worden ingebouwd. Kijk dus niet alleen naar de afmetingen van het apparaat zelf, maar controleer ook altijd hoeveel extra ruimte de fabrikant adviseert voor ventilatie. Soms is er aan de achterkant, bovenkant of onder de vriezer nog luchtcirculatie nodig. Houd daar in je keukenontwerp rekening mee, zodat de vriezer goed blijft functioneren en het energieverbruik niet oploopt. Je kunt ook altijd advies vragen bij je keukenspecialist.

▼ Volgende artikel
Scareware blokkeren: zo activeer je het in Edge
Huis

Scareware blokkeren: zo activeer je het in Edge

Microsoft maakt zijn browser veiliger door Edge-gebruikers te beschermen tegen de bekende scareware-aanvallen. De nieuwe functie scareware-blokkering beschermt je tegen voorheen onbekende scamtools.

In dit artikel laten we zien hoe Edge jou beschermt tegen scareware:

  • Werk Edge bij of installeer de preview-versie
  • Schakel de scareware-blokker en Microsoft Defender SmartScreen in
  • Edge toont een waarschuwing bij risico’s

Lees ook: Scamtrucs? Zo trap je er nooit meer in!

Stap 1: Update of preview

Scareware is de verzamelnaam voor online tools die ons de stuipen op het lijf jagen met alarmerende pop-upberichten of nepsysteemwaarschuwingen. Op die manier probeert men de gebruiker te manipuleren om schadelijke software te downloaden die vermomd zit in een zogenaamd antivirusprogramma.

De nieuwe veiligheidsfunctie van Edge wordt stapsgewijs uitgerold. Als je de functie nog niet kunt terugvinden, probeer dan eerst Edge te updaten. Open de browser en klik op de drie puntjes in de rechterbovenhoek van het scherm. Selecteer Instellingen en klik op Over Microsoft Edge. Als er een update beschikbaar is, zal de browser die automatisch downloaden en installeren. Je kunt de functie ook proberen door in het nieuwe Microsoft Edge Insider Channel de preview-versie te downloaden. Het is trouwens mogelijk om je huidige Edge-versie naast de preview-versie te gebruiken.

Je kunt de nieuwe scareware-blokkering ook proberen in de preview van Edge.

Stap 2: Activeren

Om Scareware-blokker in te schakelen, open je Microsoft Edge en klik je rechtsboven op de drie puntjes. Dan kies je de optie Instellingen zodat je in het linkerdeelvenster Privacy, zoeken en services kunt selecteren. In het gedeelte Beveiliging zet je de schakelaar Scareware-blokkering aan. Maak ook de optie Microsoft Defender SmartScreen actief. Wanneer een site als kwaadaardig wordt gedetecteerd, wordt de cloudgebaseerde database voor SmartScreen bijgewerkt en wordt de informatie verspreid over apparaten over de hele wereld. Zodra je deze stappen hebt voltooid, is de beveiligingsfunctie actief en kun je gewoon doorgaan met browsen op internet.

Schakel Scareware-blokker en Microsoft Defender SmartScreen in.

Stap 3: Alarm!

Hoe werkt de Scareware-blokker? Aan de hand van een lokaal machine-learning-model vergelijkt Edge de pagina’s met duizenden gerapporteerde scams die bij de community van Microsoft zijn binnengekomen. Wanneer een verdachte pagina wordt geselecteerd, verlaat Edge de modus van het volledige scherm en ontvang je een waarschuwing. Op die manier moet je dus zelf beslissen of je wilt doorgaan. Je kunt trouwens ook malafide pagina’s melden om anderen te beschermen. Microsoft moedigt aan om zowel echte scam-pagina’s als vals positieven te melden en op die manier de nauwkeurigheid van het model te verbeteren.

Scareware-blokker geeft een voorvertoning van de verdachte website, maar waarschuwt om die niet te openen.

Watch on YouTube