Hoe algoritmes onze levens beheersen

© PXimport

Hoe algoritmes onze levens beheersen

Geplaatst: 16 augustus 2021 - 05:06

Aangepast: 25 november 2022 - 11:06

Joris Peterse

Aan algoritmes die allerlei zaken voor ons bepalen, valt in onze gedigitaliseerde wereld niet te ontkomen. Het bekendste voorbeeld zijn de algoritmes van Facebook, Google en YouTube, die bepalen wat wij te zien krijgen en welke aanbevelingen we krijgen. Ook de toeslagenaffaire ging mis op algoritmes. Hoe worden zaken voor ons bepaald? En kun je deze algoritmes ontduiken of temmen?

Als we Wikipedia erbij pakken voor de definitie van een algoritme, dan vertelt de encyclopedie ons: ‘Een algoritme is een recept om een wiskundig of informaticaprobleem op te lossen. Wiskundig geformuleerd is het een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt.’

Marit Hoefsloot, master student Philosophy of Science, Technology and Society bij UTwente en werkzaam bij het Future Lab Waag in Amsterdam weet het net even helderder uit te leggen: “Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen, wordt het woord voornamelijk gebruikt voor stappenplannen voor het uitvoeren van wiskundige berekeningen.”

Wiskundige Hannah Fry noemt in haar boek ‘Algoritmes aan de macht’ vier functies van algoritmes: prioriteren, classificeren, associëren en filteren. Hoefsloot vult dit graag aan met een vijfde functie: identificeren. Hierbij noemt ze het praktijkvoorbeeld van gezichtsherkenning om je smartphone te ontgrendelen, waar bewegend beeldmateriaal vergeleken wordt met een opgeslagen plaatje van jouw gezicht, met het doel om je identiteit vast te stellen.

Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen

-

Alledaagse algoritmes

Algoritmes komen natuurlijk veelvuldig voor in de digitale wereld en zitten ingebakken in de meest basale functies die we gebruiken. Hoefsloot geeft hierbij het voorbeeld van de zoekfunctie in pdf-documenten (classificeren): “Ik kan mijn leven nauwelijks voorstellen zonder zoekfuncties!”

De bekendste voorbeelden van manieren waarop we in aanraking komen met algoritmes in de digitale wereld, zijn de algoritmes van Facebook en Google. Het sociale netwerk gebruikt deze om een tijdlijn samen te stellen met inhoud die je maximaal prikkelt. Googles algoritmes bepalen (prioriteren) de zoekresultaten die op jou afgestemd zijn en YouTube-videosuggesties die jou moeten verleiden.

Deze algoritmes lijken een vrij onschuldig middel om een commercieel doel te verwezenlijken: jouw aandacht vasthouden om meer advertentie-inkomsten te werven en nóg meer data te verzamelen om de algoritmeformules te voeden. Toch kunnen de algoritmes minder onschuldige gevolgen hebben en zelfs samenleving ontwrichtende gevolgen hebben.

Hoe algoritmes onze levens beheersen-18713889

© PXimport

Algoritmes in de praktijk

Toeslagenaffaire

Om een goed voorbeeld te noemen van de ingrijpende gevolgen waar zwaar leunen op algoritmes toe kunnen leiden, hoeven we niet alleen naar techgiganten te kijken.

De toeslagenaffaire, die leidde tot grote (financiële) problemen bij slachtoffers en de val van het kabinet-Rutte III, kwam voort uit algoritmes. Mensen werden onterecht gekort op hun toeslagen. De wiskundige formule waarmee het algoritme werd bepaald, woog verschillende factoren mee. Dubbele nationaliteit? Een specifieke etnische achtergrond? Het werd allemaal als risicofactor aangemerkt voor mogelijke fraude in het algoritme. Waren er te veel risicofactoren aangevinkt? Dan werden op basis daarvan mensen (vaak onterecht) gekort. Met alle gevolgen van dien.

Algoritmes bij Google-zoekresultaten

Hoe algoritmes onze levens beheersen-18713891

© PXimport

Wiskundige discriminatie

Hoewel algoritmes niet de enige misstand waren die tot de toeslagenaffaire leidden, stelde Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP): “Het hele systeem was op een discriminerende manier ingericht en werd ook als zodanig gebruikt.”

Het algoritme werd hierbij aangewend om statistieken tot vooroordelen om te toveren. Als een soort cijfermatige onderbouwing om onrecht toe te passen. Zo benoemde de AP het voorbeeld dat Nederlanders met een dubbele nationaliteit tot eind 2018 strenger gecontroleerd werden als ze kinderopvangtoeslag aanvroegen dan andere Nederlanders. Die dubbele nationaliteit was een van de waarden waar het geautomatiseerde algoritme op aansloeg en bepaalde dat er extra controle nodig was. Volgens de AP was er hierdoor sprake van discriminatie op basis van nationaliteit.

Bij de toeslagenaffaire werd pijnlijk duidelijk dat de uitkomst van het stappenplan die we als algoritme bestempelen niet altijd een eerlijk resultaat is. Hoefsloot: “algoritmes zijn per definitie gebouwd op historische data, dus het is niet makkelijk om dit soort problemen te omzeilen.”

In deze kwestie lijkt het dus alsof algoritmes gebruikt zijn om onze vooroordelen te bevestigen. “Wat een optie zou zijn”, vervolgt Hoefsloot, “is het erkennen dat algoritmes dit soort vooroordelen kunnen hebben en dus niet per definitie ‘neutraal’ zijn. De resultaten uit de algoritmes moeten worden gezien als kansen en aanbevelingen en niet als de waarheid of als de enige optie. We moeten kritisch blijven op die aanbevelingen en die aanbevelingen ook leren negeren. De mensen die werken met dit soort algoritmes moeten onderwezen worden in de werking ervan en in het feit dat de resultaten enkel kansen en aanbevelingen zijn, en dat die aanbevelingen ook fout kunnen zijn. De beslissende kracht komt dan weer bij de mens te liggen en niet bij het algoritme. Het algoritme wordt enkel gebruikt om complexe berekeningen uit te voeren.”

Hoe algoritmes onze levens beheersen-18713894

© PXimport

Gebrek aan menselijke interventie

Hoefsloot vermoedt dat de negatieve bijdrage van algoritmes aan de toeslagenaffaire verklaard kan worden door blind vertrouwen: “Vermoedelijk hebben algoritmes een negatieve bijdrage geleverd aan de toeslagenaffaire omdat er wordt aangenomen dat algoritmes geen fouten kunnen maken. Maar het is en blijft belangrijk om kritisch te blijven op de uitkomsten van de algoritmes en die dubbel te checken. Een persoon moet verantwoordelijk zijn voor de uitvoering van het algoritme en moet in staat zijn om de werking en de uitkomsten van het algoritme te auditen. Het algoritme mag niet als de enige bron van waarheid worden gebruikt. Alleen op deze manier kunnen met algoritmes tijdsintensieve taken nog steeds goed geautomatiseerd worden, maar wordt de beslissende kracht weggenomen.”

Het schrijnende bij de toeslagenaffaire lijkt dat de algoritmes hun vooraf bepaalde werk naar behoren uitvoerde, maar menselijke interventie ontbrak. Ook dit is een patroon dat we bij de algoritmes maar al te vaak terugzien. Als het algoritme van Facebook of Instagram de plank misslaat en je ongepaste posts laat zien, dan gaan meldingen daarover vrijwel altijd door een geautomatiseerd proces. Er komt zeer zelden een menselijk oordeel aan te pas.

YouTube, waarbij de algoritmes je al snel op een spoor van misinformatie en complottheorieën zetten omdat mensen statistisch gezien hier sneller voor kiezen en langer blijven kijken, maakt het je ook onmogelijk een mens op de hoogte te brengen van misstanden. Wanneer een video veel dislikes krijgt, wordt hij minder snel getoond in de aanbevolen video’s of minder vaak automatisch afgespeeld. Wordt een video gerapporteerd als misleidend of op een andere manier ongepast, dan is het in de meeste gevallen ook een wiskundige formule die bepaalt wanneer een video op zwart gezet wordt.

Oneerlijke algoritmes

Uitbesteden

Waarom er zo weinig mensenwerk aan te pas komt, laat zich raden. Geautomatiseerde processen zijn, vooral in een digitale wereld enorm efficiënt. Techreuzen als Google en Facebook moeten hun aandeelhouders tevreden houden. Het aanstellen van veel mankracht om inhoud te controleren, of tijdlijnen en zoekresultaten zonder algoritmes uit te voeren, doen de beurskoersen geen goed.

Daarbij is het ook belangrijk om in het achterhoofd te houden dat het advertentiebedrijven zijn. De algoritmes zorgen ervoor dat onze aandacht zo vaak mogelijk wordt getrokken en zo lang mogelijk wordt vastgehouden door advertenties en overige inhoud optimaal te personaliseren. De samenstelling van de content en het welzijn van de kijkers is daarbij van ondergeschikt belang.

Zijn algoritmes neutraal?

Dystopische algoritmes

De eerder genoemde voorbeelden van de toeslagenaffaire, gestuurde zoekresultaten en social media zijn algoritmes die ons dagelijks leven beïnvloeden. Maar het kan nog veel verder gaan, zoals het dystopische sociaal kredietsysteem waar China aan werkt. Hierbij krijgt iedere burger een score op basis van gedrag, en die score bepaalt of je mag reizen, geld mag lenen bij een bank of zelfs waar je mag wonen. Deze score wordt bepaald door algoritmes gebaseerd op arbitraire waardes en geautomatiseerde systemen, die bijvoorbeeld op basis van gezichtsherkenning jou een boete (en een negatieve aantekening) geven wanneer je door een rood stoplicht wandelt. Het geeft aan hoe algoritmes kunnen ingrijpen op de samenleving als ethische waarden volledig uit de code verdwijnen.

Tevens is er een megalomane technische infrastructuur voor nodig, waar China hard aan werkt. Hierbij kwam Huawei eind 2019 nog in een negatief daglicht te staan, omdat het voor de Chinese overheid een algoritme ontwikkelde voor straatcamera’s die Oeigoeren uit mensenmassa’s kan pikken. Bij herkenning worden overheden onmiddellijk op de hoogte gesteld van zijn of haar aanwezigheid. Zo lijkt in het geval van China dat algoritmes zelfs aan de basis staan van mensenrechtenschendingen, en wellicht (deels) bijdragen aan wat sommige landen al bestempelen als de Oeigoerse genocide.

Geen ontkomen aan

Het voorbeeld van China laat een extreme kant zien van het gebruik van algoritmes, maar ook ons dagelijks leven wordt er dus door beïnvloed. Hoe kun je je er tegen wapenen? Hoe krijg je een internet en dienstverlening die zo neutraal mogelijk ingericht is?

Het antwoord is tamelijk deprimerend. Je kunt zoekdiensten als StartPage en DuckDuckGo gebruiken, die wat gebruikersvriendelijkere algoritmes lijken te gebruiken, maar als zoekmachine nog altijd tekortschieten. En hoe het zit met de zoektechnologie van deze alternatieven die jouw resultaten weergeeft? Dat blijft gissen.

De enige manier om onder de dubieuze algoritmes van Facebook, Instagram en YouTube uit te komen is door de diensten links te laten liggen. Onder een overheid uitkomen die algoritmes oneerlijk toepast? Dat is misschien wel een nóg onrealistischere uitdaging.

De verantwoordelijkheid ligt bij de programmeurs en eigenaren (bedrijven en overheden) achter de algoritmes. Als mensen eindverantwoordelijk worden gemaakt voor de uitkomst van de stappenplannen en algoritmes worden getraind op een representatieve afspiegeling van de maatschappij, kunnen eerste stappen gezet worden.

Hoefsloot vult concluderend aan: “Daarnaast is het belangrijk dat de subjecten van de algoritmes zich ervan bewust zijn dat er een beslissing over hen wordt genomen op basis van een algoritme en moeten die beslissingen uitgelegd kunnen worden. De subjecten moeten het systeem kunnen aanvechten, net als bij een menselijke beslissing.”

Hoe algoritmes onze levens beheersen-18713896

© PXimport

Meer over algoritmes

Hoe algoritmes onze levens beheersen-18713898

© PXimport

Deel dit artikel
Voeg toe aan favorieten