ID.nl logo
Hoe algoritmes onze levens beheersen
© Reshift Digital
Huis

Hoe algoritmes onze levens beheersen

Aan algoritmes die allerlei zaken voor ons bepalen, valt in onze gedigitaliseerde wereld niet te ontkomen. Het bekendste voorbeeld zijn de algoritmes van Facebook, Google en YouTube, die bepalen wat wij te zien krijgen en welke aanbevelingen we krijgen. Ook de toeslagenaffaire ging mis op algoritmes. Hoe worden zaken voor ons bepaald? En kun je deze algoritmes ontduiken of temmen?

Als we Wikipedia erbij pakken voor de definitie van een algoritme, dan vertelt de encyclopedie ons: ‘Een algoritme is een recept om een wiskundig of informaticaprobleem op te lossen. Wiskundig geformuleerd is het een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt.’

Marit Hoefsloot, master student Philosophy of Science, Technology and Society bij UTwente en werkzaam bij het Future Lab Waag in Amsterdam weet het net even helderder uit te leggen: “Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen, wordt het woord voornamelijk gebruikt voor stappenplannen voor het uitvoeren van wiskundige berekeningen.”

Wiskundige Hannah Fry noemt in haar boek ‘Algoritmes aan de macht’ vier functies van algoritmes: prioriteren, classificeren, associëren en filteren. Hoefsloot vult dit graag aan met een vijfde functie: identificeren. Hierbij noemt ze het praktijkvoorbeeld van gezichtsherkenning om je smartphone te ontgrendelen, waar bewegend beeldmateriaal vergeleken wordt met een opgeslagen plaatje van jouw gezicht, met het doel om je identiteit vast te stellen.

Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen

-

Alledaagse algoritmes

Algoritmes komen natuurlijk veelvuldig voor in de digitale wereld en zitten ingebakken in de meest basale functies die we gebruiken. Hoefsloot geeft hierbij het voorbeeld van de zoekfunctie in pdf-documenten (classificeren): “Ik kan mijn leven nauwelijks voorstellen zonder zoekfuncties!”

De bekendste voorbeelden van manieren waarop we in aanraking komen met algoritmes in de digitale wereld, zijn de algoritmes van Facebook en Google. Het sociale netwerk gebruikt deze om een tijdlijn samen te stellen met inhoud die je maximaal prikkelt. Googles algoritmes bepalen (prioriteren) de zoekresultaten die op jou afgestemd zijn en YouTube-videosuggesties die jou moeten verleiden.

Deze algoritmes lijken een vrij onschuldig middel om een commercieel doel te verwezenlijken: jouw aandacht vasthouden om meer advertentie-inkomsten te werven en nóg meer data te verzamelen om de algoritmeformules te voeden. Toch kunnen de algoritmes minder onschuldige gevolgen hebben en zelfs samenleving ontwrichtende gevolgen hebben.

©PXimport

Algoritmes in de praktijk

Eigenlijk bij alles waar een computer aan te pas komt, komen algoritmes om de hoek kijken. Supermarktketen Albert Heijn kent persoonlijke aanbiedingen, die koopgedrag combineert met meerdere variabelen om je met op jouw gerichte voordeeltjes naar de winkel te lokken. Dating apps als Tinder gebruiken algoritmes die bepalen hoe vaak je profiel getoond wordt en aan wie. Zo’n bedrijf heeft er immers niks aan als je na één onbetaalde swipe de liefde van je leven tegenkomt. Ingewikkelder wordt het als we kijken naar zelfrijdende auto’s. Hier vertrouwen we op algoritmes die binnen een fractie van een seconde soms heftige ethische kwesties oplossen. Prioriteer je bij een mogelijke aanrijding inzittenden of voetgangers? Wijk je bij een onverwacht overstekende hond wel of niet uit richting de kat die op de stoep zit?

Toeslagenaffaire

Om een goed voorbeeld te noemen van de ingrijpende gevolgen waar zwaar leunen op algoritmes toe kunnen leiden, hoeven we niet alleen naar techgiganten te kijken.

De toeslagenaffaire, die leidde tot grote (financiële) problemen bij slachtoffers en de val van het kabinet-Rutte III, kwam voort uit algoritmes. Mensen werden onterecht gekort op hun toeslagen. De wiskundige formule waarmee het algoritme werd bepaald, woog verschillende factoren mee. Dubbele nationaliteit? Een specifieke etnische achtergrond? Het werd allemaal als risicofactor aangemerkt voor mogelijke fraude in het algoritme. Waren er te veel risicofactoren aangevinkt? Dan werden op basis daarvan mensen (vaak onterecht) gekort. Met alle gevolgen van dien.

Algoritmes bij Google-zoekresultaten

Je zou denken dat zoekmachines neutraal zijn en iedereen dezelfde zoekresultaten voorschotelen. Dat is bij Google absoluut niet het geval. Zoekresultaten worden beïnvloed op basis van verzamelde gegevens van Google. Niet alleen in de vorm van gepersonaliseerde zoekresultaten, die je overigens in de zoekinstellingen kunt uitschakelen, maar ook algemener. Afhankelijk van je locatie, zoals het land waar je je bevindt, worden zoekresultaten anders weergegeven. Bijvoorbeeld om de zoekresultaten van pagina’s in een gangbare taal weer te geven, maar ook voor lokaal gevoelige onderwerpen. De algoritmes die bepalen wat Google jou toont, zijn een groot geheim en geven Google enorm veel macht om te bepalen waar jij, of een hele bevolkingsgroep, mee geconfronteerd mag worden. In potentie kan hiermee publieke opinie worden beïnvloed, wat vanuit democratisch oogpunt onwenselijk is. Niet Google, maar Facebook – dat eveneens bepaalt wat jij te zien krijgt – is (en wordt) regelmatig misbruikt om publieke opinie en zelfs verkiezingen te manipuleren: het recente Cambridge Analytica-schandaal is hier een voorbeeld van.

©PXimport

Wiskundige discriminatie

Hoewel algoritmes niet de enige misstand waren die tot de toeslagenaffaire leidden, stelde Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP): “Het hele systeem was op een discriminerende manier ingericht en werd ook als zodanig gebruikt.”

Het algoritme werd hierbij aangewend om statistieken tot vooroordelen om te toveren. Als een soort cijfermatige onderbouwing om onrecht toe te passen. Zo benoemde de AP het voorbeeld dat Nederlanders met een dubbele nationaliteit tot eind 2018 strenger gecontroleerd werden als ze kinderopvangtoeslag aanvroegen dan andere Nederlanders. Die dubbele nationaliteit was een van de waarden waar het geautomatiseerde algoritme op aansloeg en bepaalde dat er extra controle nodig was. Volgens de AP was er hierdoor sprake van discriminatie op basis van nationaliteit.

Bij de toeslagenaffaire werd pijnlijk duidelijk dat de uitkomst van het stappenplan die we als algoritme bestempelen niet altijd een eerlijk resultaat is. Hoefsloot: “algoritmes zijn per definitie gebouwd op historische data, dus het is niet makkelijk om dit soort problemen te omzeilen.”

In deze kwestie lijkt het dus alsof algoritmes gebruikt zijn om onze vooroordelen te bevestigen. “Wat een optie zou zijn”, vervolgt Hoefsloot, “is het erkennen dat algoritmes dit soort vooroordelen kunnen hebben en dus niet per definitie ‘neutraal’ zijn. De resultaten uit de algoritmes moeten worden gezien als kansen en aanbevelingen en niet als de waarheid of als de enige optie. We moeten kritisch blijven op die aanbevelingen en die aanbevelingen ook leren negeren. De mensen die werken met dit soort algoritmes moeten onderwezen worden in de werking ervan en in het feit dat de resultaten enkel kansen en aanbevelingen zijn, en dat die aanbevelingen ook fout kunnen zijn. De beslissende kracht komt dan weer bij de mens te liggen en niet bij het algoritme. Het algoritme wordt enkel gebruikt om complexe berekeningen uit te voeren.”

©PXimport

Gebrek aan menselijke interventie

Hoefsloot vermoedt dat de negatieve bijdrage van algoritmes aan de toeslagenaffaire verklaard kan worden door blind vertrouwen: “Vermoedelijk hebben algoritmes een negatieve bijdrage geleverd aan de toeslagenaffaire omdat er wordt aangenomen dat algoritmes geen fouten kunnen maken. Maar het is en blijft belangrijk om kritisch te blijven op de uitkomsten van de algoritmes en die dubbel te checken. Een persoon moet verantwoordelijk zijn voor de uitvoering van het algoritme en moet in staat zijn om de werking en de uitkomsten van het algoritme te auditen. Het algoritme mag niet als de enige bron van waarheid worden gebruikt. Alleen op deze manier kunnen met algoritmes tijdsintensieve taken nog steeds goed geautomatiseerd worden, maar wordt de beslissende kracht weggenomen.”

Het schrijnende bij de toeslagenaffaire lijkt dat de algoritmes hun vooraf bepaalde werk naar behoren uitvoerde, maar menselijke interventie ontbrak. Ook dit is een patroon dat we bij de algoritmes maar al te vaak terugzien. Als het algoritme van Facebook of Instagram de plank misslaat en je ongepaste posts laat zien, dan gaan meldingen daarover vrijwel altijd door een geautomatiseerd proces. Er komt zeer zelden een menselijk oordeel aan te pas.

YouTube, waarbij de algoritmes je al snel op een spoor van misinformatie en complottheorieën zetten omdat mensen statistisch gezien hier sneller voor kiezen en langer blijven kijken, maakt het je ook onmogelijk een mens op de hoogte te brengen van misstanden. Wanneer een video veel dislikes krijgt, wordt hij minder snel getoond in de aanbevolen video’s of minder vaak automatisch afgespeeld. Wordt een video gerapporteerd als misleidend of op een andere manier ongepast, dan is het in de meeste gevallen ook een wiskundige formule die bepaalt wanneer een video op zwart gezet wordt.

Oneerlijke algoritmes

Helaas is de toeslagenaffaire niet het enige voorbeeld van hoe op overheidsniveau algoritmes oneerlijk zijn toegepast. Hoefsloot wijst op nog twee voorbeelden. Ten eerste het Compas-algoritme dat in de VS wordt gebruikt om recidive te voorspellen, en bevooroordeeld is ten aanzien van mensen met een zwarte huidskleur of van Latino-afkomst. Ook werd in de zomer van 2020 een algoritme in het VK gebruikt dat eindscores van middelbare scholieren moest voorspellen, omdat de scholieren vanwege de coronapandemie geen eindtentamens konden maken. Het algoritme baseerde de score op de historische data van zowel de scholieren zelf als de scholieren die in de afgelopen jaren op diezelfde school hadden gezeten. Maar aangezien scholen een afspiegeling zijn van een bepaalde wijk, en wijken vaak te maken hebben met segregatie, kregen uitmuntende scholieren uit lagere inkomenswijken erg lage scores. Hoefsloot: “Dit is ook een goed voorbeeld van hoe algoritmes diversiteit in de weg kunnen zitten. Dit soort algoritmes zijn alleen op zoek naar de mensen die het beste binnen het ideaalplaatje passen. Vaak worden kenmerken waarop mensen gediscrimineerd kunnen worden (zoals etniciteit, inkomen, geslacht), meegenomen in dat ideaalplaatje.”

Uitbesteden

Waarom er zo weinig mensenwerk aan te pas komt, laat zich raden. Geautomatiseerde processen zijn, vooral in een digitale wereld enorm efficiënt. Techreuzen als Google en Facebook moeten hun aandeelhouders tevreden houden. Het aanstellen van veel mankracht om inhoud te controleren, of tijdlijnen en zoekresultaten zonder algoritmes uit te voeren, doen de beurskoersen geen goed.

Daarbij is het ook belangrijk om in het achterhoofd te houden dat het advertentiebedrijven zijn. De algoritmes zorgen ervoor dat onze aandacht zo vaak mogelijk wordt getrokken en zo lang mogelijk wordt vastgehouden door advertenties en overige inhoud optimaal te personaliseren. De samenstelling van de content en het welzijn van de kijkers is daarbij van ondergeschikt belang.

Zijn algoritmes neutraal?

Ondanks dat we algoritmes omschrijven als een stappenplan, wiskundig of een formule, bestrijdt Hoefsloot dat het iets neutraals is. “Er kunnen waarden (goed of slecht) in algoritmes gebouwd worden. Wel is het belangrijk om te onthouden dat die waarden ook een essentieel deel zijn van de algoritmes. Je kunt geen stappenplan maken zonder beslissingen te maken over welke stappen goed en welke stappen fout zijn. Die beslissingen zijn gebaseerd op waarden.” Algoritmes zouden alleen een neutrale en eerlijke rol kunnen spelen als ze slechts ingezet worden voor complexe berekeningen, waarbij het eindresultaat gebruikt wordt als advies en niet als beslissing. Hoefsloot: “Algoritmes kunnen op verschillende manieren bevooroordeeld zijn. Een voorbeeld daarvan is de training data bias. Algoritmes worden getraind op training data. Als die training data geen representatieve afspiegeling zijn van de maatschappij, dan kan het algoritme bijvoorbeeld beter worden in het herkennen van mensen met een bepaalde huidskleur. In het geval van de gezichtsherkenning zijn die algoritmes bijvoorbeeld getraind met foto’s van voornamelijk witte mannen en in iets mindere mate witte vrouwen. Vandaar dat het algoritme beter is in het herkennen van witte mannen, en veel minder goed in het herkennen van mensen met een andere huidskleur of geslacht.”

Dystopische algoritmes

De eerder genoemde voorbeelden van de toeslagenaffaire, gestuurde zoekresultaten en social media zijn algoritmes die ons dagelijks leven beïnvloeden. Maar het kan nog veel verder gaan, zoals het dystopische sociaal kredietsysteem waar China aan werkt. Hierbij krijgt iedere burger een score op basis van gedrag, en die score bepaalt of je mag reizen, geld mag lenen bij een bank of zelfs waar je mag wonen. Deze score wordt bepaald door algoritmes gebaseerd op arbitraire waardes en geautomatiseerde systemen, die bijvoorbeeld op basis van gezichtsherkenning jou een boete (en een negatieve aantekening) geven wanneer je door een rood stoplicht wandelt. Het geeft aan hoe algoritmes kunnen ingrijpen op de samenleving als ethische waarden volledig uit de code verdwijnen.

Tevens is er een megalomane technische infrastructuur voor nodig, waar China hard aan werkt. Hierbij kwam Huawei eind 2019 nog in een negatief daglicht te staan, omdat het voor de Chinese overheid een algoritme ontwikkelde voor straatcamera’s die Oeigoeren uit mensenmassa’s kan pikken. Bij herkenning worden overheden onmiddellijk op de hoogte gesteld van zijn of haar aanwezigheid. Zo lijkt in het geval van China dat algoritmes zelfs aan de basis staan van mensenrechtenschendingen, en wellicht (deels) bijdragen aan wat sommige landen al bestempelen als de Oeigoerse genocide.

Geen ontkomen aan

Het voorbeeld van China laat een extreme kant zien van het gebruik van algoritmes, maar ook ons dagelijks leven wordt er dus door beïnvloed. Hoe kun je je er tegen wapenen? Hoe krijg je een internet en dienstverlening die zo neutraal mogelijk ingericht is?

Het antwoord is tamelijk deprimerend. Je kunt zoekdiensten als StartPage en DuckDuckGo gebruiken, die wat gebruikersvriendelijkere algoritmes lijken te gebruiken, maar als zoekmachine nog altijd tekortschieten. En hoe het zit met de zoektechnologie van deze alternatieven die jouw resultaten weergeeft? Dat blijft gissen.

De enige manier om onder de dubieuze algoritmes van Facebook, Instagram en YouTube uit te komen is door de diensten links te laten liggen. Onder een overheid uitkomen die algoritmes oneerlijk toepast? Dat is misschien wel een nóg onrealistischere uitdaging.

De verantwoordelijkheid ligt bij de programmeurs en eigenaren (bedrijven en overheden) achter de algoritmes. Als mensen eindverantwoordelijk worden gemaakt voor de uitkomst van de stappenplannen en algoritmes worden getraind op een representatieve afspiegeling van de maatschappij, kunnen eerste stappen gezet worden.

Hoefsloot vult concluderend aan: “Daarnaast is het belangrijk dat de subjecten van de algoritmes zich ervan bewust zijn dat er een beslissing over hen wordt genomen op basis van een algoritme en moeten die beslissingen uitgelegd kunnen worden. De subjecten moeten het systeem kunnen aanvechten, net als bij een menselijke beslissing.”

©PXimport

Meer over algoritmes

Wil je meer te weten komen over hoe algoritmes ons leven beïnvloeden? Netflix biedt de documentaire ‘Coded Bias’ aan, die naast het blootleggen van gebreken in gezichtsherkenning op basis van huidskleur en ras, meer misstanden aan de kaak stelt. De serie Black Mirror (aflevering ‘Nosedive’) laat zien hoe een sociaal kredietsysteem in de Westerse wereld er mogelijk uit zou zien. Het boek Algoritmes aan de macht (Hannah Fry) legt de uitdagingen van een geautomatiseerd bestaan bloot. Tevens raadt Hoefsloot de boeken ‘Weapons of Math Destruction’ van Cathy O’ Neil en ‘Het internet is stuk’ van Marleen Stikker (internetpionier en tevens oprichter van Waag) aan.

©PXimport

▼ Volgende artikel
Review Philips Café Aromis 8000-serie - Horecakoffie gewoon bij je thuis
© Philips
Huis

Review Philips Café Aromis 8000-serie - Horecakoffie gewoon bij je thuis

Thuis koffie van restaurantkwaliteit? De Philips Café Aromis 8000-serie belooft het. In deze review lees je of deze volautomaat de hype waarmaakt. Van perfect melkschuim tot minimaal onderhoud: ontdek waarom dit apparaat je lokale barista overbodig maakt, zelfs met gewone supermarktbonen!

Fantastisch
Conclusie

Dit is meer dan een keukenapparaat; het is een stukje levensgeluk. Je hoeft niet meer te kiezen tussen gemak en smaak. De Philips Café Aromis 8000 bewijst dat je dat perfecte koffiemomentje gewoon thuis kunt creëren. Zonder barista-cursus, zonder gedoe, maar mét die gelukzalige stilte na de eerste slok.

Plus- en minpunten
  • Barista-melkschuim zonder slangetjes
  • Haalt goud uit supermarktbonen
  • Stil in gebruik
  • Einde aan discussies dankzij gebruikersprofielen
  • Foolproof bediening: iedereen kan nu topkoffie zetten
  • Vakje voor gemalen koffie is wat knullig
  • Geen actieve kopjeswarmer
  • Plastic lekbak voelt goedkoop aan

Je kent het vast: je zit in je favoriete koffietentje, neemt een eerste slok van de cappuccino die je hebt besteld en valt even stil. De temperatuur, het mondgevoel, die volle smaak… alles lijkt te kloppen. En dan denk je aan de koffie thuis. Die is prima, of in elk geval best oké. Maar daar blijft het dan ook bij.

Dat dacht ik tenminste. Tot ik de Philips Café Aromis 8000-serie op mijn aanrecht installeerde en mijn keuken stante pede in een soort hippe koffiebar veranderde. De installatie van deze fraaie machine behelst niet meer dan een stekker in het stopcontact, water in het reservoir en een dosis verse koffiebonen bovenin. That’s it. Daarna kan het feest beginnen.

Hoewel de term 'restaurantkwaliteit' vaak niet meer dan een loze marketingkreet is, maakt dit apparaat dat woord opeens bizar concreet. Dat zit 'm in heel basale dingen: de koffie is direct op de juiste temperatuur (niet dat lauwe net-niet) en de smaak is vol en romig, zonder die nare bittere nasmaak. Dit apparaat lijkt bovendien precies te snappen wat jij wil; zonder dat je zelf als een bezetene aan de knoppen hoeft te draaien, staat er binnen de kortste keren een meer dan fatsoenlijke kop koffie voor je neus. Wat een topding!

©Philips

Bonen vs cups: fight!

Voor wie nog twijfelt om de overstap te maken van cups naar bonen: doe het. Het verschil is niet subtiel, het is een aardverschuiving. Waar capsules vaak toch een beetje vlak smaken, proef je hier ineens nuances die je eerder miste. Het apparaat oogt misschien intimiderend professioneel, maar de bediening is uiteindelijk net zo simpel als je gewend bent van je good old Nespresso.

Duurdoenerij niet nodig

Erg prettig is het feit dat de machine enorm vergevingsgezind is. Hippe koffiesnobs vertellen je doorgaans dat je zonder exclusieve bonen van 30 euro per kilo nergens bent. Onzin, blijkt nu. Zelfs met een zak supermarktbonen en een pak volle melk (lang houdbaar werkt het best!) tovert dit ding een resultaat tevoorschijn waar je u tegen zegt. Hij weet echt het maximale uit elke boon te persen. Luxe zonder dat je boodschappenlijstje ingewikkeld of overdreven duur wordt, ik hou ervan.

En dan de melk. Vaak is dat thuis niet meer dan een zielig laagje luchtbelletjes dat na tien seconden als sneeuw voor de zon verdwijnt. Hier niet. Dit schuim is stevig, rijk en blijft dapper overeind staan. M'n ochtendcappuccino heb ik dan ook spontaan heilig verklaard, maar de echte verrassing is wat mij betreft de optie 'Melange'. Die is gloeiend heet, heeft de ideale verhouding tussen melk en koffie (puristen verklaren me voor gek) en maakt me elke keer weer instant gelukkig. Ik was aanvankelijk wat sceptisch over dit soort voorgeprogrammeerde recepten, maar deze verhouding is zo perfect afgestemd dat het elke keer weer aanvoelt als een echte traktatie.

©Philips

'Wat willen jullie drinken?'

Bezoek over de vloer? Kom maar door met de bestellingen! Vroeger hoopte ik stiekem op de keuze voor zwart (want: geen gedoe met melk), nu draai ik mijn hand niet meer om voor een latte of espresso macchiato. Sterker nog, ik nodig mensen nu vol enthousiasme uit om een kopje koffie te komen doen, en de reacties zijn elke keer unaniem: "Wauw, lekkere koffie!" 

Het mooie is dat je specifieke voorkeuren van je bezoek niet elke keer opnieuw hoeft in te voeren. Dankzij de gebruikersprofielen heeft iedereen in huis zijn eigen 'knop'. De een wil de latte met extra melk, de ander wil 'm juist sterker: dat kun je allemaal opslaan. En de machine verrast ook in de breedte. Waar ik zelf inmiddels min of meer verslaafd ben aan de Red Eye (een pittige boost voor de korte nachten), scoor ik bij mijn dochter punten met de 'Babychino'-functie: alleen warm melkschuim. Lekker voor het slapen gaan. 

Voor de liefhebbers zitten er trouwens nog allerlei cold brew-opties in het assortiment. Niet helemaal mijn ding – koffie kan me niet heet genoeg – maar fijn dat het kan als de smaak (of het bezoek) daarom vraagt.

©Eelko Rol

Geen schoonmaak-nachtmerries

Dan het onderhoud. We kennen de horrorverhalen van schimmelende slangetjes in volautomaten en hopeloos verkalkte zetgroepen. De Café Aromis 8000 is wat dat betreft een verademing. Water bijvullen, bakje met koffiepucks legen en (belangrijk!) de melkhouder gewoon even omspoelen onder de kraan (schijnt zelfs in de vaatwasser te kunnen). Geen ingewikkeld gedoe; de machine spoelt zichzelf krachtig door bij het opstarten en afsluiten. Het ding staat er, hij werkt en zeurt verder niet om aandacht. Had ik al gezegd dat dit een topding is?

O, en er is een app. Is die noodzakelijk? Neuh. Is het lekker? Ja! Via de app kun je de machine alvast aan het werk zetten terwijl je zelf nog even je mail checkt in bed. Je weet: technologie is op zijn best als het je luiheid faciliteert, en dat heeft Philips hier goed begrepen.

©Philips

Conclusie? Dit is meer dan een keukenapparaat; het is een stukje levensgeluk. Je hoeft niet meer te kiezen tussen gemak (dag Senseo!) en smaak. De Philips Café Aromis 8000 bewijst dat je dat perfecte koffiemomentje gewoon thuis kunt creëren. Zonder barista-cursus, zonder gedoe, maar mét die gelukzalige stilte na de eerste slok.

Enige minpuntje is wellicht de prijs, want die is met 999 euro best fors. Maar reken maar uit: een cappuccino kost tegenwoordig al snel 4 euro, dus met 250 gloeiend hete geluksmomentjes thuis heb je deze machine er al uit. Dat moet je jezelf gewoon gunnen.

▼ Volgende artikel
Voormalige Assassin's Creed-baas klaagt Ubisoft aan
Huis

Voormalige Assassin's Creed-baas klaagt Ubisoft aan

Marc-Alexis Côté, die voorheen de Assassin's Creed-gamefranchise bij Ubisoft overzag, heeft dat bedrijf nu aangeklaagd.

Nieuw op ID: het complete plaatje

Misschien valt het je op dat er vanaf nu ook berichten over games, films en series op onze site verschijnen. Dat is een bewuste stap. Wij geloven dat technologie niet stopt bij hardware; het gaat uiteindelijk om wat je ermee beleeft. Daarom combineren we onze expertise in tech nu met het laatste nieuws over entertainment. Dat doen we met de gezichten die mensen kennen van Power Unlimited, dé experts op het gebied van gaming en streaming. Zo helpen we je niet alleen aan de beste tv, smartphone of laptop, maar vertellen we je ook direct wat je erop moet kijken of spelen. Je vindt hier dus voortaan de ideale mix van hardware én content.

Afgelopen oktober werd aangekondigd dat Côté vertrokken was bij het bedrijf. Dat gebeurde rond dezelfde tijd als dat Ubisoft de Assassin's Creed-franchise onderbracht onder Vantage Studios, een nieuwe dochteronderneming die het samen met Tencent heeft opgericht. Côté heeft decennialang aan de Assassin's Creed-franchise gewerkt en stond de laatste jaren aan het hoofd van de populaire spellenreeks.

Côté zou toen Assassin's Creed naar Vantage Studios ging een aanbod van Ubisoft hebben gekregen om een andere leidende positie binnen het bedrijf aan te nemen. Côté liet kort daarna publiekelijk weten dat deze positie niet vergelijkbaar was met zijn eerdere werk.

De aanklacht

Nu klaagt Côté Ubisoft dus aan, zo meldt CBC Radio Canada. Volgens hem zou hij de rol van 'Head of Production' aangeboden hebben gekregen binnen Ubisoft nadat Assassin's Creed binnen Vantage Studios werd ondergebracht, gevolgd door een mogelijke positie als 'Creative House'.

Volgens Côté zou hij daardoor leiderschap krijgen over "tweederangs" Ubisoft-franchises. Aangezien hij daarvoor de Assassin's Creed-franchise overzag, voelde dit voor hem als een wezenlijke stap terug.

Côté nam naar eigen zeggen twee weken vrij om over deze situatie te reflecteren. Aan het einde van die periode zou Ubisoft hebben geëist dat hij een besluit moest maken en besloot Côté dat dit een onacceptabele situatie was, en een "ontslag in vermomming". Hij eiste dan ook ontslagvergoeding, waarna hij te horen kreeg dat hij niet meer op werk hoefde te komen en Ubisoft aankondigde dat hij was vertrokken.

Volgens Côté heeft Ubisoft geclaimd dat hij vrijwillig is vertrokken, zodat men geen ontslagvergoeding hoefde te betalen. Côté eist nu twee jaar aan loon als ontslagvergoeding en 75.000 dollar aan schadevergoeding vanwege machtsmisbruik en schade aan zijn reputatie. In totaal komt dat neer op meer dan 1,3 miljoen dollar. Ook wil hij dat het concurrentiebeding komt te vervallen.

Vantage Studios en Assassin's Creed

Ubisoft richtte vorig jaar samen met het Chinese Tencent de dochteronderneming Vantage Studios op. Daar zijn de drie belangrijkste Ubisoft-franchise in ondergebracht, namelijk Assassin's Creed, Far Cry en Rainbow Six. Ook de ontwikkelteams die aan deze reeksen werken maken nu onderdeel uit van Vantage Studios.

De Assassin's Creed-franchise is al jarenlang een van de belangrijkste gamereeksen van de Franse uitgever Ubisoft. In de spellen gebruiken spelers parkour, stealth en gevechten om diverse exotische locaties uit de geschiedenis te verkennen. Het meest recente deel is het vorig jaar uitgekomen Assassin's Creed Shadows.