ID.nl logo
Hoe algoritmes onze levens beheersen
© Reshift Digital
Huis

Hoe algoritmes onze levens beheersen

Aan algoritmes die allerlei zaken voor ons bepalen, valt in onze gedigitaliseerde wereld niet te ontkomen. Het bekendste voorbeeld zijn de algoritmes van Facebook, Google en YouTube, die bepalen wat wij te zien krijgen en welke aanbevelingen we krijgen. Ook de toeslagenaffaire ging mis op algoritmes. Hoe worden zaken voor ons bepaald? En kun je deze algoritmes ontduiken of temmen?

Als we Wikipedia erbij pakken voor de definitie van een algoritme, dan vertelt de encyclopedie ons: ‘Een algoritme is een recept om een wiskundig of informaticaprobleem op te lossen. Wiskundig geformuleerd is het een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt.’

Marit Hoefsloot, master student Philosophy of Science, Technology and Society bij UTwente en werkzaam bij het Future Lab Waag in Amsterdam weet het net even helderder uit te leggen: “Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen, wordt het woord voornamelijk gebruikt voor stappenplannen voor het uitvoeren van wiskundige berekeningen.”

Wiskundige Hannah Fry noemt in haar boek ‘Algoritmes aan de macht’ vier functies van algoritmes: prioriteren, classificeren, associëren en filteren. Hoefsloot vult dit graag aan met een vijfde functie: identificeren. Hierbij noemt ze het praktijkvoorbeeld van gezichtsherkenning om je smartphone te ontgrendelen, waar bewegend beeldmateriaal vergeleken wordt met een opgeslagen plaatje van jouw gezicht, met het doel om je identiteit vast te stellen.

Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen

-

Alledaagse algoritmes

Algoritmes komen natuurlijk veelvuldig voor in de digitale wereld en zitten ingebakken in de meest basale functies die we gebruiken. Hoefsloot geeft hierbij het voorbeeld van de zoekfunctie in pdf-documenten (classificeren): “Ik kan mijn leven nauwelijks voorstellen zonder zoekfuncties!”

De bekendste voorbeelden van manieren waarop we in aanraking komen met algoritmes in de digitale wereld, zijn de algoritmes van Facebook en Google. Het sociale netwerk gebruikt deze om een tijdlijn samen te stellen met inhoud die je maximaal prikkelt. Googles algoritmes bepalen (prioriteren) de zoekresultaten die op jou afgestemd zijn en YouTube-videosuggesties die jou moeten verleiden.

Deze algoritmes lijken een vrij onschuldig middel om een commercieel doel te verwezenlijken: jouw aandacht vasthouden om meer advertentie-inkomsten te werven en nóg meer data te verzamelen om de algoritmeformules te voeden. Toch kunnen de algoritmes minder onschuldige gevolgen hebben en zelfs samenleving ontwrichtende gevolgen hebben.

©PXimport

Algoritmes in de praktijk

Eigenlijk bij alles waar een computer aan te pas komt, komen algoritmes om de hoek kijken. Supermarktketen Albert Heijn kent persoonlijke aanbiedingen, die koopgedrag combineert met meerdere variabelen om je met op jouw gerichte voordeeltjes naar de winkel te lokken. Dating apps als Tinder gebruiken algoritmes die bepalen hoe vaak je profiel getoond wordt en aan wie. Zo’n bedrijf heeft er immers niks aan als je na één onbetaalde swipe de liefde van je leven tegenkomt. Ingewikkelder wordt het als we kijken naar zelfrijdende auto’s. Hier vertrouwen we op algoritmes die binnen een fractie van een seconde soms heftige ethische kwesties oplossen. Prioriteer je bij een mogelijke aanrijding inzittenden of voetgangers? Wijk je bij een onverwacht overstekende hond wel of niet uit richting de kat die op de stoep zit?

Toeslagenaffaire

Om een goed voorbeeld te noemen van de ingrijpende gevolgen waar zwaar leunen op algoritmes toe kunnen leiden, hoeven we niet alleen naar techgiganten te kijken.

De toeslagenaffaire, die leidde tot grote (financiële) problemen bij slachtoffers en de val van het kabinet-Rutte III, kwam voort uit algoritmes. Mensen werden onterecht gekort op hun toeslagen. De wiskundige formule waarmee het algoritme werd bepaald, woog verschillende factoren mee. Dubbele nationaliteit? Een specifieke etnische achtergrond? Het werd allemaal als risicofactor aangemerkt voor mogelijke fraude in het algoritme. Waren er te veel risicofactoren aangevinkt? Dan werden op basis daarvan mensen (vaak onterecht) gekort. Met alle gevolgen van dien.

Algoritmes bij Google-zoekresultaten

Je zou denken dat zoekmachines neutraal zijn en iedereen dezelfde zoekresultaten voorschotelen. Dat is bij Google absoluut niet het geval. Zoekresultaten worden beïnvloed op basis van verzamelde gegevens van Google. Niet alleen in de vorm van gepersonaliseerde zoekresultaten, die je overigens in de zoekinstellingen kunt uitschakelen, maar ook algemener. Afhankelijk van je locatie, zoals het land waar je je bevindt, worden zoekresultaten anders weergegeven. Bijvoorbeeld om de zoekresultaten van pagina’s in een gangbare taal weer te geven, maar ook voor lokaal gevoelige onderwerpen. De algoritmes die bepalen wat Google jou toont, zijn een groot geheim en geven Google enorm veel macht om te bepalen waar jij, of een hele bevolkingsgroep, mee geconfronteerd mag worden. In potentie kan hiermee publieke opinie worden beïnvloed, wat vanuit democratisch oogpunt onwenselijk is. Niet Google, maar Facebook – dat eveneens bepaalt wat jij te zien krijgt – is (en wordt) regelmatig misbruikt om publieke opinie en zelfs verkiezingen te manipuleren: het recente Cambridge Analytica-schandaal is hier een voorbeeld van.

©PXimport

Wiskundige discriminatie

Hoewel algoritmes niet de enige misstand waren die tot de toeslagenaffaire leidden, stelde Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP): “Het hele systeem was op een discriminerende manier ingericht en werd ook als zodanig gebruikt.”

Het algoritme werd hierbij aangewend om statistieken tot vooroordelen om te toveren. Als een soort cijfermatige onderbouwing om onrecht toe te passen. Zo benoemde de AP het voorbeeld dat Nederlanders met een dubbele nationaliteit tot eind 2018 strenger gecontroleerd werden als ze kinderopvangtoeslag aanvroegen dan andere Nederlanders. Die dubbele nationaliteit was een van de waarden waar het geautomatiseerde algoritme op aansloeg en bepaalde dat er extra controle nodig was. Volgens de AP was er hierdoor sprake van discriminatie op basis van nationaliteit.

Bij de toeslagenaffaire werd pijnlijk duidelijk dat de uitkomst van het stappenplan die we als algoritme bestempelen niet altijd een eerlijk resultaat is. Hoefsloot: “algoritmes zijn per definitie gebouwd op historische data, dus het is niet makkelijk om dit soort problemen te omzeilen.”

In deze kwestie lijkt het dus alsof algoritmes gebruikt zijn om onze vooroordelen te bevestigen. “Wat een optie zou zijn”, vervolgt Hoefsloot, “is het erkennen dat algoritmes dit soort vooroordelen kunnen hebben en dus niet per definitie ‘neutraal’ zijn. De resultaten uit de algoritmes moeten worden gezien als kansen en aanbevelingen en niet als de waarheid of als de enige optie. We moeten kritisch blijven op die aanbevelingen en die aanbevelingen ook leren negeren. De mensen die werken met dit soort algoritmes moeten onderwezen worden in de werking ervan en in het feit dat de resultaten enkel kansen en aanbevelingen zijn, en dat die aanbevelingen ook fout kunnen zijn. De beslissende kracht komt dan weer bij de mens te liggen en niet bij het algoritme. Het algoritme wordt enkel gebruikt om complexe berekeningen uit te voeren.”

©PXimport

Gebrek aan menselijke interventie

Hoefsloot vermoedt dat de negatieve bijdrage van algoritmes aan de toeslagenaffaire verklaard kan worden door blind vertrouwen: “Vermoedelijk hebben algoritmes een negatieve bijdrage geleverd aan de toeslagenaffaire omdat er wordt aangenomen dat algoritmes geen fouten kunnen maken. Maar het is en blijft belangrijk om kritisch te blijven op de uitkomsten van de algoritmes en die dubbel te checken. Een persoon moet verantwoordelijk zijn voor de uitvoering van het algoritme en moet in staat zijn om de werking en de uitkomsten van het algoritme te auditen. Het algoritme mag niet als de enige bron van waarheid worden gebruikt. Alleen op deze manier kunnen met algoritmes tijdsintensieve taken nog steeds goed geautomatiseerd worden, maar wordt de beslissende kracht weggenomen.”

Het schrijnende bij de toeslagenaffaire lijkt dat de algoritmes hun vooraf bepaalde werk naar behoren uitvoerde, maar menselijke interventie ontbrak. Ook dit is een patroon dat we bij de algoritmes maar al te vaak terugzien. Als het algoritme van Facebook of Instagram de plank misslaat en je ongepaste posts laat zien, dan gaan meldingen daarover vrijwel altijd door een geautomatiseerd proces. Er komt zeer zelden een menselijk oordeel aan te pas.

YouTube, waarbij de algoritmes je al snel op een spoor van misinformatie en complottheorieën zetten omdat mensen statistisch gezien hier sneller voor kiezen en langer blijven kijken, maakt het je ook onmogelijk een mens op de hoogte te brengen van misstanden. Wanneer een video veel dislikes krijgt, wordt hij minder snel getoond in de aanbevolen video’s of minder vaak automatisch afgespeeld. Wordt een video gerapporteerd als misleidend of op een andere manier ongepast, dan is het in de meeste gevallen ook een wiskundige formule die bepaalt wanneer een video op zwart gezet wordt.

Oneerlijke algoritmes

Helaas is de toeslagenaffaire niet het enige voorbeeld van hoe op overheidsniveau algoritmes oneerlijk zijn toegepast. Hoefsloot wijst op nog twee voorbeelden. Ten eerste het Compas-algoritme dat in de VS wordt gebruikt om recidive te voorspellen, en bevooroordeeld is ten aanzien van mensen met een zwarte huidskleur of van Latino-afkomst. Ook werd in de zomer van 2020 een algoritme in het VK gebruikt dat eindscores van middelbare scholieren moest voorspellen, omdat de scholieren vanwege de coronapandemie geen eindtentamens konden maken. Het algoritme baseerde de score op de historische data van zowel de scholieren zelf als de scholieren die in de afgelopen jaren op diezelfde school hadden gezeten. Maar aangezien scholen een afspiegeling zijn van een bepaalde wijk, en wijken vaak te maken hebben met segregatie, kregen uitmuntende scholieren uit lagere inkomenswijken erg lage scores. Hoefsloot: “Dit is ook een goed voorbeeld van hoe algoritmes diversiteit in de weg kunnen zitten. Dit soort algoritmes zijn alleen op zoek naar de mensen die het beste binnen het ideaalplaatje passen. Vaak worden kenmerken waarop mensen gediscrimineerd kunnen worden (zoals etniciteit, inkomen, geslacht), meegenomen in dat ideaalplaatje.”

Uitbesteden

Waarom er zo weinig mensenwerk aan te pas komt, laat zich raden. Geautomatiseerde processen zijn, vooral in een digitale wereld enorm efficiënt. Techreuzen als Google en Facebook moeten hun aandeelhouders tevreden houden. Het aanstellen van veel mankracht om inhoud te controleren, of tijdlijnen en zoekresultaten zonder algoritmes uit te voeren, doen de beurskoersen geen goed.

Daarbij is het ook belangrijk om in het achterhoofd te houden dat het advertentiebedrijven zijn. De algoritmes zorgen ervoor dat onze aandacht zo vaak mogelijk wordt getrokken en zo lang mogelijk wordt vastgehouden door advertenties en overige inhoud optimaal te personaliseren. De samenstelling van de content en het welzijn van de kijkers is daarbij van ondergeschikt belang.

Zijn algoritmes neutraal?

Ondanks dat we algoritmes omschrijven als een stappenplan, wiskundig of een formule, bestrijdt Hoefsloot dat het iets neutraals is. “Er kunnen waarden (goed of slecht) in algoritmes gebouwd worden. Wel is het belangrijk om te onthouden dat die waarden ook een essentieel deel zijn van de algoritmes. Je kunt geen stappenplan maken zonder beslissingen te maken over welke stappen goed en welke stappen fout zijn. Die beslissingen zijn gebaseerd op waarden.” Algoritmes zouden alleen een neutrale en eerlijke rol kunnen spelen als ze slechts ingezet worden voor complexe berekeningen, waarbij het eindresultaat gebruikt wordt als advies en niet als beslissing. Hoefsloot: “Algoritmes kunnen op verschillende manieren bevooroordeeld zijn. Een voorbeeld daarvan is de training data bias. Algoritmes worden getraind op training data. Als die training data geen representatieve afspiegeling zijn van de maatschappij, dan kan het algoritme bijvoorbeeld beter worden in het herkennen van mensen met een bepaalde huidskleur. In het geval van de gezichtsherkenning zijn die algoritmes bijvoorbeeld getraind met foto’s van voornamelijk witte mannen en in iets mindere mate witte vrouwen. Vandaar dat het algoritme beter is in het herkennen van witte mannen, en veel minder goed in het herkennen van mensen met een andere huidskleur of geslacht.”

Dystopische algoritmes

De eerder genoemde voorbeelden van de toeslagenaffaire, gestuurde zoekresultaten en social media zijn algoritmes die ons dagelijks leven beïnvloeden. Maar het kan nog veel verder gaan, zoals het dystopische sociaal kredietsysteem waar China aan werkt. Hierbij krijgt iedere burger een score op basis van gedrag, en die score bepaalt of je mag reizen, geld mag lenen bij een bank of zelfs waar je mag wonen. Deze score wordt bepaald door algoritmes gebaseerd op arbitraire waardes en geautomatiseerde systemen, die bijvoorbeeld op basis van gezichtsherkenning jou een boete (en een negatieve aantekening) geven wanneer je door een rood stoplicht wandelt. Het geeft aan hoe algoritmes kunnen ingrijpen op de samenleving als ethische waarden volledig uit de code verdwijnen.

Tevens is er een megalomane technische infrastructuur voor nodig, waar China hard aan werkt. Hierbij kwam Huawei eind 2019 nog in een negatief daglicht te staan, omdat het voor de Chinese overheid een algoritme ontwikkelde voor straatcamera’s die Oeigoeren uit mensenmassa’s kan pikken. Bij herkenning worden overheden onmiddellijk op de hoogte gesteld van zijn of haar aanwezigheid. Zo lijkt in het geval van China dat algoritmes zelfs aan de basis staan van mensenrechtenschendingen, en wellicht (deels) bijdragen aan wat sommige landen al bestempelen als de Oeigoerse genocide.

Geen ontkomen aan

Het voorbeeld van China laat een extreme kant zien van het gebruik van algoritmes, maar ook ons dagelijks leven wordt er dus door beïnvloed. Hoe kun je je er tegen wapenen? Hoe krijg je een internet en dienstverlening die zo neutraal mogelijk ingericht is?

Het antwoord is tamelijk deprimerend. Je kunt zoekdiensten als StartPage en DuckDuckGo gebruiken, die wat gebruikersvriendelijkere algoritmes lijken te gebruiken, maar als zoekmachine nog altijd tekortschieten. En hoe het zit met de zoektechnologie van deze alternatieven die jouw resultaten weergeeft? Dat blijft gissen.

De enige manier om onder de dubieuze algoritmes van Facebook, Instagram en YouTube uit te komen is door de diensten links te laten liggen. Onder een overheid uitkomen die algoritmes oneerlijk toepast? Dat is misschien wel een nóg onrealistischere uitdaging.

De verantwoordelijkheid ligt bij de programmeurs en eigenaren (bedrijven en overheden) achter de algoritmes. Als mensen eindverantwoordelijk worden gemaakt voor de uitkomst van de stappenplannen en algoritmes worden getraind op een representatieve afspiegeling van de maatschappij, kunnen eerste stappen gezet worden.

Hoefsloot vult concluderend aan: “Daarnaast is het belangrijk dat de subjecten van de algoritmes zich ervan bewust zijn dat er een beslissing over hen wordt genomen op basis van een algoritme en moeten die beslissingen uitgelegd kunnen worden. De subjecten moeten het systeem kunnen aanvechten, net als bij een menselijke beslissing.”

©PXimport

Meer over algoritmes

Wil je meer te weten komen over hoe algoritmes ons leven beïnvloeden? Netflix biedt de documentaire ‘Coded Bias’ aan, die naast het blootleggen van gebreken in gezichtsherkenning op basis van huidskleur en ras, meer misstanden aan de kaak stelt. De serie Black Mirror (aflevering ‘Nosedive’) laat zien hoe een sociaal kredietsysteem in de Westerse wereld er mogelijk uit zou zien. Het boek Algoritmes aan de macht (Hannah Fry) legt de uitdagingen van een geautomatiseerd bestaan bloot. Tevens raadt Hoefsloot de boeken ‘Weapons of Math Destruction’ van Cathy O’ Neil en ‘Het internet is stuk’ van Marleen Stikker (internetpionier en tevens oprichter van Waag) aan.

©PXimport

▼ Volgende artikel
Altijd onder handbereik: zo maak je mappen vast aan de taakbalk
© MD - stock.adobe.com
Huis

Altijd onder handbereik: zo maak je mappen vast aan de taakbalk

De taakbalk is ook in Windows 11 de plaats waar je je favoriete apps vastmaakt. Wist je dat het zelfs mogelijk is om mappen die je vaak gebruikt toe te voegen? Handig als je regelmatig dezelfde mappen nodig hebt, zoals Downloads of een projectmap. Op die manier hoef je niet eerst langs de Verkenner en open je de map met slechts één klik.

Dit gaan we doen

Je maakt eerst een snelkoppeling naar de map die je vaak nodig hebt. Daarna pas je die snelkoppeling aan zodat Windows hem als 'open in Verkenner' herkent. Tot slot maak je hem vast aan de taakbalk, zodat je die map voortaan met één klik opent.

Lees ook: De verborgen parels van Windows 11: deze apps moet je hebben

Maak een snelkoppeling van de map

Als je zomaar een map op de taakbalk probeert te slepen, zul je merken dat je de map op die manier niet kunt vastmaken. Eerst moet je een snelkoppeling op het bureaublad plaatsen. Klik daarom met de rechtermuisknop op een lege plek van het bureaublad en kies in het contextmenu de opdracht Nieuw / Snelkoppeling. In de pop-up Snelkoppeling maken moet je eerst de locatie van het item opgeven. Klik hiervoor op Bladeren en navigeer naar de map die je straks wilt vastmaken. Dit werkt met iedere lokale map, maar ook met mappen die op OneDrive staan. Selecteer de gewenste map. De locatie verschijnt vervolgens in het locatieveld van de nieuwe snelkoppeling.

Maak een snelkoppeling aan via het bureaublad en geef de locatie van de gewenste map op.

Voeg explorer.exe toe

In dit veld moet je nog een aanpassing doen: typ vóór het pad naar de map explorer.exe gevolgd door een spatie. Het pad naar de map zelf plaats je tussen aanhalingstekens. De locatie van de map Downloads wordt dan bijvoorbeeld explorer.exe "C:\Users\username\Downloads" en van de map Muziek: explorer.exe "C:\Users\username\Muziek". Vervang uiteraard username door je eigen gebruikersnaam in Windows. Klik daarna op Volgende en geef de snelkoppeling een duidelijke naam. Rond af met Voltooien.

Typ explorer.exe gevolgd door het pad naar de map en zet het pad tussen aanhalingstekens.

Aan de taakbalk vastmaken

Klik daarna opnieuw met de rechtermuisknop op de nieuwe snelkoppeling. In het menu kies je Meer opties weergeven en vervolgens Aan taakbalk vastmaken. Vanaf nu staat de map netjes op de taakbalk. Als je met de muis over het pictogram beweegt, verschijnt de naam van de map. Klik je erop, dan wordt de map geopend in Windows Verkenner. Wil je de map later weer losmaken van de taakbalk, klik dan met de rechtermuisknop op het pictogram en kies Van taakbalk losmaken.

Klik met de rechtermuisknop op de snelkoppeling en kies Aan taakbalk vastmaken.

▼ Volgende artikel
De Super Bowl-trailers op een rij - The Mandalorian and Grogu, Minions en meer
© Lucasfilm
Huis

De Super Bowl-trailers op een rij - The Mandalorian and Grogu, Minions en meer

Ieder jaar schakelen duizenden mensen in voor de Super Bowl - de afsluiting van het Amerikaanse Football-seizoen. Het draait alleen niet voor iedereen om de sport. Nee, in de pauze wordt de uitzending namelijk overladen met trailers van aankomende films, series en absurde advertenties met verschillende beroemdheden. Afgelopen nacht was het weer raak, dus wij hebben de trailers en grappigste advertenties voor je op een rij gezet.

The Mandalorian and Grogu eert Super Bowl-advertenties

Star Wars is inmiddels al bijna zeven afwezig in de bioscopen, maar op 20 mei van dit jaar komt daar eindelijk verandering in. Din Djarin en Grogu uit de Disney+-serie The Mandalorian maken hun debuut op het witte doek. In de film werkt de titulaire Mandalorian samen met de New Republic om de restanten van het kwaadaardige Galactic Empire op te ruimen, terwijl zijn adoptieve zoontje Grogu - Baby Yoda in de volksmond - om leert gaan met zijn magische Force-krachten. Tijdens de Super Bowl werd een korte promotievideo getoond, die net als de film geregisseerd is door Jon Favreau en lijkt een hommage aan klassieke Super Bowl-advertenties voor trucks en bier te zijn.

Watch on YouTube

The Super Mario Galaxy Movie refereert aan Super Mario Odyssey

Nintendo was ook aanwezig tijdens de Super Bowl, met een korte teaser van The Super Mario Galaxy Movie - mede geproduceerd door de animatiestudio Illumination. In de teaser zien we babyversies van Mario en Luigi samen met Toad en Yoshi, en een T-Rex in een oerwoud. Naast dat de dinosaurus erg vergelijkbaar met de T-Rex uit Jurassic Park klinkt, is dit tafereel ook een referentie naar een moment Super Mario Odyssey. Daarin kan de speler controle nemen over eenzelfde soort dino. Hoewel de Super Mario Galaxy Movie vernoemd is naar de games die zich voornamelijk in de ruimte afspelen, haalt de film dus ook elementen uit andere Mario-games aan. Vanaf 1 april is de film te zien. 

Watch on YouTube

Disclosure Day toont paranoia en hint naar aliens

Steven Spielberg is terug met een nieuwe sciencefictionfilm in Disclosure Day, met een sterk geladen cast in Josh O’Conner, Emily Blunt, Colin Firth, Colman Domingo en Eve Hewson. De film lijkt te gaan over het bestaan van aliens, dat langzaam maar zeker bekend wordt voor de mensen op aarde. Sommigen, met meer kennis over de zaak, willen het bestaan van de buitenaardse wezens echter in één klap aan de wereld bekendmaken. Disclosure Day draait vanaf 12 juni in de bioscoop. 

Watch on YouTube

Zie Brad Pitt in The Adventures of Cliff Booth

Quentin Tarantino is bijna toe aan het maken van zijn laatste film, maar personages die hij eerder heeft gemaakt worden nog onder handen genomen door andere creatievelingen. David Fincher bijvoorbeeld, die een Netflix-serie rondom het personage Cliff Booth uit Once Upon a Time In Hollywood regisseert op basis van scripts die zijn geschreven door Tarantino. De serie speelt zich na de gebeurtenissen van de film af, en Brad Pitt kruipt weer in de rol van Booth - een stuntman in Hollywood die nu in de penarie zit.

Watch on YouTube

Minions and Monsters komt ook dit jaar 

De inmiddels iconische gele mannetjes uit de Despicable Me-films zijn ook terug voor een nieuwe ‘solo’-film, al is Minions and Monsters niet per se een vervolg op de eerste twee Minions-films. In dit deel werkt een groep minions als monsters op een filmset, totdat ze het idee krijgen om zelf een monsterfilm te maken. Het enige probleem is dat ze geen monsters hebben, dus daar gaan ze naar op zoek in de vorm van onder andere een mini-Cthulhu, een mummie en meer. De film van Illumination komt op 1 juli uit in de bioscoop, maar vier maanden nadat de studio ook The Super Mario Galaxy Movie aanlevert. 

Watch on YouTube

Laatste trailer van Project Hail Mary is geland

Phil Lord en Christopher Miller, het regieduo dat onder andere bekendstaat om hun werk aan de Spider-Verse-films, komt dit jaar ook met een spiksplinternieuwe blockbuster. Project Hail Mary is een sciencefictionverhaal gebaseerd op het gelijknamige boek van Andy Weir - tevens de schrijver van The Martian, waar in 2015 ook een film van uitkwam. Deze laatste trailer toont onder andere meer van de relatie tussen Ryan Goslings personage en een alien genaamd Rocky, alsmede verschillende kleurrijke shots in de ruimte. Goed om te benoemen is dat de cinematografie van de film verzorgd is door Greig Fraser, die bekendstaat om het in beeld brengen van The Batman en Denis Villeneuve’s Dune-films. 

Watch on YouTube

Meer teasers voor Supergirl, Scream 7 en Hoppers

Dan zijn er tijdens de Super Bowl ook nog korte teasers uitgebracht voor de aankomende Pixar-film Hoppers en de horrorfranchise Scream, die inmiddels toe is aan een zevende deel. Ook werd een nieuwe teaser voor Supergirl uitgebracht tijdens de Puppy Bowl - een soort parodie op de Super Bowl, maar met honden. 

Watch on YouTube
Watch on YouTube
Watch on YouTube

Deze advertenties werden getoond tijdens de Super Bowl

De terugkeer van Jurassic Park met Xfinity

Het telecombedrijf Xfinity heeft voor de Super Bowl een promotievideo geproduceerd waarin Sam Neill, Jeff Goldblum en Laura Dern hun respectievelijke rollen van Alan Grant, Ian Malcolm en Ellie Sadler uit Jurassic Park weer vertolken. Ze spelen daarin verschillende scènes uit die film na, en ogen met behulp van de-aging-technologie jonger. 

Watch on YouTube

Beroemdheden vieren Pokémons dertigste verjaardag

In een speciale promotievideo voor de dertigste verjaardag van de Pokémon-franchise dit jaar hebben verschillende bekendheden als Lady Gaga, Trevor Noah, Charles Leclerc en K-Pop-ster Jisoo het over hun favoriete Pokémon.

Watch on YouTube

Ben Affleck doet een parodie op Good Will Hunting

Acteur Ben Affleck zet in 2026 zijn samenwerking met Dunkin’ Donuts ook door, dit jaar door Good Will Hunting - de film waarmee hij samen met Matt Damon doorbrak - op de hak te zetten. De promovideo is geschoten als een sitcom genaamd Good Will Dunkin’, en toont Affleck met andere bekende sitcom-acteurs als Jennifer Anniston, Matt Leblanc en Alfonso Ribiero

Watch on YouTube