ID.nl logo
AI: vloek of zegen?
© jirsak - stock.adobe.com
Huis

AI: vloek of zegen?

Artificiële intelligentie (AI) is een term die je dagelijks hoort en leest, en die bij veel mensen uiteenlopende, soms wonderlijke of zelfs angstaanjagende, beelden oproept. In dit artikel leggen we uit wat artificiële intelligentie is, wat het niet is en wat je er zoal mee kunt doen.

In dit artikel lees je hoe AI werkt, waar het goed in is en wat de eventuele risico’s zijn. Ook benoemen we enkele handige AI-toepassingen waar je zelf mee aan de slag kunt:

  • Chatbots
  • Beeldgeneratoren
  • Audiotoepassingen als muziekjes of liedjes maken en audiobestanden verbeteren
  • Videogeneratoren

Heel interessant: Zo ga je aan de slag met je persoonlijke chatbot

Tip 01: Logisch

In de afgelopen jaren hebben computerprogramma’s veel processen geautomatiseerd. Deze programma’s waren gebaseerd op regels (rule based), en hadden dus een logische opbouw. De mens leverde de regels en de input, en het programma deed de rest. Zelfs als je niet kunt programmeren, kun je voor eenvoudige taken de regels zelf wel bedenken. Neem bijvoorbeeld pseudocode (een beschrijving van de logica van een algoritme, zonder de strikte syntax van een programmeertaal) voor het berekenen van een gemiddelde. Deze kan er als volgt uitzien:

Klassieke, regelgebaseerde software is dus effectief voor taken die een vaste logica volgen, maar er is sowieso één domein waar zulke programma’s slecht presteren: het herkennen van patronen. Schrijf maar eens de pseudocode uit voor een programma dat moet herkennen of er een hond of kat op een afbeelding staat, zonder uiteraard specifieke diernamen in je code te gebruiken. Met de regel ‘als het dier twee ogen, twee oren, vier poten en een staart heeft, dan […]’ kom je er helaas niet.

Lees ook eens de 5-delige cursus over programmeren in Python met ChatGPT

Python-code voor de berekening van gemiddelden: de logica zelve.

Tip 02: Neuraal netwerk

Dit verklaart bijvoorbeeld ook waarom het bijvoorbeeld veel eenvoudiger is een robot te programmeren die volgens een geijkt patroon deksels op potjes plaatst dan een robot die peren plukt en het patroon van rijpe, volgroeide peren moet zien te herkennen in de boomgaard. Zo’n robot ontwikkelen blijkt behoorlijk complex. Mensen zijn hierin veel vaardiger, vooral omdat menselijke hersenen heel goed zijn in patroonherkenning, eigenlijk al vanaf de geboorte.

Bij patroonherkenning volgen de hersenen geen strikte regels, zoals ‘Als hij blauwe ogen, een bril en een stompe neus heeft, is het oom Ben’, maar reageren ze direct op het herkennen van het patroon: ‘Dit is oom Ben’. Dit is mogelijk doordat onze hersenen ongeveer 85 miljard neuronen bevatten, die via uitlopers of vertakkingen elektrische verbindingen (synapsen) kunnen maken met andere neuronen. Deze kunnen zich op hun beurt weer met andere neuronen verbinden, wat automatisch tot patroonherkenning leidt (zie ook het kader ‘Koekjes bakken’).

©whitehoune - stock.adobe.com

Neuraal netwerk: geactiveerde neuronen activeren via synapsen ook andere neuronen.

Koekjes bakken Stel je voor dat je een geur ruikt die je terugbrengt naar een vroegere ervaring, zoals de geur van versgebakken koekjes je doet herinneren aan oma’s keuken. Het proces in de hersenen werkt als volgt. Eerst detecteren geurreceptoren de geur, waarna signalen via neuronen naar de hersenen gestuurd worden. Deze signalen bereiken de reukcentra in de hersenen, waar neuronen de geur verwerken en beoordelen op basis van eerder opgeslagen informatie. De geurinformatie wordt via synapsen doorgegeven van het ene naar het andere neuron. Hierbij komen neurotransmitters vrij die zich aan receptoren op het volgende neuron binden. Deze neurale verbindingen bereiken delen van de hersenen die verantwoordelijk zijn voor het geheugen, zoals de hippocampus. Door dit netwerk van verbindingen wordt een oude herinnering, zoals die van de koekjes in oma’s keuken, geactiveerd.

Tip 03: Lagen

Computerwetenschappers begrepen al snel dat klassieke, regelgebaseerde programma’s niet geschikt waren voor patroonherkenning. Ze zagen in dat ze neurale netwerken moesten proberen na te bootsen in software, geïnspireerd door de werking van de menselijke hersenen.

Laten we een voorbeeld van een neuraal netwerk bekijken zoals dit wordt gebruikt om te bepalen of een foto een hond of een kat wordt getoond. De invoerlaag van het netwerk vertegenwoordigt het startpunt. Het bestaat uit wiskundige functies, hier neuronen genoemd, die elk een specifiek stukje informatie van de foto (met een hond of een kat) representeren, zoals kleur of helderheid van een pixel.

Na de invoerlaag komen de tussenliggende lagen. Elke laag bestaat opnieuw uit meerdere neuronen die informatie ontvangen van de voorgaande laag. Binnen elke neuron worden wiskundige berekeningen uitgevoerd om te bepalen hoe belangrijk de ontvangen informatie is, vergelijkbaar met hoe neuronen in het menselijk brein informatie ontvangen, verwerken en doorgeven. In deze tussenliggende lagen proberen de neuronen specifieke patronen in de gegevens te herkennen, zoals de vorm van de oren of de textuur van de vacht. Elke laag kan zich specialiseren in het herkennen van steeds complexere kenmerken. Deze lagen fungeren als de ‘denkende’ delen van het netwerk.

Uiteindelijk bereikt de informatie de uitvoerlaag. Het neuron in deze laag dat het meest actief is – dus met de hoogst gewogen waarde na alle berekeningen – geeft aan of de foto een hond of een kat toont.

Een digitaal neuraal netwerk bestaat uit een invoerlaag, tussenliggende lagen (verborgen) en een uitvoerlaag.

 Tip 04: Deep learning

Er is nu wel een structuur van een neuraal netwerk om honden en katten te onderscheiden, maar hoe weet de computer welke neuronen moeten worden geactiveerd en hoe sterk bepaalde verbindingen tussen neuronen moeten worden voor de correcte uitvoer? Daarvoor moet dit netwerk worden getraind. Dat gebeurt door vele duizenden foto’s van honden en katten aan het netwerk te tonen en telkens aan te geven of het om een hond of een kat gaat. De computer stuurt dan de verbindingen binnen het neurale netwerk bij, tot dit hopelijk uiteindelijk zelf het juiste antwoord geeft bij nieuwe foto’s. We geven dus als het ware de input en de output en laten de computer zelf het optimale netwerk vormen.

De binnenste lagen worden vaak ‘verborgen lagen’ genoemd, omdat we als mens nauwelijks zicht hebben op hoe de verbindingen binnen deze lagen precies worden gevormd. Een soort ‘black box’ dus, wat veel mensen ongerust maakt (zie ook tip 7). Op YouTube toont Andrej Karpathy uitgebreid hoe je neurale netwerken kunt trainen. Dit proces, een vorm van machine learning, staat bekend als ‘deep learning’ vanwege van de vele lagen in zulke netwerken.

Een heel klein stukje deep learning op het niveau van de computer.

Tip 05: Patronen genereren

Neurale netwerken zijn dus effectief voor het detecteren en herkennen van patronen, maar ze kunnen ook worden gebruikt om patronen te genereren. Hiervoor werden oorspronkelijk twee complementaire netwerken gebruikt: de Generative Adversarial Networks (GAN’s), bestaande uit een discriminator en een generator.

De generator maakt afbeeldingen die de discriminator beoordeelt. Aanvankelijk vertelt een menselijke operator de discriminator welke afbeeldingen, bijvoorbeeld van menselijke gezichten, echt zijn en welke door de generator zijn gemaakt. De generator leert vervolgens van de discriminator welke afbeeldingen het beste waren en waarom. Zo verbeteren beide netwerken elkaar tot de creaties van de generator bijna perfect zijn. Het resultaat van zo’n GAN zie je op www.thispersondoesnotexist.com (druk telkens op F5).

Er zijn ook andere technieken voor het genereren van patronen, zoals ‘diffusionmodellen’. Hierbij begin je met bijvoorbeeld 10% van een afbeelding om te zetten in ruis en geef je als opdracht deze beschadigde input naar een acceptabele output te transformeren, uiteraard met de nodige trainingsdata. Dit netwerk koppel je vervolgens aan een tweede netwerk dat afbeeldingen met 20% ruis omzet in afbeeldingen met 10% ruis, en zo verder, tot uiteindelijk ook een inputafbeelding met 100% ruis (of: niets) een degelijke output oplevert. Voorbeelden van dergelijke modellen zijn Stable Diffusion, Dall-E en Midjourney.

Lees ook de vergelijkende test: Dall-E of SDXL: wie maakt betere plaatjes?

Deze persoon bestaat niet (met dank aan GAN-netwerk StyleGAN2).

Tip 06: Menselijke taal

Beeldpatronen genereren bleek dus mogelijk, maar de uitdaging van menselijke taal is nog groter. Aanvankelijk werd er geëxperimenteerd met regelgebaseerde programma’s, zoals de chatbot ELIZA uit 1966, maar deze bleken al snel compleet ontoereikend. Ongeveer 10 jaar geleden kwam Word2Vec uit, gebaseerd op Natural Language Processing (NLP). Hierbij worden woorden die vaak in vergelijkbare contexten voorkomen, dicht bij elkaar in een vectorruimte – een soort getallenlijst – geplaatst. Dit helpt bij het ontdekken van taalkundige patronen en relaties tussen woorden, nuttig bij onder meer automatische vertaling en tekstanalyse.

De ontwikkeling ging nog een flinke stap verder met Large Language Models (LLM’s), zoals GPT (Generative Pre-trained Transformer). Terwijl NLP-modellen zich richten op het begrijpen van relaties tussen individuele woorden, kan men bij LLM’s hele tekstfragmenten laten interpreteren en ook genereren via een neuraal netwerk dat getraind is op ‘next word prediction’. Dus wanneer een AI-chatbot als ChatGPT of Gemini een woord genereert, dan is dit woord eigenlijk weinig meer dan een gegevenselement dat volgens het netwerk vaak volgt op voorgaande elementen. In de Playground van OpenAI (betaald met tokens geen onderdeel van ChatGPT) en bij Hugginface kun je experimenteren met een parameter als Temperature. Hoe hoger deze waarde, hoe groter de lijst met mogelijke volgende woorden waaruit GPT zal kiezen en dus hoe onvoorspelbaarder de tekst wordt.

Ook interessant om te lezen: Je creativiteit kent geen grenzen met Playground AI

Een gedicht met een blijkbaar al te hoge ‘temperatuur’.

Tip 07: Risico’s

Je hoeft nauwelijks tussen de regels door te lezen om te begrijpen dat AI risico’s met zich meebrengt, op verschillende vlakken. Om te beginnen zijn er voor neurale netwerken vaak enorm veel trainingsdata nodig, zoals teksten en afbeeldingen. Niet alleen roept dit vragen op met betrekking tot onze privacy (het Amerikaanse bedrijf ClearView verkoopt gezichtsherkenningstechnologie op basis van AI aan overheden en zelfs privé-instanties), ook op het vlak van auteursrecht zijn er heel wat bedenkingen. Mag bijvoorbeeld een LLM zomaar al die data gebruiken en verwerken tot ‘eigen’ content? Bovendien valt het niet uit te sluiten dat deze trainingsdata al dan niet bewust incompleet of bevooroordeeld zijn, wat tot gekleurde uitkomsten kan leiden, de zogeheten bias. Ook het feit dat we eigenlijk niet goed weten hoe een neuraal netwerk tot een bepaalde uitkomst komt, kan ongemerkt bias introduceren. Het gebeurt bovendien geregeld dat een AI-chatbot zomaar dingen verzint en die doodleuk mixt met correcte feiten, het zogeheten hallucineren.

Verder is er ook een groter risico op deepfake, waarbij audio, foto’s of video’s bewust worden gemanipuleerd met behulp van AI, zoals voor het verspreiden van nepnieuws.

Een deepfake-foto van Frans Timmermans die gebruikt is om nepnieuws te verspreiden (let bijvoorbeeld op zwevend wijnglas, verschillende brilglazen, ontbrekende rugleuning).

Tip 08: Verdere evolutie

Het risico bestaat ook dat AI-toepassingen aanzienlijke verschuivingen op de arbeidsmarkt zullen veroorzaken, waardoor sommige beroepen overbodig worden. Zoeken naar AI and <beroepsgroep> laat vaak al zien hoe(zeer) AI invloed heeft op verschillende sectoren. Anderzijds is het realistischer dat je baan niet door AI zelf, maar door iemand die AI gebruikt, wordt overgenomen. AI heeft namelijk nog geen ‘bewustzijn’ ontwikkeld, maar de snelheid en richting van de evolutie van AI-technologie blijft een groot vraagstuk. Terwijl GPT-3 over 175 miljard parameters beschikte (elementen die tijdens de trainingsfase kunnen worden aangepast om datapatronen te herkennen), heeft GPT-4 er al tien keer zoveel (zo’n 1,7 biljoen).

Hoewel dit aantal nog steeds veel minder is dan het menselijke brein heeft, geloven sommigen dat zulke netwerken zo breed inzetbaar zullen worden dat we kunnen spreken van Artificial General Intelligence (AGI); AI die een breed scala aan taken beter kan uitvoeren dan mensen. Er heerst zelfs de vrees dat zo’n netwerk zelfstandig een nieuw AI-netwerk kan ontwerpen. Zeg maar een GPT-6, ontwikkeld door GPT-5. Zo’n moment wordt de ‘singulariteit’ genoemd, waarbij zelfversterkende AI-systemen buiten menselijke controle exponentieel slimmer worden, waardoor de toekomst volledig onvoorspelbaar wordt.

Het moment van singulariteit (een interpretatie door Dall-E 3).

Tip 09: Laagdrempelig

Hoewel veel mensen zich misschien niet bewust zijn van de vele toepassingen van AI, hebben ze er waarschijnlijk al vaak ongemerkt mee te maken (gehad). Zo is het ontgrendelen van je smartphone met gezichtsherkenning al een mooi voorbeeld van AI. De software herkent je gezicht, ondanks verschillende hoeken, belichting en gezichtsuitdrukkingen. Ook gebruikers van Google Foto’s zullen hebben gemerkt dat de software uitstekend personen herkent, zelfs over verschillende leeftijden heen. Apps als Google Translate of Microsoft Translator, die tekst uit foto’s herkennen en direct vertalen, maken eveneens gebruik van AI. Ook voor het vertaalproces zelf blijken AI-technieken trouwens beter te werken dan een regelgebaseerde aanpak.

Ook natuurliefhebbers kunnen er baat bij hebben met de populaire, gratis app Obsidentify. Richt je camera op een dier of wilde plant, en de app identificeert de soort dankzij duizenden gelabelde foto’s, door gebruikers geüpload naar websites als www.waarneming.nl en www.waarnemingen.be. En met de gratis app Merlin Bird ID kun je vogels herkennen op basis van hun gezang.

Obsidentify maakt dankbaar gebruik van een massale hoeveelheid trainingsdata.

In het nieuws In dit artikel hebben we heel wat concrete AI-toepassingen vermeld, maar het kan ook interessant zijn om het actuele nieuws te volgen, aangezien AI vaak ter sprake komt. Wijzelf noteerden op een paar dagen onder meer de volgende uiteenlopende ontwikkelingen:

  • AI was een van de hoofdthema’s op CES 2024 in Las Vegas, met een hele reeks innovatieve producten.
  • Ook de wereldwijde top 4 van consultancybedrijven (Deloitte, KPMG, PwC en EY) is actief bezig met het ontwikkelen van eigen geavanceerde generatieve AI-platformen.
  • Microsoft plant de lancering van een nieuw toetsenbord met een Copilot-toets, bedoeld om snel AI-assistentie op te roepen in Windows en Office-toepassingen.
  • AI-modellen kunnen ontbossing in het Amazonewoud detecteren met een nauwkeurigheid van minstens 90%.
  • Amazon werkt aan de ontwikkeling van een eigen zoekmachine die gebaseerd is op AI.

Tip 10: Tekst

AI is al jaren bekend, maar werd vooral populair door de ontwikkeling van generatieve AI-chatbots zoals ChatGPT van OpenAI. Eind 2022 brak ChatGPT echt door en inmiddels is LLM GPT-4 gelanceerd, met binnenkort mogelijk de integratie van GPT-5 in ChatGPT. ChatGPT is gratis te gebruiken via https://chat.openai.com of via de officiële mobiele app, waarmee ook gesproken dialogen mogelijk zijn. De gratis versie biedt toegang tot LLM GPT-3.5, die beperkter is dan GPT-4 (zie ook tip 8). De Plus-versie (ongeveer 23 euro per maand), biedt toegang tot GPT-4 en enkele extra’s, zoals geen wachttijden, toegang tot beeldgenerator Dall-E (zie ook tip 11), recentere kennis, het uploaden van eigen documenten (zoals docx en pdf) ter analyse, het installeren van extensies en het ontwerpen van eigen ‘persona’s’ (GPT’s genoemd). Sinds kort kun je ook gepubliceerde GPT’s van medegebruikers zoeken en gebruiken.

Maar er zijn nog andere, gratis chatbots die GPT-4 gebruiken, zoals Microsoft Copilot, dat steeds meer in Windows wordt geïntegreerd (zie ook het kader ‘In het nieuws’), of Gemini, de chatbot van Google. Voor wie geïnteresseerd is in nog meer AI-chatbots, via deze webpagina vind je een overzicht van zo’n twintig andere bots.

Van eksters tot broeken: GPT-4 (b)lijkt ‘intelligenter’ dan GPT-3.5.

Lees ook: Alles over Google Gemini, Googles antwoord op ChatGPT

Tip 11: Beeld

OpenAI heeft niet alleen de bot ChatGPT ontwikkeld, maar ook de beeldgenerator Dall-E. Deze is inmiddels aan versie 3 toe en is geïntegreerd in ChatGPT Plus, maar je kunt het ook gratis gebruiken via het al eerder vermelde Copilot. Daarnaast zijn er nog heel wat andere generatoren die je gratis kunt gebruiken (of uitproberen). We denken aan Craiyon, Midjourney, DreamStudio, Canva AI en Firefly van Adobe (je kunt gratis 25 beelden per maand laten maken of bewerken). De meeste van deze beeldgeneratoren ondersteunen ook outpainting: je kunt het canvas dan vergroten en hier allerlei objecten aan toevoegen, gebaseerd op patronen en kenmerken van de bestaande afbeelding.

Beelgenerator Dall-E 3 aan het werk in Microsoft Copilot.

Tip 12: Audio

In ChatGPT kun je tegenwoordig gesproken dialogen voeren met AI, maar er zijn meer interessante AI-toepassingen in audio. Bijvoorbeeld radiostations die volledig op AI draaien. Luister bijvoorbeeld naar listen.streamon.fm/radiogpt. RadioGPT selecteert op basis van GPT en TopicPulse muziek en produceert scripts, gecombineerd met AI-spraaktechnologie, door socialmedia- en nieuwsbronnen te scannen.

Voor spraaktechnologie is Adobe Podcast een aanrader. Upload een audiobestand en de dienst verwijdert storende achtergrondgeluiden en optimaliseert het geluid met AI. Je kunt het resultaat als wav-bestand downloaden.

Whisper, een opensource-spraakherkenningssysteem, is beschikbaar als app of API en herkent spraak in verschillende talen en dialecten, zelfs met achtergrondgeluiden en variabele spreeksnelheden, en zet dit om naar tekst.

Soundraw is een AI-audiogenerator, handig voor muziek bij video’s of presentaties. Selecteer lengte, genre, stemming en thema en beluister verschillende tracks. Downloaden is helaas alleen mogelijk met een betaald account.

Een stap verder gaat Suno. Vul een uitvoerige beschrijving in van het gewenste muziekstuk en even later krijg je de gevraagde muziek, inclusief songtekst en gezongen tekst. We vonden dit behoorlijk indrukwekkend.

Een stevig rapnummer over kippen die slapengaan? Klinkt prima!

Tip 13: Video

Het lijdt geen twijfel dat beeldgeneratoren zoals Dall-E en Midjourney binnenkort worden uitgebreid met de mogelijkheid om videobeelden te genereren op basis van een beschrijving of eventueel een voorbeeldfoto of -video. Maar je hoeft hier niet eens op te wachten, want met HeyGen is dit tot op zekere hoogte al mogelijk. Deze dienst is primair bedoeld voor het creëren van natuurlijk klinkende menselijke stemmen, maar biedt ook de optie om deze stemmen te combineren met animaties en video, waardoor het lijkt alsof de persoon echt aan het praten is.

Microsoft Clipchamp, geïntegreerd in Windows, benut AI dan weer op een andere manier voor video’s. Met de knop Een video met AI maken kun je media zoals audio, video en foto’s toevoegen en nadat je informatie over de titel, stijl en gewenste lengte hebt verstrekt, genereert Clipchamp automatisch een bijpassende video.

Tot slot vermelden we ook graag Channel1, dat mogelijk tegen de tijd dat je dit leest al actief is. Channel1 is namelijk een gepersonaliseerd tv-nieuwskanaal dat volledig wordt samengesteld op basis van generatieve AI.

Clipchamp analyseert je media-input en genereert op basis hiervan een passende video.

Training Je kunt zelf een AI-netwerk trainen zonder je te verdiepen in het ontwerp en de verbindingen van het netwerk. Een gebruiksvriendelijke tool hiervoor is Teachable Machine. Deze tool stelt je in staat om zonder programmeerkennis snel machinelearning-modellen te maken voor websites of apps Je kunt modellen trainen met eigen afbeeldingen, bijvoorbeeld van je webcam, of met audio. Het resultaat is een AI-tool die de gewenste patronen kan herkennen. Deze tool kan gecombineerd worden met een microcontroller, zoals Raspberry Pi of Arduino voor automatiseringsprojecten.

Voor een krachtigere, maar wel minder toegankelijke optie is er Cloud AutoML (proefaccount beschikbaar met gratis credits voor 90 dagen). Hier kun je een machinelearning-systeem trainen door data als afbeeldingen of tabelgegevens te uploaden en te labelen of categoriseren. Het systeem traint vervolgens een model, waarvan je de prestaties kunt evalueren en inzetten voor applicaties. Microsoft biedt een soortgelijke tool aan met Custom Vision.

Upload een reeks foto’s uit twee ‘klassen’ en het AI-model herkent automatisch tot welke klasse nieuwe foto’s behoren.
Watch on YouTube
▼ Volgende artikel
Wanneer heb je HDMI 2.1 écht nodig (en wanneer is het weggegooid geld)?
© Dennis
Huis

Wanneer heb je HDMI 2.1 écht nodig (en wanneer is het weggegooid geld)?

HDMI 2.1 is de nieuwste standaard voor beeldoverdracht, maar lang niet iedereen heeft de extra bandbreedte ook écht nodig. Vooral voor gamers met een PlayStation 5, Xbox Series X of krachtige pc is het relevant. Kijk je alleen films of televisie? Dan volstaat de oudere aansluiting vaak prima. Wij leggen uit waar de grens ligt.

Als je momenteel op zoek bent naar een nieuwe televisie of monitor vlíegen de technische termen je om de oren. HDMI 2.1 wordt door fabrikanten en winkels vaak gepresenteerd als een absolute noodzaak voor een scherm dat klaar is voor de toekomst. Hierdoor ontstaat de angst dat je een miskoop doet als je kiest voor een model met de oudere HDMI 2.0-standaard. Toch is dat in veel Nederlandse huiskamers een misvatting, want de voordelen zijn nogal specifiek. Veel consumenten betalen onnodig extra voor een functie die ze technisch gezien nooit zullen activeren. Na het lezen van dit artikel weet je precies of jij die snelle poort nodig hebt, of dat je dat budget beter aan een groter scherm of beter geluid kunt besteden.

De kern van het probleem: bandbreedte

Het fundamentele verschil tussen de gangbare HDMI 2.0-standaard en de nieuwere 2.1-versie zit 'm in de digitale snelweg die ze bieden. Je kunt het zien als een waterleiding: door een 2.1-kabel kan veel meer water (of dus data) tegelijk worden gepompt (48 Gbit/s in dit geval) dan door de oudere 2.0-variant (die 'maar' 18 Gbit/s kan verwerken). Die extra ruimte is nodig voor 4K-beelden met een zeer hoge verversingssnelheid (120 beelden per seconde) of voor extreem hoge resoluties zoals 8K.

Een hardnekkige mythe is dat HDMI 2.1 het beeld altijd mooier maakt. Dat is onjuist. Als je naar een Netflix-serie kijkt in 4K, ziet dat er via een 2.0-poort exact hetzelfde uit als via een 2.1-poort. De kabel verandert niets aan de kleuren, de scherpte of het contrast; hij zorgt er alleen voor dat het signaal 'erdoor' past. Pas als er een file op de kabel ontstaat (omdat je te veel beelden per seconde wilt versturen) wordt de nieuwe standaard noodzakelijk. Zolang je dataverbruik onder de limiet van HDMI 2.0 blijft, voegt versie 2.1 niets toe aan de beeldkwaliteit.

Wanneer werkt dit wél goed?

HDMI 2.1 komt pas echt tot zijn recht als je de grenzen van beweging en snelheid opzoekt. Dat is vrijwel exclusief het domein van de fanatieke gamer. Heb je een PlayStation 5 of Xbox Series X in huis en wil je games spelen in de hoogste 4K-resolutie met 120 beelden per seconde (120 Hz)? Dan is een HDMI 2.1-aansluiting op je tv onmisbaar. Zonder deze poort blijft je console steken op 60 beelden per seconde, wat minder vloeiend oogt bij snelle shooters of racegames.

Ook pc-gamers met een zware, moderne videokaart (zoals de NVIDIA RTX 40- of 50-serie) profiteren hiervan als ze hun pc op de tv aansluiten. Naast de snelheid biedt de 2.1-standaard ondersteuning voor Variable Refresh Rate (VRR). Dat zorgt ervoor dat de televisie zijn verversingssnelheid continu aanpast aan de spelcomputer, wat haperingen en 'tearing' (waarbij het beeld in tweeën lijkt te breken) voorkomt. Daarnaast is er Auto Low Latency Mode (ALLM), een signaal waardoor je tv automatisch naar de spelmodus schakelt zodra je de console aanzet. Voor wie de maximale prestaties uit een moderne spelcomputer wil halen, is HDMI 2.1 dus een logische en eigenlijk verplichte keuze.

Oké, maar wanneer werkt dit níet goed?

Voor de gemiddelde kijker is de meerwaarde van HDMI 2.1 nagenoeg nihil. Kijk je voornamelijk lineaire televisie (nieuws, talkshows), sportwedstrijden, films op Blu-ray of series via streamingdiensten als Disney+ en Videoland? Dan kom je nooit in de buurt van de bandbreedte die HDMI 2.0 niet meer aankan. Films en series worden vrijwel altijd gemaakt en uitgezonden in 24, 30 of maximaal 60 beelden per seconde. Een standaard HDMI 2.0-aansluiting kan 4K-beeld op 60 Hz fluitend aan, inclusief HDR (High Dynamic Range).

Ook voor bezitters van een oudere of minder krachtige spelcomputer, zoals de PlayStation 4, de Xbox One of de Nintendo Switch, voegt de nieuwe poort niets toe. Het signaal dat deze apparaten uitsturen is simpelweg niet zwaar genoeg om de bredere snelweg nodig te hebben. Je koopt in dat geval een Ferrari om er vervolgens alleen maar mee in een 30-kilometerzone te rijden. Je betaalt voor capaciteit die ongebruikt blijft, terwijl je dat geld wellicht beter had kunnen investeren in een tv met een beter contrast of hogere helderheid.

Dealbreakers

Er zijn specifieke situaties waarin het blindstaren op HDMI 2.1 je keuze onnodig beperkt of zelfs leidt tot een slechtere aankoop. Dit zijn de harde grenzen:

Je zoekt een televisie in het budgetsegment. In de lagere prijsklassen is de term HDMI 2.1 vaak misleidend. Fabrikanten mogen de term soms gebruiken omdat de tv één specifieke feature ondersteunt (zoals ALLM), terwijl het paneel zelf technisch helemaal geen 120 Hz kan weergeven. Je koopt dan een tv met een 2.1-sticker, maar zonder het daadwerkelijke voordeel van vloeiend beeld. In dit segment is beeldkwaliteit altijd belangrijker dan het versienummer van de poort.

Je wilt alleen beter geluid via een soundbar. Vaak wordt gedacht dat je voor de beste geluidsoverdracht (eARC) per se een volledige HDMI 2.1-tv nodig hebt. Hoewel eARC officieel onderdeel is van de 2.1-specificaties, hebben veel fabrikanten deze functie ook toegevoegd aan televisies die verder gewoon op HDMI 2.0 draaien. Als je doel puur het doorsturen van Dolby Atmos-geluid is, is een volledige HDMI 2.1-poort dus geen harde eis, zolang eARC maar specifiek wordt vermeld.

Je kijkt puur films en series. Als je geen gamer bent, is er geen enkel scenario waarin HDMI 2.1 je kijkervaring verbetert. Het sluit een heleboel uitstekende oudere of goedkopere modellen uit die misschien wel een veel mooier OLED- of QLED-paneel hebben, maar niet de nieuwste aansluitingen. Beeldkwaliteit (zwartwaarden, kleur) wint het voor de filmkijker altijd van bandbreedte.

©DC Studio

Wat betekent dit voor jouw situatie?

Om de juiste keuze te maken, moet je kritisch kijken naar wat er in je tv-meubel staat of komt te staan. De vuistregel is eenvoudig: ben jij iemand die elke frame telt in een online shooter en heb je de hardware om dat te genereren? Dan moet HDMI 2.1 bovenaan je wensenlijst staan; zonder die poort knijp je de prestaties van je dure console af en mis je de soepelheid waarvoor je betaald hebt.

Ben je daarentegen een filmliefhebber die geniet van de hoogste beeldkwaliteit in HDR, of kijk je vooral sport? Richt je dan op het contrast, de helderheid en de kleurweergave van het paneel. Een kwalitatief hoogwaardig paneel met een 'oudere' aansluiting geeft een indrukwekkender plaatje bij films dan een middelmatige tv die toevallig wél een 2.1-aansluiting heeft. Laat je niet gek maken door het idee van toekomstbestendigheid als de beloofde toekomst niet aansluit bij jouw kijkgedrag.

Dus...

HDMI 2.1 is essentieel voor gamers met een PS5, Xbox Series X of krachtige pc die willen spelen in 4K bij 120 Hz. Voor filmkijkers, serie-bingers en tv-kijkers biedt de standaard geen zichtbare beeldverbetering ten opzichte van HDMI 2.0. De extra bandbreedte is puur bedoeld voor zeer hoge framerates die videocontent niet gebruikt. Kies alleen voor HDMI 2.1 als je hardware hebt die deze snelheid daadwerkelijk kan benutten. In alle andere gevallen is de kwaliteit van het beeldscherm zelf veel belangrijker dan het type aansluiting.

▼ Volgende artikel
Alles over Highguard - waarom heeft iedereen het over deze shooter?
© Wildlight Entertainment
Huis

Alles over Highguard - waarom heeft iedereen het over deze shooter?

Op 26 januari kan de wereld aan de slag met Highguard. Het lijkt erop dat iedereen weet wat Highguard is, terwijl tegelijkertijd ook niemand precies weet wát Highguard nou precies is. In dit artikel zetten we dus uiteen wanneer je de game kunt spelen, en waarom deze titel van Wildlight Entertainment zoveel aandacht krijgt.

Releasedatrum van Highguard

Highguard is vanaf vandaag, 26 januari, rond 19:00 uur Nederlandse tijd beschikbaar op pc, PlayStation 5 en Xbox Series X en S. De exacte releasetijd is nog niet bekend, maar vermoedelijk zal de game rond die tijd op alle platforms beschikbaar worden.

Daarbij is het spel free-to-play, dus je hoeft niets te betalen om Highguard te spelen. Daarbij ondersteunt de game crossplay en cross-save, dus je kunt de game samen met vrienden op andere platforms spelen en je progressie op andere platforms meenemen. Het spel is niet te preloaden, maar vereist op pc in ieder geval 25 GB aan beschikbare opslagruimte.

Met de lancering van het spel zendt ontwikkelaar Wildlight Entertaiment om 19:00 uur Nederlandse tijd ook direct een zogenaamde Launch Showcase uit op YouTube - ook hieronder te bekijken. De studio belooft in deze showcase een ‘deepdive in de gameplay’ van Highguard te tonen, de contentplannen voor het eerste jaar uit de doeken te doen en nog ‘veel meer’. 

Watch on YouTube

Wat is Highguard?

Aan team-based PvP heroshooters als Overwatch is geen gebrek, maar Highguard lijkt zich bij die groep te scharen. Het spel wordt ontwikkeld door Wildlight Entertainment, dat weer bestaat uit oud-ontwikkelaars van onder andere Titanfall en Apex Legends. Mensen die dus meer dan prima shooters in elkaar hebben gedraaid, waardoor de interesse toch ietwat gewekt wordt. 

Ieder team in de game bestaat uit drie zogenaamde Wardens, waarvoor verschillende personages gekozen kunnen worden. In de trailer zien we bijvoorbeeld een ridderachtige personage, die met een speciale vaardigheid elektrische stokken rond kan gooien. Ook is er een groot ijsmonster dat schijnbaar muren kan laten verschijnen, een soort cowboy met beestachtige klauwen en een personage dat met messen kan gooien. Ook heeft ieder personage schijnbaar toegang tot geweren om het vijandelijke team mee te bevechten.

Het doel van een potje is namelijk het vinden van de ‘Shieldbreaker’, een soort groot zwaard waarmee je de basis van de tegenstanders open kan breken en uiteindelijk overnemen. Wanneer dit lukt is het potje gewonnen. In de context van de game krijgt jouw team op die manier de controle over het continent. 

©Wildlight Entertainment

Waarom is er zoveel om Highguard te doen?

Wildlight positioneert de game in hun marketing als een “nieuw soort shooter”, maar veel spelers zijn op basis van de trailer nog niet overtuigd. Highguard doet qua opzet van de potjes wel een paar dingen anders dan hero-shooters als Overwatch en Marvel Rivals, maar zoals Concord in 2024 liet zien is de huidige markt voor dit subgenre binnen shooters redelijk verzadigd. Velen zijn simpelweg nog niet overtuigd dat Highguard daadwerkelijk iets vernieuwends met zich mee weet te brengen.

Dit valt ook te verwijten aan een opvallend gebrek aan marketing van de game. Zo’n anderhalve maand voor release hoorden we voor het eerst van Highguard, toen de trailer werd getoond als afsluiter van The Game Awards. Normaliter is de laatste aankondiging van die show een van de hoogtepunten, maar Highguard wist mensen niet te enthousiasmeren. 

De gesprekken rondom Highguard werden echter nog vreemder, toen opviel dat Wildlight geruime tijd niets meer plaatste op sociale media over de game. Na de initiële aankondiging van de game werd er wekenlang niets meer geplaatst op het X-account van Highguard, tot drie dagen voor launch - toen het bedrijf een countdown startte. Ook dit maakte het lastig om enthousiast te worden voor Highguard. 

©Wildlight Entertainment

In de afgelopen dagen doken er berichten en geruchten op die stelden dat Geoff Keighley - de presentator en oprichter van The Game Awards - Highguard specifiek had uitgekozen als afsluiter van The Game Awards, omdat hij hier wel iets in zag. Op 25 januari plaatste Keighley een gif op X, waarin John Hammond uit Jurassic Park zegt: “Over 48 uur accepteer ik jullie verontschuldigingen”. 

Natuurlijk gunnen we iedere game waar tijd en passie in heeft gezeten het beste, maar het is ook niet te ontkennen dat het verhaal rondom Highguard op zijn minst frappant te noemen is. Nou ja, vanaf 19:00 uur kunnen we het spel zelf onder handen nemen. Verwacht daarom binnenkort impressies op onze socials en ID.nl.