ID.nl logo
Wat zijn fotonische chips?
© Reshift Digital
Huis

Wat zijn fotonische chips?

Decennialang werden computers sneller, omdat de componenten op de chips steeds kleiner werden. Maar nu de grenzen van het mogelijke in zicht komen, wenden chipontwerpers zich tot de fotonica. Deze technologie belooft niet alleen enorme energiebesparing, maar mogelijk ook werkelijk bruikbare kwantumcomputers. Wat zijn fotonische chips precies?

“Er bestaat geen reden waarom iedereen thuis een computer zou willen hebben.” Ken Olsen, medeoprichter van het computerbedrijf Digital Equipment Corporation, sprak deze woorden in 1977. En hij had gelijk, want destijds hadden de meeste mensen niets aan zo’n ding. Pas na zo’n vijftien jaar werden pc’s gemeengoed in huishoudens en wat later kwamen de mobiele telefoon en zijn opvolger de smartphone op. Op een enkele hoogbejaarde na heeft iedereen inmiddels altijd zo’n zakcomputer bij de hand. Vergeleken met de computers uit de jaren 70 zijn dat formidabele apparaten. Wanneer je toen voorspeld zou hebben dat iedereen met een snoerloos plankje zou kunnen filmen, navigeren, beeldbellen en betalen en dat we er in permanent contact met bekenden mee zouden staan, dan zou dat louter meewarige blikken hebben uitgelokt.

Kwantummechanische wetten

Een minicomputer die alles kan en waar je zelfs mondelinge vragen aan kunt stellen, moet wel een enorm geoptimaliseerd apparaat zijn. Dat is inderdaad het geval. Smartphones zouden niet mogelijk zijn zonder uiterst compacte componenten, waaronder vooral de microprocessor. De allereerste processor, de Intel 4004 uit 1971, telde 2300 transistors. Tegenwoordig is 15 miljard geen uitzondering. De kloksnelheid bedroeg 740 kilohertz, oftewel zo’n 4000 keer trager dan wat tegenwoordig de norm is. En met 10 micrometer waren de transistors op deze oerchip ook nog eens zo’n 1000 tot 2000 keer groter dan de 10- of 5-nanometer-componenten op de huidige chips.

Hoe fantastisch ook, dit feest kan volgens veel deskundigen niet eeuwig doorgaan. Chips zijn gemaakt van silicium. Een siliciumatoom heeft een doorsnee van ruwweg 0,2 nanometer. De grenzen van de miniaturisering zijn dus in zicht. Daar komt bij dat elektronen, die de dragers van informatie zijn in deze transistors, op deze schaal grillig gedrag vertonen. De kwantummechanische wetten die het gedrag van elementaire deeltjes beschrijven, staan toe dat elektronen zich plotseling op een andere plek bevinden of zelfs op twee plekken tegelijk. Uiteraard is dit niet best voor de stabiliteit van een chip.

©PXimport

System on a chip

Volgens pessimisten komt hiermee een einde aan de Wet van Moore, de vuistregel dat het aantal transistors op een chip pakweg elke twee jaar verdubbelt. Nieuwe processors, zo vrezen ze, zullen niet meer de spectaculaire prestatiesprongen laten zien waaraan we gewend en verslaafd zijn geraakt. Nu zijn ontwerpers van chips gelukkig niet voor één gat te vangen. Het succes van de smartphone is gebaseerd op de uitvinding van de ‘system on a chip’, oftewel SoC. Door de processor, de grafische processor, het werkgeheugen en andere vitale onderdelen op één chip samen te brengen, kan flink wat ruimte en energie worden bespaard. Een laag energieverbruik is essentieel in mobiele apparaten: de accu raakt minder snel leeg en er hoeft minder warmte te worden afgevoerd. Traditionele laptopprocessors, zoals die van Intel, worden bij intensieve taken zo heet dat de chip zelfs bij een loeiende ventilator zijn kloksnelheid moet terugschakelen. SoC’s, zoals de M1-chip in de nieuwste laptops van Apple, blijven dermate koel dat een ventilator meer luxe dan noodzaak is. De nieuwste MacBook Air bevat er dan ook geen.

De regel dat het aantal transistors elke twee jaar verdubbelt, gaat niet zo lang meer mee

-

Geen vreemde eend

Maar hoe slim ook ontworpen, ook SoC’s lopen tegen de grenzen van de miniaturisering aan. Daarom beginnen chipontwerpers aan het fundamentele karakter van de traditionele siliciumchip te morrelen. Zoals we al zagen, is een chip een apparaat waarin groepjes elektronen heen en weer geschoven worden. Dat zijn elementaire deeltjes met een massa en een elektrische lading. Ze zijn daardoor gemakkelijk te manipuleren. Maar wanneer ze bewegen, warmen ze hun omgeving op. Er bestaat ook een deeltje dat dit nadeel niet heeft: het foton. Dit deeltje, feitelijk het kwantum van het elektromagnetische veld, is bepaald geen vreemde bijt in de ICT-industrie. Het wordt al jaren gebruikt om data te verzenden door glasvezelkabels en ook LiDAR berust op het uitzenden en opvangen van fotonen. Maar zodra deze deeltjes in een computer aankomen, geven ze het estafettestokje door aan elektronen, zodat er bewerkingen op kunnen worden uitgevoerd. Het onderzoeksveld dat zich met deze wisselwerking tussen fotonen en elektronen bezig houdt, wordt fotonica genoemd.

©PXimport

Grofstoffelijk

Fotonen kunnen dus worden gebruikt om data te verzenden en de omgeving te scannen, maar vooralsnog niet om te rekenen. Dat is teleurstellend, want fotonische schakelingen zijn in theorie ontzettend snel en erg energiezuinig.

Martijn Heck is sinds 2020 hoogleraar fotonica aan de Technische Universiteit Eindhoven, na eerder werkzaam te zijn geweest aan de Universiteit van Aarhus in Denemarken, waar hij in 2013 de Photonic Integrated Circuits-groep oprichtte. Het probleem met fotonica, zo zegt hij, is dat het niet schaalt. Het is vooralsnog dus onmogelijk fotonische schakelingen te maken die even klein zijn als elektronische transistors. Alleen al om die reden zal fotonica niet de transistor vervangen, aldus Heck tijdens een videogesprek. “Fotonica is te grofstoffelijk.” De voordelen van fotonica blijken subtieler. Fotonica, zo verzekert Heck, is goed in lengte. In het verzenden van data over lange afstanden dus. Glasvezelverbindingen vormen het ultieme voorbeeld, maar met de hoge datasnelheden van en naar de huidige microprocessors zijn decimeters en centimeters eveneens niet te negeren afstanden. Fotonica is daarom de aangewezen technologie om in datacenters servers met elkaar te verbinden. Dit wordt al in praktijk gebracht. Energiebesparing is daartoe opnieuw de belangrijkste stimulans.

©PXimport

Multiplexen

De volgende stap is het verbinden van verschillende chips binnen één systeem. Het Californische bedrijf AyarLabs bijvoorbeeld beweert een technologie in huis te hebben waarmee over afstanden van enkele millimeters tot twee kilometer bandbreedtes kunnen worden behaald die duizend keer hoger liggen dan die van traditionele elektrische verbindingen, bij een tien keer zo laag energieverbruik.

Heck is ervan overtuigd dat in de toekomst de verschillende onderdelen van één en dezelfde chip met fotonica verbonden zullen worden. Dat is nu nog problematisch, omdat het om heel korte afstanden gaat, waarbij de omzetting van elektronisch naar fotonisch en terug een wissel trekt op het energieverbruik. Dat er niettemin toekomst in zit, komt door de hoge bandbreedtes die behaald kunnen worden door te multiplexen: verschillende golflengtes kunnen tegelijkertijd over hetzelfde kanaal worden verzonden. Want niet alleen bandbreedte, maar ook bandbreedtedichtheid kan in huidige chips problematisch zijn, aldus Heck. “Denk in termen van het aantal pinnetjes waarmee de chip op het moederbord vast zit. Dat is beperkt. Multiplexen is daarom een goede oplossing.” Voor dat dit allemaal goed mogelijk is, dienen er nog wel wat materiaaltechnische hindernissen overwonnen te worden. Op dit moment berust de hele halfgeleiderindustrie op silicium. Dat is helaas een materiaal dat niet geneigd is licht uit te zenden. Er wordt daarom volop geëxperimenteerd met andere materialen, zoals galliumarsenide en indiumfosfide, die wel in staat zijn binnen een chip fotonen te produceren. Maar de integratie van zulke materialen in bestaande productielijnen voor chips is niet triviaal.

Kwantumcomputers

Zodra deze problemen overwonnen zijn, voorziet Heck wel degelijk fotonische systemen die specifieke rekenkundige bewerkingen uit kunnen voeren. In theorie zijn optische computers megaparallel. Dat maakt ze geschikt voor specifieke toepassingen, zoals het doorzoeken van databases. Het Britse bedrijf Optalysys pioniert hierin. Het parallelle karakter van fotonica maakt het ook geschikt voor neuromorfische processors: chips die net als dierlijke hersenen signalen tegen elkaar afwegen. In moderne SoC’s zijn zulke modules soms al aanwezig ter ondersteuning van machine learning en AI. Heck stelt zich voor dat zulke modules in de toekomst fotonisch van aard zullen zijn. Ze zullen veel krachtiger zijn dan de huidige neuromorfische modules, vanwege het feit dat licht uitgesplitst kan worden in verschillende frequenties die parallel verwerkt kunnen worden.

Verrassend genoeg ontwaart Heck ook raakvlakken tussen fotonica en kwantumcomputing. Kwantumcomputers zijn apparaten die problemen oplossen door gebruik te maken van de meest fundamentele eigenschappen van de natuur, zoals die beschreven worden door de kwantummechanica. Volgens deze theorie, die de afgelopen honderd jaar aan alle kanten experimenteel bevestigd is, bevinden elementaire deeltjes zich van nature in een zogenaamde superpositie. Dit is een vrij complex natuurkundig concept, maar in een kwantumcomputer betekent het dat de basiseenheid van informatie geen bit is, maar een qubit. Waar een bit 0 of 1 is, is een qubit een superpositie van deze twee toestanden. Qubits kunnen bovendien met elkaar verstrengeld zijn, een mysterieuze toestand waar Einstein zelf nog zijn tanden op stuk heeft gebeten. Hoe dan ook, de theorie voorspelt dat kwantumcomputers in principe reusachtig krachtig zijn in, vooral, het ontrafelen van processen in de natuur. De verwachting is dat ze zullen leiden tot doorbraken in onder meer de materiaalkunde en de farmacie.

©PXimport

Wie zegt dat hij de kwantumfysica begrijpt, heeft er volgens Feynman niets van begrepen

-

Xanadu en PsiQuantum

De even beroemde als excentrieke natuurkundige Richard Feynman zei ooit dat wanneer iemand zegt de kwantumfysica te begrijpen, dat het bewijs vormt dat hij er niets van begrepen heeft. Onderzoekers die kwantumcomputers proberen te ontwerpen, tasten inderdaad voor een belangrijk deel in het duister. Het principe lijkt te werken, maar het blijkt uiterst moeilijk om het aantal qubits op te schalen tot het niveau waarop een apparaat werkelijk bruikbaar wordt. Elke toegevoegde qubit verdubbelt weliswaar de rekenkracht, maar dat lijkt ook te gelden voor de complexiteit van het systeem. IBM heeft niettemin simpele kwantumcomputers online staan waar geïnteresseerden nu al eenvoudige bewerkingen op uit kunnen voeren.

Fysieke qubits kunnen uit allerlei deeltjes (of grotere objecten) bestaan. Die dienen meestal wel tot bijna het absolute nulpunt afgekoeld te worden om te voorkomen dat omgevingsinvloeden de superpositie om zeep helpen. Fotonen daarentegen kunnen ook bij kamertemperatuur als qubits worden gebruikt. De Canadese start-up Xanadu presenteerde dit voorjaar ‘s werelds eerste fotonische kwantumchip. En deze zomer haalde het Californische bedrijf PsiQuantum 450 miljoen dollar op voor de ontwikkeling van de Q1: een op silicium gebaseerde fotonische kwantumcomputer met superieure foutcorrectie – een heet hangijzer in de wereld van de kwantumcomputing.

©PXimport

Wereldspelers à la ASML

Te midden van deze ontwikkeling rijst de vraag: in welke ontwikkelingsfase bevindt de fotonica zich als je het vergelijkt met de ontwikkeling van de micro-elektronica, als we de eerste Intel-chip uit 1971 als ijkpunt nemen? “In de buurt van 1980”, zegt Heck. Dat is een intrigerend antwoord. Dat betekent namelijk dat deze industrie een grote toekomst tegemoet gaat. Heck bevestigt dat hij exponentiële groei voor zich ziet.

Of jonge Nederlandse fotonicabedrijven zullen uitgroeien tot wereldspelers à la ASML, valt volgens Heck niet te zeggen. Dat hangt volgens hem ook sterk af van de manier waarop de huidige giganten, zoals de Taiwanese chipfabrikant TSMC, op deze ontwikkelingen inspelen. Hij benadrukt wel dat we in Nederland over ‘strategische technologie’ beschikken. De overheid onderkent dat ook. Vorig jaar nam het ministerie van Economische Zaken deel aan een investering van 35 miljoen euro in het Eindhovense SMART Photonics, maker van fotonische chips op basis van indiumfosfide. Zonder dat geld was dit innovatieve bedrijf met 75 werknemers hoogstwaarschijnlijk in Aziatische handen gevallen. Of de Wet van Moore gered zal worden door fotonica, lijkt inmiddels de verkeerde vraag. Moores vuistregel heeft eigenlijk alleen betrekking op de traditionele computerchip. Maar met fotonica slaat de computerindustrie een weg naar onbekend terrein in. Wellicht wacht aan de horizon de heilige graal in de vorm van een superkrachtige fotonische kwantumcomputer. Maar energiezuinige datacenters zijn ook de moeite waard.

©PXimport

De twee gezichten van het licht

Licht is een van de meest alomtegenwoordige natuurverschijnselen. Het is dan ook niet vreemd dat licht in allerlei scheppingsmythes prominent figureert. Toch bleef het lang een van de meest ongrijpbare verschijnselen. De wijsgeren van het klassieke Griekenland, die voor hun tijd zeer methodisch over de wereld nadachten, zaten verschrikkelijk fout. Epicurus (341-270 voor Christus) geloofde dat de wereld louter uit atomen en leegte bestond. In zijn Brief aan Herodotus speculeerde hij dat objecten voortdurend heel dunne, uit atomen bestaande vliesjes afscheiden. Zodra zo’n atomair vliesje ons in de ogen vliegt, wordt het object zichtbaar. Plato zat minstens even fout door te veronderstellen dat we zien doordat onze ogen stralen uitzenden. Pas in de 11de eeuw maakte de Arabische wetenschapper Alhazen korte metten met dit idee. De Hagenaar Christiaan Huygens (1629-1695) was ervan overtuigd dat licht uit een golf bestaat dat door een vooralsnog onbekend medium zou reizen. Zijn tijdgenoot Isaac Newton was het daar niet mee eens. Hij vond het gedrag van licht makkelijker te verklaren door aan te nemen dat het uit deeltjes bestond. Deze theorie werd leidend, totdat James Maxwell in 1865 voorspelde dat licht een golf is in het zogenoemde elektromagnetische veld en Heinrich Hertz dat in 1888 overtuigend bewees. Maxwells theorie vertoonde wel lacunes. Die bleken oplosbaar door te veronderstellen dat zijn golven op hun beurt uit brokjes bestaan: de zogenoemde kwanta van het elektromagnetische veld, oftewel fotonen, afgeleid van het Griekse woord voor licht. Albert Einstein ontving in 1921 de Nobelprijs voor zijn bedrage aan deze theorie. Licht bestaat dus uit golven én deeltjes Deze ‘golf-deeltjesdualiteit’ is tegenwoordig algemeen aanvaard.

Het is wachten op de eerste superkrachtige fotonische kwantumcomputer

-

▼ Volgende artikel
Wanneer heb je HDMI 2.1 écht nodig (en wanneer is het weggegooid geld)?
© Dennis
Huis

Wanneer heb je HDMI 2.1 écht nodig (en wanneer is het weggegooid geld)?

HDMI 2.1 is de nieuwste standaard voor beeldoverdracht, maar lang niet iedereen heeft de extra bandbreedte ook écht nodig. Vooral voor gamers met een PlayStation 5, Xbox Series X of krachtige pc is het relevant. Kijk je alleen films of televisie? Dan volstaat de oudere aansluiting vaak prima. Wij leggen uit waar de grens ligt.

Als je momenteel op zoek bent naar een nieuwe televisie of monitor vlíegen de technische termen je om de oren. HDMI 2.1 wordt door fabrikanten en winkels vaak gepresenteerd als een absolute noodzaak voor een scherm dat klaar is voor de toekomst. Hierdoor ontstaat de angst dat je een miskoop doet als je kiest voor een model met de oudere HDMI 2.0-standaard. Toch is dat in veel Nederlandse huiskamers een misvatting, want de voordelen zijn nogal specifiek. Veel consumenten betalen onnodig extra voor een functie die ze technisch gezien nooit zullen activeren. Na het lezen van dit artikel weet je precies of jij die snelle poort nodig hebt, of dat je dat budget beter aan een groter scherm of beter geluid kunt besteden.

De kern van het probleem: bandbreedte

Het fundamentele verschil tussen de gangbare HDMI 2.0-standaard en de nieuwere 2.1-versie zit 'm in de digitale snelweg die ze bieden. Je kunt het zien als een waterleiding: door een 2.1-kabel kan veel meer water (of dus data) tegelijk worden gepompt (48 Gbit/s in dit geval) dan door de oudere 2.0-variant (die 'maar' 18 Gbit/s kan verwerken). Die extra ruimte is nodig voor 4K-beelden met een zeer hoge verversingssnelheid (120 beelden per seconde) of voor extreem hoge resoluties zoals 8K.

Een hardnekkige mythe is dat HDMI 2.1 het beeld altijd mooier maakt. Dat is onjuist. Als je naar een Netflix-serie kijkt in 4K, ziet dat er via een 2.0-poort exact hetzelfde uit als via een 2.1-poort. De kabel verandert niets aan de kleuren, de scherpte of het contrast; hij zorgt er alleen voor dat het signaal 'erdoor' past. Pas als er een file op de kabel ontstaat (omdat je te veel beelden per seconde wilt versturen) wordt de nieuwe standaard noodzakelijk. Zolang je dataverbruik onder de limiet van HDMI 2.0 blijft, voegt versie 2.1 niets toe aan de beeldkwaliteit.

Wanneer werkt dit wél goed?

HDMI 2.1 komt pas echt tot zijn recht als je de grenzen van beweging en snelheid opzoekt. Dat is vrijwel exclusief het domein van de fanatieke gamer. Heb je een PlayStation 5 of Xbox Series X in huis en wil je games spelen in de hoogste 4K-resolutie met 120 beelden per seconde (120 Hz)? Dan is een HDMI 2.1-aansluiting op je tv onmisbaar. Zonder deze poort blijft je console steken op 60 beelden per seconde, wat minder vloeiend oogt bij snelle shooters of racegames.

Ook pc-gamers met een zware, moderne videokaart (zoals de NVIDIA RTX 40- of 50-serie) profiteren hiervan als ze hun pc op de tv aansluiten. Naast de snelheid biedt de 2.1-standaard ondersteuning voor Variable Refresh Rate (VRR). Dat zorgt ervoor dat de televisie zijn verversingssnelheid continu aanpast aan de spelcomputer, wat haperingen en 'tearing' (waarbij het beeld in tweeën lijkt te breken) voorkomt. Daarnaast is er Auto Low Latency Mode (ALLM), een signaal waardoor je tv automatisch naar de spelmodus schakelt zodra je de console aanzet. Voor wie de maximale prestaties uit een moderne spelcomputer wil halen, is HDMI 2.1 dus een logische en eigenlijk verplichte keuze.

Oké, maar wanneer werkt dit níet goed?

Voor de gemiddelde kijker is de meerwaarde van HDMI 2.1 nagenoeg nihil. Kijk je voornamelijk lineaire televisie (nieuws, talkshows), sportwedstrijden, films op Blu-ray of series via streamingdiensten als Disney+ en Videoland? Dan kom je nooit in de buurt van de bandbreedte die HDMI 2.0 niet meer aankan. Films en series worden vrijwel altijd gemaakt en uitgezonden in 24, 30 of maximaal 60 beelden per seconde. Een standaard HDMI 2.0-aansluiting kan 4K-beeld op 60 Hz fluitend aan, inclusief HDR (High Dynamic Range).

Ook voor bezitters van een oudere of minder krachtige spelcomputer, zoals de PlayStation 4, de Xbox One of de Nintendo Switch, voegt de nieuwe poort niets toe. Het signaal dat deze apparaten uitsturen is simpelweg niet zwaar genoeg om de bredere snelweg nodig te hebben. Je koopt in dat geval een Ferrari om er vervolgens alleen maar mee in een 30-kilometerzone te rijden. Je betaalt voor capaciteit die ongebruikt blijft, terwijl je dat geld wellicht beter had kunnen investeren in een tv met een beter contrast of hogere helderheid.

Dealbreakers

Er zijn specifieke situaties waarin het blindstaren op HDMI 2.1 je keuze onnodig beperkt of zelfs leidt tot een slechtere aankoop. Dit zijn de harde grenzen:

Je zoekt een televisie in het budgetsegment. In de lagere prijsklassen is de term HDMI 2.1 vaak misleidend. Fabrikanten mogen de term soms gebruiken omdat de tv één specifieke feature ondersteunt (zoals ALLM), terwijl het paneel zelf technisch helemaal geen 120 Hz kan weergeven. Je koopt dan een tv met een 2.1-sticker, maar zonder het daadwerkelijke voordeel van vloeiend beeld. In dit segment is beeldkwaliteit altijd belangrijker dan het versienummer van de poort.

Je wilt alleen beter geluid via een soundbar. Vaak wordt gedacht dat je voor de beste geluidsoverdracht (eARC) per se een volledige HDMI 2.1-tv nodig hebt. Hoewel eARC officieel onderdeel is van de 2.1-specificaties, hebben veel fabrikanten deze functie ook toegevoegd aan televisies die verder gewoon op HDMI 2.0 draaien. Als je doel puur het doorsturen van Dolby Atmos-geluid is, is een volledige HDMI 2.1-poort dus geen harde eis, zolang eARC maar specifiek wordt vermeld.

Je kijkt puur films en series. Als je geen gamer bent, is er geen enkel scenario waarin HDMI 2.1 je kijkervaring verbetert. Het sluit een heleboel uitstekende oudere of goedkopere modellen uit die misschien wel een veel mooier OLED- of QLED-paneel hebben, maar niet de nieuwste aansluitingen. Beeldkwaliteit (zwartwaarden, kleur) wint het voor de filmkijker altijd van bandbreedte.

©DC Studio

Wat betekent dit voor jouw situatie?

Om de juiste keuze te maken, moet je kritisch kijken naar wat er in je tv-meubel staat of komt te staan. De vuistregel is eenvoudig: ben jij iemand die elke frame telt in een online shooter en heb je de hardware om dat te genereren? Dan moet HDMI 2.1 bovenaan je wensenlijst staan; zonder die poort knijp je de prestaties van je dure console af en mis je de soepelheid waarvoor je betaald hebt.

Ben je daarentegen een filmliefhebber die geniet van de hoogste beeldkwaliteit in HDR, of kijk je vooral sport? Richt je dan op het contrast, de helderheid en de kleurweergave van het paneel. Een kwalitatief hoogwaardig paneel met een 'oudere' aansluiting geeft een indrukwekkender plaatje bij films dan een middelmatige tv die toevallig wél een 2.1-aansluiting heeft. Laat je niet gek maken door het idee van toekomstbestendigheid als de beloofde toekomst niet aansluit bij jouw kijkgedrag.

Dus...

HDMI 2.1 is essentieel voor gamers met een PS5, Xbox Series X of krachtige pc die willen spelen in 4K bij 120 Hz. Voor filmkijkers, serie-bingers en tv-kijkers biedt de standaard geen zichtbare beeldverbetering ten opzichte van HDMI 2.0. De extra bandbreedte is puur bedoeld voor zeer hoge framerates die videocontent niet gebruikt. Kies alleen voor HDMI 2.1 als je hardware hebt die deze snelheid daadwerkelijk kan benutten. In alle andere gevallen is de kwaliteit van het beeldscherm zelf veel belangrijker dan het type aansluiting.

▼ Volgende artikel
Alles over Highguard - waarom heeft iedereen het over deze shooter?
© Wildlight Entertainment
Huis

Alles over Highguard - waarom heeft iedereen het over deze shooter?

Op 26 januari kan de wereld aan de slag met Highguard. Het lijkt erop dat iedereen weet wat Highguard is, terwijl tegelijkertijd ook niemand precies weet wát Highguard nou precies is. In dit artikel zetten we dus uiteen wanneer je de game kunt spelen, en waarom deze titel van Wildlight Entertainment zoveel aandacht krijgt.

Releasedatrum van Highguard

Highguard is vanaf vandaag, 26 januari, rond 19:00 uur Nederlandse tijd beschikbaar op pc, PlayStation 5 en Xbox Series X en S. De exacte releasetijd is nog niet bekend, maar vermoedelijk zal de game rond die tijd op alle platforms beschikbaar worden.

Daarbij is het spel free-to-play, dus je hoeft niets te betalen om Highguard te spelen. Daarbij ondersteunt de game crossplay en cross-save, dus je kunt de game samen met vrienden op andere platforms spelen en je progressie op andere platforms meenemen. Het spel is niet te preloaden, maar vereist op pc in ieder geval 25 GB aan beschikbare opslagruimte.

Met de lancering van het spel zendt ontwikkelaar Wildlight Entertaiment om 19:00 uur Nederlandse tijd ook direct een zogenaamde Launch Showcase uit op YouTube - ook hieronder te bekijken. De studio belooft in deze showcase een ‘deepdive in de gameplay’ van Highguard te tonen, de contentplannen voor het eerste jaar uit de doeken te doen en nog ‘veel meer’. 

Watch on YouTube

Wat is Highguard?

Aan team-based PvP heroshooters als Overwatch is geen gebrek, maar Highguard lijkt zich bij die groep te scharen. Het spel wordt ontwikkeld door Wildlight Entertainment, dat weer bestaat uit oud-ontwikkelaars van onder andere Titanfall en Apex Legends. Mensen die dus meer dan prima shooters in elkaar hebben gedraaid, waardoor de interesse toch ietwat gewekt wordt. 

Ieder team in de game bestaat uit drie zogenaamde Wardens, waarvoor verschillende personages gekozen kunnen worden. In de trailer zien we bijvoorbeeld een ridderachtige personage, die met een speciale vaardigheid elektrische stokken rond kan gooien. Ook is er een groot ijsmonster dat schijnbaar muren kan laten verschijnen, een soort cowboy met beestachtige klauwen en een personage dat met messen kan gooien. Ook heeft ieder personage schijnbaar toegang tot geweren om het vijandelijke team mee te bevechten.

Het doel van een potje is namelijk het vinden van de ‘Shieldbreaker’, een soort groot zwaard waarmee je de basis van de tegenstanders open kan breken en uiteindelijk overnemen. Wanneer dit lukt is het potje gewonnen. In de context van de game krijgt jouw team op die manier de controle over het continent. 

©Wildlight Entertainment

Waarom is er zoveel om Highguard te doen?

Wildlight positioneert de game in hun marketing als een “nieuw soort shooter”, maar veel spelers zijn op basis van de trailer nog niet overtuigd. Highguard doet qua opzet van de potjes wel een paar dingen anders dan hero-shooters als Overwatch en Marvel Rivals, maar zoals Concord in 2024 liet zien is de huidige markt voor dit subgenre binnen shooters redelijk verzadigd. Velen zijn simpelweg nog niet overtuigd dat Highguard daadwerkelijk iets vernieuwends met zich mee weet te brengen.

Dit valt ook te verwijten aan een opvallend gebrek aan marketing van de game. Zo’n anderhalve maand voor release hoorden we voor het eerst van Highguard, toen de trailer werd getoond als afsluiter van The Game Awards. Normaliter is de laatste aankondiging van die show een van de hoogtepunten, maar Highguard wist mensen niet te enthousiasmeren. 

De gesprekken rondom Highguard werden echter nog vreemder, toen opviel dat Wildlight geruime tijd niets meer plaatste op sociale media over de game. Na de initiële aankondiging van de game werd er wekenlang niets meer geplaatst op het X-account van Highguard, tot drie dagen voor launch - toen het bedrijf een countdown startte. Ook dit maakte het lastig om enthousiast te worden voor Highguard. 

©Wildlight Entertainment

In de afgelopen dagen doken er berichten en geruchten op die stelden dat Geoff Keighley - de presentator en oprichter van The Game Awards - Highguard specifiek had uitgekozen als afsluiter van The Game Awards, omdat hij hier wel iets in zag. Op 25 januari plaatste Keighley een gif op X, waarin John Hammond uit Jurassic Park zegt: “Over 48 uur accepteer ik jullie verontschuldigingen”. 

Natuurlijk gunnen we iedere game waar tijd en passie in heeft gezeten het beste, maar het is ook niet te ontkennen dat het verhaal rondom Highguard op zijn minst frappant te noemen is. Nou ja, vanaf 19:00 uur kunnen we het spel zelf onder handen nemen. Verwacht daarom binnenkort impressies op onze socials en ID.nl.