ID.nl logo
Wat zijn fotonische chips?
© Reshift Digital
Huis

Wat zijn fotonische chips?

Decennialang werden computers sneller, omdat de componenten op de chips steeds kleiner werden. Maar nu de grenzen van het mogelijke in zicht komen, wenden chipontwerpers zich tot de fotonica. Deze technologie belooft niet alleen enorme energiebesparing, maar mogelijk ook werkelijk bruikbare kwantumcomputers. Wat zijn fotonische chips precies?

“Er bestaat geen reden waarom iedereen thuis een computer zou willen hebben.” Ken Olsen, medeoprichter van het computerbedrijf Digital Equipment Corporation, sprak deze woorden in 1977. En hij had gelijk, want destijds hadden de meeste mensen niets aan zo’n ding. Pas na zo’n vijftien jaar werden pc’s gemeengoed in huishoudens en wat later kwamen de mobiele telefoon en zijn opvolger de smartphone op. Op een enkele hoogbejaarde na heeft iedereen inmiddels altijd zo’n zakcomputer bij de hand. Vergeleken met de computers uit de jaren 70 zijn dat formidabele apparaten. Wanneer je toen voorspeld zou hebben dat iedereen met een snoerloos plankje zou kunnen filmen, navigeren, beeldbellen en betalen en dat we er in permanent contact met bekenden mee zouden staan, dan zou dat louter meewarige blikken hebben uitgelokt.

Kwantummechanische wetten

Een minicomputer die alles kan en waar je zelfs mondelinge vragen aan kunt stellen, moet wel een enorm geoptimaliseerd apparaat zijn. Dat is inderdaad het geval. Smartphones zouden niet mogelijk zijn zonder uiterst compacte componenten, waaronder vooral de microprocessor. De allereerste processor, de Intel 4004 uit 1971, telde 2300 transistors. Tegenwoordig is 15 miljard geen uitzondering. De kloksnelheid bedroeg 740 kilohertz, oftewel zo’n 4000 keer trager dan wat tegenwoordig de norm is. En met 10 micrometer waren de transistors op deze oerchip ook nog eens zo’n 1000 tot 2000 keer groter dan de 10- of 5-nanometer-componenten op de huidige chips.

Hoe fantastisch ook, dit feest kan volgens veel deskundigen niet eeuwig doorgaan. Chips zijn gemaakt van silicium. Een siliciumatoom heeft een doorsnee van ruwweg 0,2 nanometer. De grenzen van de miniaturisering zijn dus in zicht. Daar komt bij dat elektronen, die de dragers van informatie zijn in deze transistors, op deze schaal grillig gedrag vertonen. De kwantummechanische wetten die het gedrag van elementaire deeltjes beschrijven, staan toe dat elektronen zich plotseling op een andere plek bevinden of zelfs op twee plekken tegelijk. Uiteraard is dit niet best voor de stabiliteit van een chip.

©PXimport

System on a chip

Volgens pessimisten komt hiermee een einde aan de Wet van Moore, de vuistregel dat het aantal transistors op een chip pakweg elke twee jaar verdubbelt. Nieuwe processors, zo vrezen ze, zullen niet meer de spectaculaire prestatiesprongen laten zien waaraan we gewend en verslaafd zijn geraakt. Nu zijn ontwerpers van chips gelukkig niet voor één gat te vangen. Het succes van de smartphone is gebaseerd op de uitvinding van de ‘system on a chip’, oftewel SoC. Door de processor, de grafische processor, het werkgeheugen en andere vitale onderdelen op één chip samen te brengen, kan flink wat ruimte en energie worden bespaard. Een laag energieverbruik is essentieel in mobiele apparaten: de accu raakt minder snel leeg en er hoeft minder warmte te worden afgevoerd. Traditionele laptopprocessors, zoals die van Intel, worden bij intensieve taken zo heet dat de chip zelfs bij een loeiende ventilator zijn kloksnelheid moet terugschakelen. SoC’s, zoals de M1-chip in de nieuwste laptops van Apple, blijven dermate koel dat een ventilator meer luxe dan noodzaak is. De nieuwste MacBook Air bevat er dan ook geen.

De regel dat het aantal transistors elke twee jaar verdubbelt, gaat niet zo lang meer mee

-

Geen vreemde eend

Maar hoe slim ook ontworpen, ook SoC’s lopen tegen de grenzen van de miniaturisering aan. Daarom beginnen chipontwerpers aan het fundamentele karakter van de traditionele siliciumchip te morrelen. Zoals we al zagen, is een chip een apparaat waarin groepjes elektronen heen en weer geschoven worden. Dat zijn elementaire deeltjes met een massa en een elektrische lading. Ze zijn daardoor gemakkelijk te manipuleren. Maar wanneer ze bewegen, warmen ze hun omgeving op. Er bestaat ook een deeltje dat dit nadeel niet heeft: het foton. Dit deeltje, feitelijk het kwantum van het elektromagnetische veld, is bepaald geen vreemde bijt in de ICT-industrie. Het wordt al jaren gebruikt om data te verzenden door glasvezelkabels en ook LiDAR berust op het uitzenden en opvangen van fotonen. Maar zodra deze deeltjes in een computer aankomen, geven ze het estafettestokje door aan elektronen, zodat er bewerkingen op kunnen worden uitgevoerd. Het onderzoeksveld dat zich met deze wisselwerking tussen fotonen en elektronen bezig houdt, wordt fotonica genoemd.

©PXimport

Grofstoffelijk

Fotonen kunnen dus worden gebruikt om data te verzenden en de omgeving te scannen, maar vooralsnog niet om te rekenen. Dat is teleurstellend, want fotonische schakelingen zijn in theorie ontzettend snel en erg energiezuinig.

Martijn Heck is sinds 2020 hoogleraar fotonica aan de Technische Universiteit Eindhoven, na eerder werkzaam te zijn geweest aan de Universiteit van Aarhus in Denemarken, waar hij in 2013 de Photonic Integrated Circuits-groep oprichtte. Het probleem met fotonica, zo zegt hij, is dat het niet schaalt. Het is vooralsnog dus onmogelijk fotonische schakelingen te maken die even klein zijn als elektronische transistors. Alleen al om die reden zal fotonica niet de transistor vervangen, aldus Heck tijdens een videogesprek. “Fotonica is te grofstoffelijk.” De voordelen van fotonica blijken subtieler. Fotonica, zo verzekert Heck, is goed in lengte. In het verzenden van data over lange afstanden dus. Glasvezelverbindingen vormen het ultieme voorbeeld, maar met de hoge datasnelheden van en naar de huidige microprocessors zijn decimeters en centimeters eveneens niet te negeren afstanden. Fotonica is daarom de aangewezen technologie om in datacenters servers met elkaar te verbinden. Dit wordt al in praktijk gebracht. Energiebesparing is daartoe opnieuw de belangrijkste stimulans.

©PXimport

Multiplexen

De volgende stap is het verbinden van verschillende chips binnen één systeem. Het Californische bedrijf AyarLabs bijvoorbeeld beweert een technologie in huis te hebben waarmee over afstanden van enkele millimeters tot twee kilometer bandbreedtes kunnen worden behaald die duizend keer hoger liggen dan die van traditionele elektrische verbindingen, bij een tien keer zo laag energieverbruik.

Heck is ervan overtuigd dat in de toekomst de verschillende onderdelen van één en dezelfde chip met fotonica verbonden zullen worden. Dat is nu nog problematisch, omdat het om heel korte afstanden gaat, waarbij de omzetting van elektronisch naar fotonisch en terug een wissel trekt op het energieverbruik. Dat er niettemin toekomst in zit, komt door de hoge bandbreedtes die behaald kunnen worden door te multiplexen: verschillende golflengtes kunnen tegelijkertijd over hetzelfde kanaal worden verzonden. Want niet alleen bandbreedte, maar ook bandbreedtedichtheid kan in huidige chips problematisch zijn, aldus Heck. “Denk in termen van het aantal pinnetjes waarmee de chip op het moederbord vast zit. Dat is beperkt. Multiplexen is daarom een goede oplossing.” Voor dat dit allemaal goed mogelijk is, dienen er nog wel wat materiaaltechnische hindernissen overwonnen te worden. Op dit moment berust de hele halfgeleiderindustrie op silicium. Dat is helaas een materiaal dat niet geneigd is licht uit te zenden. Er wordt daarom volop geëxperimenteerd met andere materialen, zoals galliumarsenide en indiumfosfide, die wel in staat zijn binnen een chip fotonen te produceren. Maar de integratie van zulke materialen in bestaande productielijnen voor chips is niet triviaal.

Kwantumcomputers

Zodra deze problemen overwonnen zijn, voorziet Heck wel degelijk fotonische systemen die specifieke rekenkundige bewerkingen uit kunnen voeren. In theorie zijn optische computers megaparallel. Dat maakt ze geschikt voor specifieke toepassingen, zoals het doorzoeken van databases. Het Britse bedrijf Optalysys pioniert hierin. Het parallelle karakter van fotonica maakt het ook geschikt voor neuromorfische processors: chips die net als dierlijke hersenen signalen tegen elkaar afwegen. In moderne SoC’s zijn zulke modules soms al aanwezig ter ondersteuning van machine learning en AI. Heck stelt zich voor dat zulke modules in de toekomst fotonisch van aard zullen zijn. Ze zullen veel krachtiger zijn dan de huidige neuromorfische modules, vanwege het feit dat licht uitgesplitst kan worden in verschillende frequenties die parallel verwerkt kunnen worden.

Verrassend genoeg ontwaart Heck ook raakvlakken tussen fotonica en kwantumcomputing. Kwantumcomputers zijn apparaten die problemen oplossen door gebruik te maken van de meest fundamentele eigenschappen van de natuur, zoals die beschreven worden door de kwantummechanica. Volgens deze theorie, die de afgelopen honderd jaar aan alle kanten experimenteel bevestigd is, bevinden elementaire deeltjes zich van nature in een zogenaamde superpositie. Dit is een vrij complex natuurkundig concept, maar in een kwantumcomputer betekent het dat de basiseenheid van informatie geen bit is, maar een qubit. Waar een bit 0 of 1 is, is een qubit een superpositie van deze twee toestanden. Qubits kunnen bovendien met elkaar verstrengeld zijn, een mysterieuze toestand waar Einstein zelf nog zijn tanden op stuk heeft gebeten. Hoe dan ook, de theorie voorspelt dat kwantumcomputers in principe reusachtig krachtig zijn in, vooral, het ontrafelen van processen in de natuur. De verwachting is dat ze zullen leiden tot doorbraken in onder meer de materiaalkunde en de farmacie.

©PXimport

Wie zegt dat hij de kwantumfysica begrijpt, heeft er volgens Feynman niets van begrepen

-

Xanadu en PsiQuantum

De even beroemde als excentrieke natuurkundige Richard Feynman zei ooit dat wanneer iemand zegt de kwantumfysica te begrijpen, dat het bewijs vormt dat hij er niets van begrepen heeft. Onderzoekers die kwantumcomputers proberen te ontwerpen, tasten inderdaad voor een belangrijk deel in het duister. Het principe lijkt te werken, maar het blijkt uiterst moeilijk om het aantal qubits op te schalen tot het niveau waarop een apparaat werkelijk bruikbaar wordt. Elke toegevoegde qubit verdubbelt weliswaar de rekenkracht, maar dat lijkt ook te gelden voor de complexiteit van het systeem. IBM heeft niettemin simpele kwantumcomputers online staan waar geïnteresseerden nu al eenvoudige bewerkingen op uit kunnen voeren.

Fysieke qubits kunnen uit allerlei deeltjes (of grotere objecten) bestaan. Die dienen meestal wel tot bijna het absolute nulpunt afgekoeld te worden om te voorkomen dat omgevingsinvloeden de superpositie om zeep helpen. Fotonen daarentegen kunnen ook bij kamertemperatuur als qubits worden gebruikt. De Canadese start-up Xanadu presenteerde dit voorjaar ‘s werelds eerste fotonische kwantumchip. En deze zomer haalde het Californische bedrijf PsiQuantum 450 miljoen dollar op voor de ontwikkeling van de Q1: een op silicium gebaseerde fotonische kwantumcomputer met superieure foutcorrectie – een heet hangijzer in de wereld van de kwantumcomputing.

©PXimport

Wereldspelers à la ASML

Te midden van deze ontwikkeling rijst de vraag: in welke ontwikkelingsfase bevindt de fotonica zich als je het vergelijkt met de ontwikkeling van de micro-elektronica, als we de eerste Intel-chip uit 1971 als ijkpunt nemen? “In de buurt van 1980”, zegt Heck. Dat is een intrigerend antwoord. Dat betekent namelijk dat deze industrie een grote toekomst tegemoet gaat. Heck bevestigt dat hij exponentiële groei voor zich ziet.

Of jonge Nederlandse fotonicabedrijven zullen uitgroeien tot wereldspelers à la ASML, valt volgens Heck niet te zeggen. Dat hangt volgens hem ook sterk af van de manier waarop de huidige giganten, zoals de Taiwanese chipfabrikant TSMC, op deze ontwikkelingen inspelen. Hij benadrukt wel dat we in Nederland over ‘strategische technologie’ beschikken. De overheid onderkent dat ook. Vorig jaar nam het ministerie van Economische Zaken deel aan een investering van 35 miljoen euro in het Eindhovense SMART Photonics, maker van fotonische chips op basis van indiumfosfide. Zonder dat geld was dit innovatieve bedrijf met 75 werknemers hoogstwaarschijnlijk in Aziatische handen gevallen. Of de Wet van Moore gered zal worden door fotonica, lijkt inmiddels de verkeerde vraag. Moores vuistregel heeft eigenlijk alleen betrekking op de traditionele computerchip. Maar met fotonica slaat de computerindustrie een weg naar onbekend terrein in. Wellicht wacht aan de horizon de heilige graal in de vorm van een superkrachtige fotonische kwantumcomputer. Maar energiezuinige datacenters zijn ook de moeite waard.

©PXimport

De twee gezichten van het licht

Licht is een van de meest alomtegenwoordige natuurverschijnselen. Het is dan ook niet vreemd dat licht in allerlei scheppingsmythes prominent figureert. Toch bleef het lang een van de meest ongrijpbare verschijnselen. De wijsgeren van het klassieke Griekenland, die voor hun tijd zeer methodisch over de wereld nadachten, zaten verschrikkelijk fout. Epicurus (341-270 voor Christus) geloofde dat de wereld louter uit atomen en leegte bestond. In zijn Brief aan Herodotus speculeerde hij dat objecten voortdurend heel dunne, uit atomen bestaande vliesjes afscheiden. Zodra zo’n atomair vliesje ons in de ogen vliegt, wordt het object zichtbaar. Plato zat minstens even fout door te veronderstellen dat we zien doordat onze ogen stralen uitzenden. Pas in de 11de eeuw maakte de Arabische wetenschapper Alhazen korte metten met dit idee. De Hagenaar Christiaan Huygens (1629-1695) was ervan overtuigd dat licht uit een golf bestaat dat door een vooralsnog onbekend medium zou reizen. Zijn tijdgenoot Isaac Newton was het daar niet mee eens. Hij vond het gedrag van licht makkelijker te verklaren door aan te nemen dat het uit deeltjes bestond. Deze theorie werd leidend, totdat James Maxwell in 1865 voorspelde dat licht een golf is in het zogenoemde elektromagnetische veld en Heinrich Hertz dat in 1888 overtuigend bewees. Maxwells theorie vertoonde wel lacunes. Die bleken oplosbaar door te veronderstellen dat zijn golven op hun beurt uit brokjes bestaan: de zogenoemde kwanta van het elektromagnetische veld, oftewel fotonen, afgeleid van het Griekse woord voor licht. Albert Einstein ontving in 1921 de Nobelprijs voor zijn bedrage aan deze theorie. Licht bestaat dus uit golven én deeltjes Deze ‘golf-deeltjesdualiteit’ is tegenwoordig algemeen aanvaard.

Het is wachten op de eerste superkrachtige fotonische kwantumcomputer

-

▼ Volgende artikel
Amazon komt met Fallout-realityshow waarin deelnemers in schuilkelder moeten leven
© Bethesda
Huis

Amazon komt met Fallout-realityshow waarin deelnemers in schuilkelder moeten leven

Amazon werkt aan een realityshow rondom de Fallout-franchise waarin deelnemers moeten zien te overleven in een schuilkelder.

Nieuw op ID: het complete plaatje

Misschien valt het je op dat er vanaf nu ook berichten over games, films en series op onze site verschijnen. Dat is een bewuste stap. Wij geloven dat technologie niet stopt bij hardware; het gaat uiteindelijk om wat je ermee beleeft. Daarom combineren we onze expertise in tech nu met het laatste nieuws over entertainment. Dat doen we met de gezichten die mensen kennen van Power Unlimited, dé experts op het gebied van gaming en streaming. Zo helpen we je niet alleen aan de beste tv, smartphone of laptop, maar vertellen we je ook direct wat je erop moet kijken of spelen. Je vindt hier dus voortaan de ideale mix van hardware én content.

Er gingen onlangs al geruchten over de realityshow die naar Amazon Prime Video moet komen, maar nu is de show officieel goedgekeurd en wordt er zelfs naar deelnemers gezocht. In het spelprogramma moeten spelers in een schuilkelder leven en meedoen aan een reeks competitieve spellen die de zeven kerneigenschappen uit de Fallout-reeks uitlichten: kracht, perceptie, charisma, intelligentie, uithoudingsvermogen, geluk en wendbaarheid.

Volgens de beschrijving "is het een spel van machtspatronen, populariteit en sociale strategieën waarbij uiteindelijk een gigantische geldprijs gewonnen kan worden". Verdere concrete detail zijn er nog niet, en het is ook niet duidelijk vanaf wanneer de realityshow op Amazon Prime Video te zien zal zijn.

Gebaseerd op de games

Amazon heeft de smaak goed te pakken wat betreft Fallout: in 2024 begon de fictieve, gelijknamige serie al op de streamingdienst, gebaseerd op de games van Bethesda. Met acteurs als Ella Purnell, Walton Goggins en Kyle MacLachlan wordt een alternatieve geschiedenis (en toekomst) geschetst waarbij de Verenigde Staten door een nucleaire winter geteisterd worden. Diverse samenlevingen houden het jarenlang vol in schuilkelders, en wanneer ze daar weer uit durven te komen, maken ze kennis met een aardoppervlakte die voorgoed veranderd is.

De serie bleek een grote hit en het eerste seizoen behaalde meer dan honderd miljoen kijkers. Het tweede seizoen is eind vorig jaar begonnen – wekelijks wordt er een nieuwe aflevering op Amazon Prime Video getoond. Het ziet er naar uit dat Amazon nu wil inspelen op dit succes door ook aan een realityshow binnen deze franchise te werken.

▼ Volgende artikel
Hoeveel RAM heb je in 2026 echt nodig voor je laptop of pc?
© Batorskaya Larisa
Huis

Hoeveel RAM heb je in 2026 echt nodig voor je laptop of pc?

Een trage laptop is vaak te wijten aan één specifiek onderdeel: het werkgeheugen. De tijd dat 8 GB volstond, ligt in 2026 definitief achter ons. Maar hoeveel gigabytes heb je nu écht nodig voor een soepele ervaring met Windows en zware AI-functies? Wij duiken in de cijfers en helpen je een miskoop te voorkomen.

De eisen die software aan onze computers stelt veranderen razendsnel, zeker nu kunstmatige intelligentie diep in besturingssystemen wordt geïntegreerd. Waar je een paar jaar geleden nog prima uit de voeten kon met 8 GB werkgeheugen, liggen de standaarden in 2026 een stuk hoger. Sta je op het punt een nieuwe laptop of desktop aan te schaffen? Wij leggen uit hoeveel RAM je nodig hebt om de komende jaren vlot en toekomstbestendig te blijven werken.

Nog snel op zoek naar betaalbare geheugenplankjes? Check Kieskeurig.nl!

Wacht niet te lang met kopen!

Houd er rekening mee dat de prijzen van hardware momenteel onder druk staan. Volgens recente berichtgeving dreigen computers op korte termijn aanzienlijk duurder te worden door een prijsstijging van geheugenchips. Door de wereldwijde explosie in de vraag naar AI-hardware en strategische productiebeperkingen bij fabrikanten, lopen de kosten voor DRAM-modules snel op. Deze prijsstijgingen worden door computerfabrikanten direct doorberekend aan de consument, waardoor laptops en desktops honderden euro's duurder kunnen uitvallen. Heb je een geschikt model op het oog, dan is het raadzaam om je aankoop niet onnodig uit te stellen om deze prijsgolf voor te zijn.

Waarom 16 GB het absolute minimum is geworden

Voorheen werd 8 GB RAM gezien als de gouden standaard voor basisgebruik, maar in 2026 is dit advies verouderd. Moderne besturingssystemen zoals Windows 11 en macOS 26 snoepen al een aanzienlijk deel van het geheugen op, nog voordat je een programma opent. Tel daar webbrowsers bij op die per tabblad steeds meer geheugen vragen en je computer loopt al snel vol. Voor simpele taken zoals tekstverwerking, e-mailen en het streamen van video's is 16 GB werkgeheugen daarom de nieuwe ondergrens. Hiermee voorkom je dat je computer voortdurend data naar bijvoorbeeld de tragere harde schijf moet verplaatsen, wat zorgt voor een trage en haperende gebruikservaring.

©Negro Elkha

De opkomst van AI-pc’s en de 32 GB-standaard

Wie zijn computer intensiever gebruikt of een toekomstbestendige aankoop wil doen, doet er verstandig aan om direct voor 32 GB RAM te kiezen. De belangrijkste reden hiervoor is de opmars van lokale AI-toepassingen. De zogenoemde AI-pc’s en Copilot+-systemen voeren zware berekeningen lokaal uit op de processor, wat een zware wissel trekt op het beschikbare werkgeheugen. Daarnaast vragen moderne games steeds vaker minimaal 16 GB tot 32 GB om soepel te draaien met hoge grafische instellingen. Met 32 GB heb je voldoende ademruimte om zware software, tientallen browser-tabbladen en achtergrondprocessen tegelijkertijd te draaien zonder prestatieverlies.

Wanneer is 64 GB of meer noodzakelijk?

Voor de gemiddelde consument en zelfs de fanatieke gamer is 64 GB werkgeheugen vaak nog overkill, maar er is een specifieke groep gebruikers voor wie dit in 2026 geen overbodige luxe is. Als je regelmatig aan de slag gaat met professionele videobewerking in 4K- of 8K-resolutie, complexe 3D-rendering of het draaien van zware virtuele machines, dan is deze hoeveelheid geheugen wel zo prettig. Ook ontwikkelaars die experimenteren met het lokaal draaien van grote taalmodellen (LLM’s) zullen merken dat 32 GB al snel tekortschiet. In deze scenario's fungeert het extra geheugen als een noodzakelijke buffer om wachttijden tijdens het renderen of compileren aanzienlijk te verkorten.

Snelheid is net zo belangrijk als capaciteit

Naast de hoeveelheid gigabytes is het in 2026 nogal belangrijk om te letten op de generatie van het geheugen. We bevinden ons in een overgangsfase waarin DDR4 langzaam heeft plaatsgemaakt voor het veel snellere DDR5-geheugen. Bij de aanschaf van een nieuw systeem heeft DDR5 zodoende absoluut de voorkeur. Deze nieuwe standaard biedt een veel hogere bandbreedte, wat betekent dat de processor gegevens sneller kan ophalen en wegschrijven. Dit merk je direct in de reactiesnelheid van het systeem, zeker in combinatie met snelle processors. Een systeem met 16 GB snel DDR5-geheugen kan in de praktijk vlotter aanvoelen dan een ouder systeem met 32 GB DDR4-geheugen.

Populaire merken voor werkgeheugen

Wanneer je op zoek gaat naar betrouwbaar werkgeheugen of een kant-en-klaar systeem met kwaliteitscomponenten, kom je al snel een aantal gevestigde namen tegen die de markt domineren. Corsair is bijvoorbeeld al jaren een favoriet onder gamers en systeembouwers vanwege hun Vengeance-lijn, die bekendstaat om stabiliteit en goede koeling. Een andere reus in deze industrie is Kingston, dat met hun Fury-reeks betrouwbare modules levert die compatibel zijn met vrijwel elk moederbord. Voor wie op zoek is naar pure prestaties en hoge kloksnelheden, is G.Skill vaak de eerste keuze, vooral met hun Trident-serie die populair is bij overklokkers. Tot slot is Crucial, een merk van chipgigant Micron, een uitstekende keuze voor gebruikers die op zoek zijn naar een degelijke prijs-kwaliteitverhouding zonder onnodige opsmuk.