ID.nl logo
Huis

University Racing Eindhoven en de zelfrijdende raceauto

Eerst heel voorzichtig, stapvoets rondjes rijden tussen een stel pylonen, om vervolgens tot wel 130 kilometer per uur over een circuit te scheuren. Dat is het doel van de URE 14, een elektrische zelfrijdende raceauto van een Eindhovens studententeam. Autonoom rijden is immers de toekomst.

Het University Racing Eindhoven (URE) is een studententeam van de TU Eindhoven (TU/e). Het deelt een werkplaats met het Solar Team en een drone-team. In de hoeken daarvan staan de URE 1 tot en met 11. Andere tijden, want onder leiding van ‘captain’ Dion Engels bouwt het team aan de eerste zelfrijdende raceauto uit deze stal, de URE 14. Met 62 deelnemers is dit het grootste van alle studententeams van de TUe. Sommigen van hen zijn fulltime betrokken bij het project, de meesten doen er zijdelings aan mee.

“Ik heb zelf net een master Technische Natuurkunde afgerond, maar er zitten ook studenten van opleidingen zoals Werktuigbouwkunde en Industrieel Design bij”, vertelt Engels aan PCM. Ook werkt het University Racing Team samen met hbo-studenten van Fontys-opleidingen.

Het URE-team doet mee aan de Formula Student-competitie. Dat is een competitie tussen tientallen universiteitsteams uit heel Europa. De teams nemen het tegen elkaar op in verschillende categorieën. De nieuwste categorie, naast elektrisch rijden en het rijden op een normale verbrandingsmotor, is autonoom rijden. Voor alle categorieën werkt de competitie hetzelfde: er is geen massale start van tientallen auto’s tegelijkertijd, maar een tijdrit over een circuit waarbij de auto’s zo snel mogelijk langs een aantal pylonen moeten rijden. In de nieuwe categorie doen die auto’s dat dus helemaal zelf.

Zo werkt-ie

De URE 14 dankt zijn autonomie aan drie cruciale onderdelen. De auto maakt gebruik van twee lidars (laser-radars) aan de voorkant. Deze zorgen voor de eerste stap. “De lidar-camera’s kijken een meter of twintig, dertig vooruit”, legt Engels uit. “Ze registreren obstakels, maar kunnen niet zien wát dat zijn. Ze scannen dus alles, niet alleen de pylonen die ze moeten ontwijken maar ook de berm, of de bomen langs de weg.” De lidars houden alleen in de gaten wat er vóór de auto gebeurt, en niet erachter of ernaast. Desondanks hebben ze een kijkhoek van tweehonderd graden, dus ze verzamelen nog steeds veel data. Volgens Engels bestaat die data voornamelijk uit simpele puntjes.

Daarom, en dat is stap twee, zitten er achterop de auto ook nog twee gewone camera’s. Die interpreteren de simpele data die de lidars binnenhalen. Engels: “De camera bekijkt wát de lidars precies zien. Is dat een pylon, of is dat een zijmuur?” Ook registreren de camera’s de kleuren van de pylonen. De linkse hebben één kleur, de rechtse een andere. Op die manier kan de auto zijn eigen weg vinden.

Al het rekenwerk wordt gedaan door de computer die achterop de auto is gemonteerd – stap drie. Die is afkomstig van Nvidia. Dat heeft met de Drive PX2 een speciale, superkrachtige computer gemaakt die speciaal bedoeld is voor zelfrijdende auto’s. De PX2 kan een enorme berg informatie verwerken tijdens het racen. Dat is ook wel nodig, zegt Engels: “Hij moet alles wat hij ziet opslaan en kijken of dat nuttige of nutteloze informatie is. Van alle data die hij opneemt is misschien tien procent écht nuttig. Dat zijn de pylonen, terwijl de rest van het beeld, zoals de lucht of de berm, niet nodig zijn.”

©PXimport

Bijstellen

Je kunt niet zomaar iedere camera gebruiken. De camera’s die aan de computer zijn bevestigd horen bij de computer en zijn afkomstig van Nvidia zelf. Engels zegt dat het team een balans moet vinden tussen de mogelijkheden en de beperkingen van de camera en de computer. “Je wilt natuurlijk dat de camera zo ver mogelijk vooruit kan kijken. Dan kom je uit op zoveel mogelijk megapixels. En je moet denken aan je ‘refresh rate’. Je wilt niet dat je iedere vijf meter een opname maakt, want dat wordt een probleem als je honderd kilometer per uur rijdt. Aan de andere kant moet je ook opletten dat je de computer niet overlaadt met informatie door te veel data te sturen. Dan kan hij niet snel genoeg berekenen waar hij moet zijn.”

Zo ver is het in het begin van de wedstrijd nog niet. De eerste ronde is een heel rustige, voorzichtige verkenningsronde. De auto rijdt met zo’n tien kilometer per uur over het circuit om voorzichtig de route in kaart te brengen. Als hij die kent kan hij steeds sneller gaan rijden. Engels: “We gebruiken daarvoor een kunstmatige intelligentie die we zelf in de auto hebben geprogrammeerd. Het is net geen machine learning, maar de auto leert wel terwijl hij rijdt. Iedere ronde bekijkt hij of hij die ene bocht niet nóg ietsje sneller kan nemen.”

Opvallend aan de auto is dat die op mechanische wijze wordt aangestuurd. Aan het stuur zit een mechanisme dat de wielassen kan aansturen en wat de auto sneller of langzamer kan laten gaan. Engels: “Je zou de aansturing ook direct op de wielen kunnen aansluiten, maar dat is onveiliger. Stel dat er dan een softwarefout optreedt, dan kunnen de wielen ineens niet meer bewegen. Met tien kilometer per uur is dat niet zo’n probleem, maar als ‘ie harder gaat wel. Daarom mag directe besturing ook niet volgens de wedstrijdreglementen.”

Aerodynamisch

Om de wedstrijd te winnen hebben de studenten méér nodig dan alleen slimme autonomie: de auto moet van zichzelf ook snel zijn. Gelukkig is dat iets waar URE al meer dan tien jaar aan werkt. Het team heeft al veertien verschillende auto’s gehad waarmee het alles heeft geleerd over solide constructies, aerodynamica en het gebruik van de beste materialen. “Die kennis nemen we ook in deze auto mee”, zegt Engels. “We willen straks de vorm van onze oude auto’s op deze nieuwe zetten. Op dit moment bedenken we nog hoe we dat het beste kunnen doen. Als je bijvoorbeeld de vleugels erop zet, beperk je de ‘field of view’ van de lidar-camera’s. Daarom denken we ook aan het versimpelen en het weglaten van sommige onderdelen.”

Uiteindelijk is het doel natuurlijk om de auto zo snel mogelijk te laten rijden. Engels: “Autonomie kan straks veel beter rijden dan een coureur, want de computer maakt geen fouten. Als je straks volledige autonomie hebt is je auto de ‘bottleneck’, en dan moet je zorgen dat je daar alles uit haalt wat erin zit. Daar hebben we gelukkig al jaren ervaring in!”

▼ Volgende artikel
Philips Hue SpatialAware: dit is het en zo gebruik je het
© Philips Hue
Zekerheid & gemak

Philips Hue SpatialAware: dit is het en zo gebruik je het

Philips Hue SpatialAware is een nieuwe functie die lichtscènes afstemt op de indeling van je kamer. In plaats van kleuren 'los' over je lampen te verdelen, gebruikt Hue een ruimtelijke kaart waarbij rekening wordt gehouden met de onderlinge verhouding van je lampen. Het resultaat? De scènes voelen een stuk natuurlijker aan. Hoe zit dat precies, en hoe stel je het in?

In dit artikel

Philips Hue SpatialAware komt in het voorjaar van 2026 beschikbaar voor Hue Bridge Pro-gebruikers. Je leest wat deze functie doet, waarom je vooral verschil ziet in kamers met meerdere lichtpunten en hoe de AR-scan werkt. Ook leggen we uit hoe je het ruimtelijke model bijwerkt als je lampen verplaatst of toevoegt, bij welke 'geremasterde' scènes je SpatialAware kunt inschakelen en wat je in de praktijk aan het verschil ziet met en zonder SpatialAware.

Lees ook onze review van de Philips Hue Bridge Pro

Veel Hue-scènes bestaan vooral uit een palet: kleur + helderheid. De app houdt daarbij tot nu toe beperkt rekening met waar je lampen staan en op welke hoogte ze hangen. Het gevolg is dat een staande lamp in de hoek soms dezelfde kleur of felheid krijgt als spots boven de eettafel, terwijl je bij een scène als "zonsondergang" juist een logisch verloop verwacht dat door de ruimte loopt. In de praktijk voelt zo'n scène dan meer als losse lampen die toevallig hetzelfde thema draaien, in plaats van één lichtbeeld dat klopt vanuit een richting of 'bron'.

Je kunt het vergelijken met surround sound. Als je kanalen zonder plattegrond willekeurig aan speakers koppelt, hoor je wel geluid, maar de richting klopt niet. SpatialAware doet voor licht hetzelfde als een goede speakeropstelling voor audio: de plek in de ruimte wordt het uitgangspunt.

Wat SpatialAware anders doet

SpatialAware draait de aansturing om. Je scant je kamer met de camera van je telefoon of tablet, waarbij de Hue-app augmented reality gebruikt om vast te leggen waar je lampen zich bevinden: links of rechts, hoog of laag, plafond of vloer. Op basis daarvan slaat de Hue-app een ruimtelijk model van de kamer op, dat automatisch wordt bijgewerkt als je later lampen toevoegt. Kies je daarna een ondersteunde scène, dan verdeelt Hue kleur en helderheid bewust op basis van die posities. Daardoor krijgen plafondlampen en lampen op ooghoogte niet meer zomaar dezelfde tinten, maar spelen ze een eigen rol in het totale lichtbeeld.

Wanneer zie je het meeste effect

Heb je maar een paar Hue-lampen in je kamer, dan is het effect heel beperkt. Maar heb je in je kamer meerdere lampen op verschillende posities en hoogtes staan en/of hangen, dan is SpatialAware wel een mooie toepassing. Denk aan een woonkamer met plafondspots, een staande lamp naast de bank, een ledstrip achter het tv-meubel en sfeerverlichting in een kast. Dan valt er echt iets 'ruimtelijks' te verdelen en zie je sneller dat de scène als één geheel aanvoelt.

Bij scènes die op de natuur geïnspireerd zijn, zie je het verschil vaak als eerste, omdat dit soort scènes draait om een geleidelijke overgang. Denk aan het idee van een horizon: aan de ene kant warm en dieper van kleur, alsof de zon net ondergaat, en richting plafond juist lichter en koeler, zoals een heldere lucht. Zonder ruimtelijke logica kan zo'n verdeling op willekeur lijken, waardoor de sfeer niet helemaal klopt. Met SpatialAware kan Hue dat verloop koppelen aan de posities van je lampen, zodat de kleuren zich logischer verdelen en de scène als één geheel voelt.

©Philips Hue

Boven: Savanna Sunset zonder SpatialAware. Onder: Savanna Sunset mét SpatialAware.

Zo stel je Hue SpatialAware in

Open in de Hue-app de kamer waarin je SpatialAware wilt gebruiken en start de scan. De app begeleidt je terwijl je de ruimte filmt, zodat de posities van je lampen worden vastgelegd. Daarna sla je het ruimtelijke model op. Voeg je later lampen toe of verplaats je ze, dan scan je die kamer opnieuw zodat de kaart weer klopt.

Voor welke scènes kun je SpatialAware gebruiken?

Op dit moment werkt SpatialAware met ongeveer de helft van alle 'geremasterde' scènes uit de Scene Gallery. De nadruk ligt op natuur-scènes (bijvoorbeeld Savanna Sunset, Lake Placid en Mountain Breeze). Het belangrijkste om te onthouden: niet elke scène krijgt meteen SpatialAware. In de app hoort per scène zichtbaar te zijn of de functie wordt ondersteund.

©Philips Hue

Mountain Breeze met SpatialAware.

Dit heb je nodig

SpatialAware werkt alleen samen met de Hue Bridge Pro. Daarnaast heb je een smartphone of tablet nodig waarop de Hue-app geïnstalleerd is (downloaden voor iOS | downloaden voor Android), zodat er een scan gemaakt kan worden. Zonder die scan is er geen ruimtelijke kaart en kan SpatialAware niets verdelen.

Wat zie je in de praktijk?

De winst zit vooral in samenhang: scènes ogen netter en meer 'zoals bedoeld', omdat hoogte en positie van je lampen meetellen. Kleur en licht worden daardoor logischer verdeeld. Plafondlicht en sfeerverlichting zitten elkaar minder in de weg, omdat ze niet meer automatisch dezelfde tinten en felheid toebedeeld krijgen.

Hue SpatialAware: praktijkvoorbeeld

Op de foto (klik erop om hem groot te openen) zie je boven de Lake Mist-scène zonder SpatialAware en daaronder dezelfde scène mét SpatialAware. Als je kijkt naar de thumbnail van het scènevoorbeeld links onderin, dan zie je dat het voorbeeld in de onderste afbeelding beter klopt met wat je in de kamer ziet: de kleuren zijn verdeeld alsof je naar een horizon kijkt. Onderaan zitten warmere, oranje tinten, die geleidelijk opschuiven naar blauwere tonen richting 'lucht'.

Dat zie je vooral terug in de verdeling over de lampen. In de bovenste versie lijkt het alsof vooral één ledstrip de scène draagt, waardoor de rest van de verlichting minder meedoet. In de onderste versie vormen de lichtpunten meer één geheel: het licht boven en achter de deur links is nu bijvoorbeeld één duidelijke kleur in plaats van dat het bestaat uit meerdere losse tinten. Dat oogt rustiger en gelijkmatiger. Tegelijk voelt die onderste versie ook wat koeler, waardoor Lake Mist misschien niet de meest uitgesproken scène is om het verschil te demonstreren, maar je ziet wel goed wat SpatialAware doet: het maakt van losse kleuren een verdeling die beter past bij het idee achter de scène.

©Philips Hue

Privacy en veiligheid

Voor SpatialAware scan je je kamer met de camera. Die 3D-scan wordt vervolgens opgeslagen in de Hue-app. Of de kaart volledig lokaal blijft of ook opgeslagen wordt in de cloud hebben wij niet kunnen achterhalen. Ga er dus niet automatisch vanuit dat alles op je telefoon blijft. Als voorzorgsmaatregel kun je de Hue-app alleen cameratoegang geven op het moment dat je de scan doet en daarna kijken in iOS of Android of je die permissie weer wilt beperken. Kan er gevoelige informatie in beeld komen (bijvoorbeeld post, documenten of een whiteboard) tijdens het scannen? Berg dat dan even weg tot na je scan.  

View post on TikTok
▼ Volgende artikel
JBL introduceert BandBox-speakers met ingebouwde gitaarversterker en AI-tools
© JBL
Huis

JBL introduceert BandBox-speakers met ingebouwde gitaarversterker en AI-tools

JBL brengt met de BandBox-serie zijn eerste audioproducten uit die specifiek gericht zijn op het maken van muziek. De BandBox Solo en Trio zijn bluetooth-speakers die tegelijkertijd functioneren als versterker voor instrumenten. De opvallendste toevoeging is het gebruik van kunstmatige intelligentie om audiosporen in realtime te scheiden, wat het meespelen met bestaande nummers makkelijker moet maken.

De kern van de nieuwe serie is de zogeheten 'Stem AI'-technologie. Hiermee kunnen gebruikers specifieke onderdelen van een liedje, zoals de zang, drums of gitaar drums in realtime op het apparaat zelf kunt isoleren of verwijderen uit elk nummer. Voor muzikanten biedt dit praktische voordelen: je kunt een gitaarpartij isoleren om precies te horen hoe deze gespeeld wordt, of de partij juist wegdraaien om zelf mee te spelen over de originele begeleiding.

Voor één muzikant

De instapversie is de BandBox Solo, een compacte speaker met een vermogen van 18 watt RMS. Het apparaat beschikt over één ingang die geschikt is voor een gitaar of microfoon. Gebruikers kunnen via de JBL One-app diverse digitale versterkers en effecten zoals reverb, chorus en phaser instellen, waardoor externe effectpedalen in veel gevallen overbodig zijn. Daarnaast functioneert de Solo als audio-interface: via de usb-c-aansluiting koppel je hem aan een laptop om direct opnames te maken in muziekproductiesoftware (DAW).

Voor meerdere muzikanten tegelijk

Voor wie meer aansluitmogelijkheden of volume nodig heeft, is er de BandBox Trio. Dit model levert 135 watt vermogen en is uitgerust met een ingebouwde vierkanaalsmixer. Hierdoor is het mogelijk om met meerdere mensen tegelijk te spelen, bijvoorbeeld een zanger en twee instrumentalisten. De Trio onderscheidt zich verder door een verwisselbare accu die tot tien uur speeltijd biedt en een LCD-scherm voor directe feedback. Ook heeft dit model meer fysieke knoppen, zodat je het geluid tijdens het spelen kunt aanpassen zonder direct de app erbij te hoeven pakken.

Prijs en beschikbaarheid

De JBL BandBox Solo en Trio zijn vanaf februari verkrijgbaar. De BandBox Solo heeft een adviesprijs van 249,99 euro. De grotere BandBox Trio kost 599,99 euro. Een belangrijk detail voor vroege kopers is dat de 'looper'-functie, waarmee je laagjes muziek over elkaar opneemt, bij lancering nog niet beschikbaar is; deze wordt volgens JBL pas in oktober via een update toegevoegd.

Wat zijn 'stems'?

In de muziekproductie verwijst de term 'stems' naar gegroepeerde audiosporen die samen een onderdeel van een nummer vormen. Denk bijvoorbeeld aan een 'drum-stem' (waarin de kick, snare en bekkens zijn samengevoegd) of een 'zang-stem' (hoofdzang plus achtergrondkoortjes). De AI in de JBL BandBox probeert een compleet nummer digitaal op te delen in deze hoofdgroepen - zoals bas, drums, zang en overige instrumenten - zodat je controle krijgt over de balans zonder dat je de originele studiobestanden nodig hebt.