ID.nl logo
AI: vloek of zegen?
© jirsak - stock.adobe.com
Huis

AI: vloek of zegen?

Artificiële intelligentie (AI) is een term die je dagelijks hoort en leest, en die bij veel mensen uiteenlopende, soms wonderlijke of zelfs angstaanjagende, beelden oproept. In dit artikel leggen we uit wat artificiële intelligentie is, wat het niet is en wat je er zoal mee kunt doen.

In dit artikel lees je hoe AI werkt, waar het goed in is en wat de eventuele risico’s zijn. Ook benoemen we enkele handige AI-toepassingen waar je zelf mee aan de slag kunt:

  • Chatbots
  • Beeldgeneratoren
  • Audiotoepassingen als muziekjes of liedjes maken en audiobestanden verbeteren
  • Videogeneratoren

Heel interessant: Zo ga je aan de slag met je persoonlijke chatbot

Tip 01: Logisch

In de afgelopen jaren hebben computerprogramma’s veel processen geautomatiseerd. Deze programma’s waren gebaseerd op regels (rule based), en hadden dus een logische opbouw. De mens leverde de regels en de input, en het programma deed de rest. Zelfs als je niet kunt programmeren, kun je voor eenvoudige taken de regels zelf wel bedenken. Neem bijvoorbeeld pseudocode (een beschrijving van de logica van een algoritme, zonder de strikte syntax van een programmeertaal) voor het berekenen van een gemiddelde. Deze kan er als volgt uitzien:

Klassieke, regelgebaseerde software is dus effectief voor taken die een vaste logica volgen, maar er is sowieso één domein waar zulke programma’s slecht presteren: het herkennen van patronen. Schrijf maar eens de pseudocode uit voor een programma dat moet herkennen of er een hond of kat op een afbeelding staat, zonder uiteraard specifieke diernamen in je code te gebruiken. Met de regel ‘als het dier twee ogen, twee oren, vier poten en een staart heeft, dan […]’ kom je er helaas niet.

Lees ook eens de 5-delige cursus over programmeren in Python met ChatGPT

Python-code voor de berekening van gemiddelden: de logica zelve.

Tip 02: Neuraal netwerk

Dit verklaart bijvoorbeeld ook waarom het bijvoorbeeld veel eenvoudiger is een robot te programmeren die volgens een geijkt patroon deksels op potjes plaatst dan een robot die peren plukt en het patroon van rijpe, volgroeide peren moet zien te herkennen in de boomgaard. Zo’n robot ontwikkelen blijkt behoorlijk complex. Mensen zijn hierin veel vaardiger, vooral omdat menselijke hersenen heel goed zijn in patroonherkenning, eigenlijk al vanaf de geboorte.

Bij patroonherkenning volgen de hersenen geen strikte regels, zoals ‘Als hij blauwe ogen, een bril en een stompe neus heeft, is het oom Ben’, maar reageren ze direct op het herkennen van het patroon: ‘Dit is oom Ben’. Dit is mogelijk doordat onze hersenen ongeveer 85 miljard neuronen bevatten, die via uitlopers of vertakkingen elektrische verbindingen (synapsen) kunnen maken met andere neuronen. Deze kunnen zich op hun beurt weer met andere neuronen verbinden, wat automatisch tot patroonherkenning leidt (zie ook het kader ‘Koekjes bakken’).

©whitehoune - stock.adobe.com

Neuraal netwerk: geactiveerde neuronen activeren via synapsen ook andere neuronen.

Koekjes bakken Stel je voor dat je een geur ruikt die je terugbrengt naar een vroegere ervaring, zoals de geur van versgebakken koekjes je doet herinneren aan oma’s keuken. Het proces in de hersenen werkt als volgt. Eerst detecteren geurreceptoren de geur, waarna signalen via neuronen naar de hersenen gestuurd worden. Deze signalen bereiken de reukcentra in de hersenen, waar neuronen de geur verwerken en beoordelen op basis van eerder opgeslagen informatie. De geurinformatie wordt via synapsen doorgegeven van het ene naar het andere neuron. Hierbij komen neurotransmitters vrij die zich aan receptoren op het volgende neuron binden. Deze neurale verbindingen bereiken delen van de hersenen die verantwoordelijk zijn voor het geheugen, zoals de hippocampus. Door dit netwerk van verbindingen wordt een oude herinnering, zoals die van de koekjes in oma’s keuken, geactiveerd.

Tip 03: Lagen

Computerwetenschappers begrepen al snel dat klassieke, regelgebaseerde programma’s niet geschikt waren voor patroonherkenning. Ze zagen in dat ze neurale netwerken moesten proberen na te bootsen in software, geïnspireerd door de werking van de menselijke hersenen.

Laten we een voorbeeld van een neuraal netwerk bekijken zoals dit wordt gebruikt om te bepalen of een foto een hond of een kat wordt getoond. De invoerlaag van het netwerk vertegenwoordigt het startpunt. Het bestaat uit wiskundige functies, hier neuronen genoemd, die elk een specifiek stukje informatie van de foto (met een hond of een kat) representeren, zoals kleur of helderheid van een pixel.

Na de invoerlaag komen de tussenliggende lagen. Elke laag bestaat opnieuw uit meerdere neuronen die informatie ontvangen van de voorgaande laag. Binnen elke neuron worden wiskundige berekeningen uitgevoerd om te bepalen hoe belangrijk de ontvangen informatie is, vergelijkbaar met hoe neuronen in het menselijk brein informatie ontvangen, verwerken en doorgeven. In deze tussenliggende lagen proberen de neuronen specifieke patronen in de gegevens te herkennen, zoals de vorm van de oren of de textuur van de vacht. Elke laag kan zich specialiseren in het herkennen van steeds complexere kenmerken. Deze lagen fungeren als de ‘denkende’ delen van het netwerk.

Uiteindelijk bereikt de informatie de uitvoerlaag. Het neuron in deze laag dat het meest actief is – dus met de hoogst gewogen waarde na alle berekeningen – geeft aan of de foto een hond of een kat toont.

Een digitaal neuraal netwerk bestaat uit een invoerlaag, tussenliggende lagen (verborgen) en een uitvoerlaag.

 Tip 04: Deep learning

Er is nu wel een structuur van een neuraal netwerk om honden en katten te onderscheiden, maar hoe weet de computer welke neuronen moeten worden geactiveerd en hoe sterk bepaalde verbindingen tussen neuronen moeten worden voor de correcte uitvoer? Daarvoor moet dit netwerk worden getraind. Dat gebeurt door vele duizenden foto’s van honden en katten aan het netwerk te tonen en telkens aan te geven of het om een hond of een kat gaat. De computer stuurt dan de verbindingen binnen het neurale netwerk bij, tot dit hopelijk uiteindelijk zelf het juiste antwoord geeft bij nieuwe foto’s. We geven dus als het ware de input en de output en laten de computer zelf het optimale netwerk vormen.

De binnenste lagen worden vaak ‘verborgen lagen’ genoemd, omdat we als mens nauwelijks zicht hebben op hoe de verbindingen binnen deze lagen precies worden gevormd. Een soort ‘black box’ dus, wat veel mensen ongerust maakt (zie ook tip 7). Op YouTube toont Andrej Karpathy uitgebreid hoe je neurale netwerken kunt trainen. Dit proces, een vorm van machine learning, staat bekend als ‘deep learning’ vanwege van de vele lagen in zulke netwerken.

Een heel klein stukje deep learning op het niveau van de computer.

Tip 05: Patronen genereren

Neurale netwerken zijn dus effectief voor het detecteren en herkennen van patronen, maar ze kunnen ook worden gebruikt om patronen te genereren. Hiervoor werden oorspronkelijk twee complementaire netwerken gebruikt: de Generative Adversarial Networks (GAN’s), bestaande uit een discriminator en een generator.

De generator maakt afbeeldingen die de discriminator beoordeelt. Aanvankelijk vertelt een menselijke operator de discriminator welke afbeeldingen, bijvoorbeeld van menselijke gezichten, echt zijn en welke door de generator zijn gemaakt. De generator leert vervolgens van de discriminator welke afbeeldingen het beste waren en waarom. Zo verbeteren beide netwerken elkaar tot de creaties van de generator bijna perfect zijn. Het resultaat van zo’n GAN zie je op www.thispersondoesnotexist.com (druk telkens op F5).

Er zijn ook andere technieken voor het genereren van patronen, zoals ‘diffusionmodellen’. Hierbij begin je met bijvoorbeeld 10% van een afbeelding om te zetten in ruis en geef je als opdracht deze beschadigde input naar een acceptabele output te transformeren, uiteraard met de nodige trainingsdata. Dit netwerk koppel je vervolgens aan een tweede netwerk dat afbeeldingen met 20% ruis omzet in afbeeldingen met 10% ruis, en zo verder, tot uiteindelijk ook een inputafbeelding met 100% ruis (of: niets) een degelijke output oplevert. Voorbeelden van dergelijke modellen zijn Stable Diffusion, Dall-E en Midjourney.

Lees ook de vergelijkende test: Dall-E of SDXL: wie maakt betere plaatjes?

Deze persoon bestaat niet (met dank aan GAN-netwerk StyleGAN2).

Tip 06: Menselijke taal

Beeldpatronen genereren bleek dus mogelijk, maar de uitdaging van menselijke taal is nog groter. Aanvankelijk werd er geëxperimenteerd met regelgebaseerde programma’s, zoals de chatbot ELIZA uit 1966, maar deze bleken al snel compleet ontoereikend. Ongeveer 10 jaar geleden kwam Word2Vec uit, gebaseerd op Natural Language Processing (NLP). Hierbij worden woorden die vaak in vergelijkbare contexten voorkomen, dicht bij elkaar in een vectorruimte – een soort getallenlijst – geplaatst. Dit helpt bij het ontdekken van taalkundige patronen en relaties tussen woorden, nuttig bij onder meer automatische vertaling en tekstanalyse.

De ontwikkeling ging nog een flinke stap verder met Large Language Models (LLM’s), zoals GPT (Generative Pre-trained Transformer). Terwijl NLP-modellen zich richten op het begrijpen van relaties tussen individuele woorden, kan men bij LLM’s hele tekstfragmenten laten interpreteren en ook genereren via een neuraal netwerk dat getraind is op ‘next word prediction’. Dus wanneer een AI-chatbot als ChatGPT of Gemini een woord genereert, dan is dit woord eigenlijk weinig meer dan een gegevenselement dat volgens het netwerk vaak volgt op voorgaande elementen. In de Playground van OpenAI (betaald met tokens geen onderdeel van ChatGPT) en bij Hugginface kun je experimenteren met een parameter als Temperature. Hoe hoger deze waarde, hoe groter de lijst met mogelijke volgende woorden waaruit GPT zal kiezen en dus hoe onvoorspelbaarder de tekst wordt.

Ook interessant om te lezen: Je creativiteit kent geen grenzen met Playground AI

Een gedicht met een blijkbaar al te hoge ‘temperatuur’.

Tip 07: Risico’s

Je hoeft nauwelijks tussen de regels door te lezen om te begrijpen dat AI risico’s met zich meebrengt, op verschillende vlakken. Om te beginnen zijn er voor neurale netwerken vaak enorm veel trainingsdata nodig, zoals teksten en afbeeldingen. Niet alleen roept dit vragen op met betrekking tot onze privacy (het Amerikaanse bedrijf ClearView verkoopt gezichtsherkenningstechnologie op basis van AI aan overheden en zelfs privé-instanties), ook op het vlak van auteursrecht zijn er heel wat bedenkingen. Mag bijvoorbeeld een LLM zomaar al die data gebruiken en verwerken tot ‘eigen’ content? Bovendien valt het niet uit te sluiten dat deze trainingsdata al dan niet bewust incompleet of bevooroordeeld zijn, wat tot gekleurde uitkomsten kan leiden, de zogeheten bias. Ook het feit dat we eigenlijk niet goed weten hoe een neuraal netwerk tot een bepaalde uitkomst komt, kan ongemerkt bias introduceren. Het gebeurt bovendien geregeld dat een AI-chatbot zomaar dingen verzint en die doodleuk mixt met correcte feiten, het zogeheten hallucineren.

Verder is er ook een groter risico op deepfake, waarbij audio, foto’s of video’s bewust worden gemanipuleerd met behulp van AI, zoals voor het verspreiden van nepnieuws.

Een deepfake-foto van Frans Timmermans die gebruikt is om nepnieuws te verspreiden (let bijvoorbeeld op zwevend wijnglas, verschillende brilglazen, ontbrekende rugleuning).

Tip 08: Verdere evolutie

Het risico bestaat ook dat AI-toepassingen aanzienlijke verschuivingen op de arbeidsmarkt zullen veroorzaken, waardoor sommige beroepen overbodig worden. Zoeken naar AI and <beroepsgroep> laat vaak al zien hoe(zeer) AI invloed heeft op verschillende sectoren. Anderzijds is het realistischer dat je baan niet door AI zelf, maar door iemand die AI gebruikt, wordt overgenomen. AI heeft namelijk nog geen ‘bewustzijn’ ontwikkeld, maar de snelheid en richting van de evolutie van AI-technologie blijft een groot vraagstuk. Terwijl GPT-3 over 175 miljard parameters beschikte (elementen die tijdens de trainingsfase kunnen worden aangepast om datapatronen te herkennen), heeft GPT-4 er al tien keer zoveel (zo’n 1,7 biljoen).

Hoewel dit aantal nog steeds veel minder is dan het menselijke brein heeft, geloven sommigen dat zulke netwerken zo breed inzetbaar zullen worden dat we kunnen spreken van Artificial General Intelligence (AGI); AI die een breed scala aan taken beter kan uitvoeren dan mensen. Er heerst zelfs de vrees dat zo’n netwerk zelfstandig een nieuw AI-netwerk kan ontwerpen. Zeg maar een GPT-6, ontwikkeld door GPT-5. Zo’n moment wordt de ‘singulariteit’ genoemd, waarbij zelfversterkende AI-systemen buiten menselijke controle exponentieel slimmer worden, waardoor de toekomst volledig onvoorspelbaar wordt.

Het moment van singulariteit (een interpretatie door Dall-E 3).

Tip 09: Laagdrempelig

Hoewel veel mensen zich misschien niet bewust zijn van de vele toepassingen van AI, hebben ze er waarschijnlijk al vaak ongemerkt mee te maken (gehad). Zo is het ontgrendelen van je smartphone met gezichtsherkenning al een mooi voorbeeld van AI. De software herkent je gezicht, ondanks verschillende hoeken, belichting en gezichtsuitdrukkingen. Ook gebruikers van Google Foto’s zullen hebben gemerkt dat de software uitstekend personen herkent, zelfs over verschillende leeftijden heen. Apps als Google Translate of Microsoft Translator, die tekst uit foto’s herkennen en direct vertalen, maken eveneens gebruik van AI. Ook voor het vertaalproces zelf blijken AI-technieken trouwens beter te werken dan een regelgebaseerde aanpak.

Ook natuurliefhebbers kunnen er baat bij hebben met de populaire, gratis app Obsidentify. Richt je camera op een dier of wilde plant, en de app identificeert de soort dankzij duizenden gelabelde foto’s, door gebruikers geüpload naar websites als www.waarneming.nl en www.waarnemingen.be. En met de gratis app Merlin Bird ID kun je vogels herkennen op basis van hun gezang.

Obsidentify maakt dankbaar gebruik van een massale hoeveelheid trainingsdata.

In het nieuws In dit artikel hebben we heel wat concrete AI-toepassingen vermeld, maar het kan ook interessant zijn om het actuele nieuws te volgen, aangezien AI vaak ter sprake komt. Wijzelf noteerden op een paar dagen onder meer de volgende uiteenlopende ontwikkelingen:

  • AI was een van de hoofdthema’s op CES 2024 in Las Vegas, met een hele reeks innovatieve producten.
  • Ook de wereldwijde top 4 van consultancybedrijven (Deloitte, KPMG, PwC en EY) is actief bezig met het ontwikkelen van eigen geavanceerde generatieve AI-platformen.
  • Microsoft plant de lancering van een nieuw toetsenbord met een Copilot-toets, bedoeld om snel AI-assistentie op te roepen in Windows en Office-toepassingen.
  • AI-modellen kunnen ontbossing in het Amazonewoud detecteren met een nauwkeurigheid van minstens 90%.
  • Amazon werkt aan de ontwikkeling van een eigen zoekmachine die gebaseerd is op AI.

Tip 10: Tekst

AI is al jaren bekend, maar werd vooral populair door de ontwikkeling van generatieve AI-chatbots zoals ChatGPT van OpenAI. Eind 2022 brak ChatGPT echt door en inmiddels is LLM GPT-4 gelanceerd, met binnenkort mogelijk de integratie van GPT-5 in ChatGPT. ChatGPT is gratis te gebruiken via https://chat.openai.com of via de officiële mobiele app, waarmee ook gesproken dialogen mogelijk zijn. De gratis versie biedt toegang tot LLM GPT-3.5, die beperkter is dan GPT-4 (zie ook tip 8). De Plus-versie (ongeveer 23 euro per maand), biedt toegang tot GPT-4 en enkele extra’s, zoals geen wachttijden, toegang tot beeldgenerator Dall-E (zie ook tip 11), recentere kennis, het uploaden van eigen documenten (zoals docx en pdf) ter analyse, het installeren van extensies en het ontwerpen van eigen ‘persona’s’ (GPT’s genoemd). Sinds kort kun je ook gepubliceerde GPT’s van medegebruikers zoeken en gebruiken.

Maar er zijn nog andere, gratis chatbots die GPT-4 gebruiken, zoals Microsoft Copilot, dat steeds meer in Windows wordt geïntegreerd (zie ook het kader ‘In het nieuws’), of Gemini, de chatbot van Google. Voor wie geïnteresseerd is in nog meer AI-chatbots, via deze webpagina vind je een overzicht van zo’n twintig andere bots.

Van eksters tot broeken: GPT-4 (b)lijkt ‘intelligenter’ dan GPT-3.5.

Lees ook: Alles over Google Gemini, Googles antwoord op ChatGPT

Tip 11: Beeld

OpenAI heeft niet alleen de bot ChatGPT ontwikkeld, maar ook de beeldgenerator Dall-E. Deze is inmiddels aan versie 3 toe en is geïntegreerd in ChatGPT Plus, maar je kunt het ook gratis gebruiken via het al eerder vermelde Copilot. Daarnaast zijn er nog heel wat andere generatoren die je gratis kunt gebruiken (of uitproberen). We denken aan Craiyon, Midjourney, DreamStudio, Canva AI en Firefly van Adobe (je kunt gratis 25 beelden per maand laten maken of bewerken). De meeste van deze beeldgeneratoren ondersteunen ook outpainting: je kunt het canvas dan vergroten en hier allerlei objecten aan toevoegen, gebaseerd op patronen en kenmerken van de bestaande afbeelding.

Beelgenerator Dall-E 3 aan het werk in Microsoft Copilot.

Tip 12: Audio

In ChatGPT kun je tegenwoordig gesproken dialogen voeren met AI, maar er zijn meer interessante AI-toepassingen in audio. Bijvoorbeeld radiostations die volledig op AI draaien. Luister bijvoorbeeld naar listen.streamon.fm/radiogpt. RadioGPT selecteert op basis van GPT en TopicPulse muziek en produceert scripts, gecombineerd met AI-spraaktechnologie, door socialmedia- en nieuwsbronnen te scannen.

Voor spraaktechnologie is Adobe Podcast een aanrader. Upload een audiobestand en de dienst verwijdert storende achtergrondgeluiden en optimaliseert het geluid met AI. Je kunt het resultaat als wav-bestand downloaden.

Whisper, een opensource-spraakherkenningssysteem, is beschikbaar als app of API en herkent spraak in verschillende talen en dialecten, zelfs met achtergrondgeluiden en variabele spreeksnelheden, en zet dit om naar tekst.

Soundraw is een AI-audiogenerator, handig voor muziek bij video’s of presentaties. Selecteer lengte, genre, stemming en thema en beluister verschillende tracks. Downloaden is helaas alleen mogelijk met een betaald account.

Een stap verder gaat Suno. Vul een uitvoerige beschrijving in van het gewenste muziekstuk en even later krijg je de gevraagde muziek, inclusief songtekst en gezongen tekst. We vonden dit behoorlijk indrukwekkend.

Een stevig rapnummer over kippen die slapengaan? Klinkt prima!

Tip 13: Video

Het lijdt geen twijfel dat beeldgeneratoren zoals Dall-E en Midjourney binnenkort worden uitgebreid met de mogelijkheid om videobeelden te genereren op basis van een beschrijving of eventueel een voorbeeldfoto of -video. Maar je hoeft hier niet eens op te wachten, want met HeyGen is dit tot op zekere hoogte al mogelijk. Deze dienst is primair bedoeld voor het creëren van natuurlijk klinkende menselijke stemmen, maar biedt ook de optie om deze stemmen te combineren met animaties en video, waardoor het lijkt alsof de persoon echt aan het praten is.

Microsoft Clipchamp, geïntegreerd in Windows, benut AI dan weer op een andere manier voor video’s. Met de knop Een video met AI maken kun je media zoals audio, video en foto’s toevoegen en nadat je informatie over de titel, stijl en gewenste lengte hebt verstrekt, genereert Clipchamp automatisch een bijpassende video.

Tot slot vermelden we ook graag Channel1, dat mogelijk tegen de tijd dat je dit leest al actief is. Channel1 is namelijk een gepersonaliseerd tv-nieuwskanaal dat volledig wordt samengesteld op basis van generatieve AI.

Clipchamp analyseert je media-input en genereert op basis hiervan een passende video.

Training Je kunt zelf een AI-netwerk trainen zonder je te verdiepen in het ontwerp en de verbindingen van het netwerk. Een gebruiksvriendelijke tool hiervoor is Teachable Machine. Deze tool stelt je in staat om zonder programmeerkennis snel machinelearning-modellen te maken voor websites of apps Je kunt modellen trainen met eigen afbeeldingen, bijvoorbeeld van je webcam, of met audio. Het resultaat is een AI-tool die de gewenste patronen kan herkennen. Deze tool kan gecombineerd worden met een microcontroller, zoals Raspberry Pi of Arduino voor automatiseringsprojecten.

Voor een krachtigere, maar wel minder toegankelijke optie is er Cloud AutoML (proefaccount beschikbaar met gratis credits voor 90 dagen). Hier kun je een machinelearning-systeem trainen door data als afbeeldingen of tabelgegevens te uploaden en te labelen of categoriseren. Het systeem traint vervolgens een model, waarvan je de prestaties kunt evalueren en inzetten voor applicaties. Microsoft biedt een soortgelijke tool aan met Custom Vision.

Upload een reeks foto’s uit twee ‘klassen’ en het AI-model herkent automatisch tot welke klasse nieuwe foto’s behoren.
Watch on YouTube
▼ Volgende artikel
Wanneer is een tv écht te groot voor je woonkamer?
Huis

Wanneer is een tv écht te groot voor je woonkamer?

Iedereen droomt weleens van een thuisbioscoop, maar groter is niet altijd beter. Een te groot scherm kan bijvoorbeeld zorgen voor vermoeide ogen of korrelig beeld. Ontdek hoe zaken als kijkafstand, de resolutie en de kijkhoek bepalen of een televisie daadwerkelijk in je woonkamer past.

In de felverlichte showroom van de elektronicawinkel lijkt die enorme 75-inch televisie waanzinnig indrukwekkend, maar eenmaal aan de muur in een doorsnee Nederlandse doorzonwoning kan zo'n gapend zwart vlak de ruimte volledig domineren. Veel consumenten denken onterecht dat een groter scherm automatisch garant staat voor een betere kijkervaring, ongeacht de afmetingen van de kamer. Toch is er een harde technische grens waarbij groot verandert in té groot, met hoofdpijn en onscherp beeld als direct gevolg. In dit artikel leer je precies hoe je die grens bepaalt en de ideale televisie kiest.

De kern van het probleem: resolutie en blikveld

Het probleem van een te grote tv is niet alleen esthetisch, maar vooral fysiologisch en technisch. Het draait allemaal om de verhouding tussen de resolutie (het aantal beeldpunten) en je blikveld. Zelfs bij moderne 4K-televisies zijn de pixels niet oneindig klein. Als je een enorm scherm neemt en daar te dicht op zit, trek je het beeld als het ware uit elkaar. Hierdoor verliest het beeld zijn scherpte en samenhang; je hersenen moeten harder werken om de losse informatie tot één geheel te smeden.

Een veelgehoorde misvatting is dat je simpelweg went aan elk formaat. Hoewel de eerste shock van een groot scherm inderdaad verdwijnt, blijft de fysieke belasting overeind. Als een scherm meer dan 40 graden van je horizontale blikveld inneemt, kun je niet meer het hele plaatje in één oogopslag zien. Je ogen moeten dan constant van links naar rechts scannen om de actie te volgen, vergelijkbaar met het kijken naar een tenniswedstrijd vanaf de eerste rij. Dat zorgt voor vermoeide ogen en kan op den duur zelfs leiden tot misselijkheid, ook wel 'cybersickness' genoemd.

©Gorodenkoff

Wanneer werkt een groot formaat wél goed?

Er zijn specifieke scenario's waarin een wandvullend scherm niet alleen kan, maar zelfs de voorkeur heeft. Dat geldt vooral als je de televisie primair gebruikt voor hoogwaardige content. Denk hierbij aan films op 4K Blu-ray of streamingdiensten die uitzenden in de hoogste bitrate, en uiteraard gaming op moderne consoles. In deze gevallen is de bronkwaliteit zo hoog dat je dichterbij kunt zitten zonder fouten in het beeld te zien.

Daarnaast werkt een groot formaat goed als de kijkafstand het toelaat. In moderne woningen met een open plattegrond of een loft-indeling staat de bank vaak wat verder van de muur. Als je kijkafstand meer dan 3 meter is, valt een 55-inch televisie al snel in het niet en moet je turen om details te zien. Een 65-inch of groter model herstelt in dat geval de balans en zorgt voor die gewenste bioscoopervaring, waarbij het scherm groot genoeg is om je onder te dompelen zonder dat je individuele pixels ziet.

Wanneer werkt dit níet goed?

De nadelen van een te grote tv worden pijnlijk duidelijk bij 'gewoon' tv-kijken. Veel lineaire televisieprogramma's, zoals het journaal, talkshows of sportuitzendingen via de kabel, worden niet in 4K uitgezonden, maar in Full HD of zelfs nog lager. Een enorme tv vergroot dat signaal genadeloos uit. Op een te groot scherm zie je dan plotseling ruis, compressieblokjes en onscherpe randen die op een kleiner scherm onzichtbaar zouden blijven. Het beeld oogt daardoor onrustig en rommelig.

Ook in de fysieke ruimte kan het tegenvallen. Een tv die uit staat is een groot, zwart en reflecterend vlak. In een compacte woonkamer zuigt een te groot scherm alle aandacht naar zich toe, zelfs als hij uitstaat. Zoiets verstoort de balans in je interieur en kan de kamer kleiner laten aanvoelen dan hij eigenlijk is. Daarnaast is de plaatsing van sfeerverlichting vaak lastiger; een gigantisch scherm blokkeert lichtinval of reflecteert lampen op een storende manier.

©RDVector

Als je té dicht op je televisie zit, kun je de kleurenleds van elkaar onderscheiden.

Dealbreakers: hier ligt de grens

Er zijn een paar harde grenzen die aangeven dat je beter een maatje kleiner kunt kiezen. Als je een van de onderstaande punten herkent, is dat een duidelijk signaal.

Je moet je hoofd fysiek draaien

Als je tijdens het kijken naar een film ondertiteling leest en daardoor de actie boven in het scherm mist, of als je je nek daadwerkelijk moet draaien om van de linker- naar de rechterhoek te kijken, is het scherm te groot voor je kijkafstand. Je verliest het overzicht.

De tv past fysiek niet op het meubel

Dit klinkt misschien logisch, maar wordt vaak genegeerd. Als de pootjes van de tv net aan op de rand van je tv-meubel balanceren, of als het scherm breder is dan het meubel zelf, oogt dat niet alleen goedkoop, het is ook onveilig. Een scherm dat buiten de kaders van het meubel steekt, is enorm kwetsbaar voor (om)stoten.

Je ziet pixels of rastervorming

Ga op je favoriete plek op de bank zitten. Zie je bij normaal HD-beeld een soort hordeur-effect of individuele blokjes? Dan zit je te dichtbij voor dat specifieke formaat. Dat is geen kwestie van wennen; het is een mismatch tussen resolutie, inch-maat en kijkafstand.

Wat betekent dit voor jouw situatie?

Om te bepalen of een tv past, moet je de rolmaat erbij pakken en even kritisch naar je eigen kijkgedrag kijken. De algemene vuistregel voor 4K-televisies is: meet de afstand van je ogen tot het scherm in centimeters en deel dat door 1,2 tot 1,5. De uitkomst is de ideale schermdiagonaal.

Zit je bijvoorbeeld op 2,5 meter (250 cm) van je scherm? Dan kom je uit op een schermdiagonaal tussen de 166 cm (65 inch) en 208 cm (82 inch). Maar let op: dat geldt alleen voor pure 4K-content. Kijk je veel normale televisie (praatprogramma's, nieuws)? Hanteer dan factor 2. Bij 250 cm afstand kijkt een scherm van 125 cm diagonaal (ongeveer 50 inch) dan vaak prettiger en rustiger. Ben je een fanatieke gamer of filmfanaat? Dan kun je de grens opzoeken. Ben je een casual kijker? Kies dan veilig voor een formaatje kleiner.

©BS | ID.nl

In het kort

Een televisie is te groot wanneer het beeld onscherp oogt of wanneer je fysiek je hoofd moet draaien om alles te kunnen volgen. Hoewel een groot scherm indrukwekkend lijkt, vergroot het bij standaard televisie-uitzendingen ook alle beeldfouten uit. De ideale grootte is een balans tussen kijkafstand en de kwaliteit van wat je kijkt. Meet daarom altijd de afstand tussen bank en muur, en wees realistisch over je kijkgedrag. Zo voorkom je hoofdpijn en blijft tv-kijken ontspannend.

▼ Volgende artikel
Microsofts Xbox Developer Direct heeft de code gekraakt
Huis

Microsofts Xbox Developer Direct heeft de code gekraakt

Het is ergens in 2025 als Fable voor het eerst, een soort van, getoond wordt. Beelden volgen elkaar in rap tempo op. We zien de dame die de hoofdrol lijkt te spelen, geen HUD en vooral heel veel mooie filmpjes. Daarna begint het wild speculeren, de klachten over het hoofdpersonage, de vraagtekens over de gameplay. Gelukkig was daar gister de Xbox Developer Direct, waar Microsoft eens te meer bewees de code gekraakt te hebben.

Vóór de pandemie, toen de Electronic Entertainment Expo (E3) nog bestond en online showcases, Directs en State of Plays nog niet echt een ding waren, wisten gameboeren hun spellen prima te verkopen. Ontwikkelaars verschenen op het podium tijdens liveshows, praatten over hun games, speelden live een demo (wat net zo vaak goed als faliekant misging) en dergelijke presentaties werden afgewisseld met teasers, hypetrailers en (nog verder terug) zelfs weleens grafieken en verkoopcijfers. Hoe anders is de wereld anno nu.

Watch on YouTube

Trailers vol trailers

Klaar zitten voor The Game Awards, een gemiddelde Direct, Showcase of Summer Game Fest is leuk, maar niet hetzelfde als ‘toen’. Want de formule is inmiddels bekend. Een half uur, een uurtje, een paar uur lang wordt er de ene na de andere trailer op je hersenen afgevuurd. Wat is ‘reclame’ en wat niet? Geen idee. Standaard zijn de animegames die elkaar zo rap opvolgen dat de gemiddelde kijker niet eens meer weet waar de ene game begint en de ander ophoudt. Meestal zit er een klapper aan het begin, waarna het grote wachten op de klapper aan het einde begint.

Vraag iemand een week later wat ie gezien heeft, en meer dan de helft van de getoonde games is waarschijnlijk uit het geheugen verdwenen.  En al die flarden van beelden zonder fatsoenlijke uitleg leiden vaker wel dan niet tot hetzelfde als die ene soort van trailer van Fable: speculaties, wild geroep en vraagtekens. Het komt de online discussie rondom games niet ten goede.

©Playground Games

Hoe anders was de inmiddels traditionele Xbox Developer Direct. Langer dan een uur, voor maar vier games. Die games kregen zodoende alle tijd, net als de ontwikkelaars. Gameplaybeelden zijn niet aan te slepen, verscheidene modi worden uitgebreid besproken en zelfs de kleinste details krijgen meer dan genoeg ademruimte. Zo horen we tijdens de Forza Horizon 6-presentatie dat het nummer van je eigen hangar (78) gekozen is omdat de game zich afspeelt in Japan, en die cijfers daar een positieve lading hebben. Fijn om te horen hoe scherp het oog voor detail van een ontwikkelaar is. Dat zegt iets over het project. En het is ook iets wat je never nooit in een hypetrailer van anderhalve minuut langs had zien komen.

Trailers vol trailers

En dus zit ik gisteravond te genieten. Niet eens per se van de games, want ze vallen net niet in mijn straatje. Forza Horizon 6 vind ik héél indrukwekkend en de game zal ongetwijfeld miljoenen spelers perfect bedienen, maar ik ben niet zo van het racen. Game Freak - de makers van Pokémon die eindelijk hun vleugels uitslaan met graphics uit dit decennium - komen met Beast of Reincarnation. Het ziet er oké uit. Double Fine vindt in mij ook geen fan en een multiplayer-pottenbakgame (Kiln) is niet iets wat hoog op mijn lijstje stond. Zelfs afsluiter Fable wist me met z’n levenssimulaties ook niet te overtuigen. Maar, nogmaals, wat heb ik genoten. Van ontwikkelaars die ruim de tijd kregen. Van de games, die van alle kanten belicht werden. Van de antwoorden die we kregen.

©Playground Games

Want wat ik nou precies van die games vond, is niet eens zo heel belangrijk. Veel belangrijker is dat iedereen dit keer in ieder geval een uitgebreid beeld kreeg van wat deze games nu precies worden. Een Xbox Developer Direct creëert geen valse hype. Van die vier getoonde games, weten we nu eigenlijk alles wat we redelijkerwijs moeten weten. Zoals bijvoorbeeld dat Fable een character creation-modus heeft, om maar iets te noemen. En plots zie je de discussies rondom de games gaan om… de inhoud. En niet op wilde speculaties rondom hoofdpersonages die helemaal niet vast blijken te staan. Love it.