ID.nl logo
AI: vloek of zegen?
© jirsak - stock.adobe.com
Huis

AI: vloek of zegen?

Artificiële intelligentie (AI) is een term die je dagelijks hoort en leest, en die bij veel mensen uiteenlopende, soms wonderlijke of zelfs angstaanjagende, beelden oproept. In dit artikel leggen we uit wat artificiële intelligentie is, wat het niet is en wat je er zoal mee kunt doen.

In dit artikel lees je hoe AI werkt, waar het goed in is en wat de eventuele risico’s zijn. Ook benoemen we enkele handige AI-toepassingen waar je zelf mee aan de slag kunt:

  • Chatbots
  • Beeldgeneratoren
  • Audiotoepassingen als muziekjes of liedjes maken en audiobestanden verbeteren
  • Videogeneratoren

Heel interessant: Zo ga je aan de slag met je persoonlijke chatbot

Tip 01: Logisch

In de afgelopen jaren hebben computerprogramma’s veel processen geautomatiseerd. Deze programma’s waren gebaseerd op regels (rule based), en hadden dus een logische opbouw. De mens leverde de regels en de input, en het programma deed de rest. Zelfs als je niet kunt programmeren, kun je voor eenvoudige taken de regels zelf wel bedenken. Neem bijvoorbeeld pseudocode (een beschrijving van de logica van een algoritme, zonder de strikte syntax van een programmeertaal) voor het berekenen van een gemiddelde. Deze kan er als volgt uitzien:

Klassieke, regelgebaseerde software is dus effectief voor taken die een vaste logica volgen, maar er is sowieso één domein waar zulke programma’s slecht presteren: het herkennen van patronen. Schrijf maar eens de pseudocode uit voor een programma dat moet herkennen of er een hond of kat op een afbeelding staat, zonder uiteraard specifieke diernamen in je code te gebruiken. Met de regel ‘als het dier twee ogen, twee oren, vier poten en een staart heeft, dan […]’ kom je er helaas niet.

Lees ook eens de 5-delige cursus over programmeren in Python met ChatGPT

Python-code voor de berekening van gemiddelden: de logica zelve.

Tip 02: Neuraal netwerk

Dit verklaart bijvoorbeeld ook waarom het bijvoorbeeld veel eenvoudiger is een robot te programmeren die volgens een geijkt patroon deksels op potjes plaatst dan een robot die peren plukt en het patroon van rijpe, volgroeide peren moet zien te herkennen in de boomgaard. Zo’n robot ontwikkelen blijkt behoorlijk complex. Mensen zijn hierin veel vaardiger, vooral omdat menselijke hersenen heel goed zijn in patroonherkenning, eigenlijk al vanaf de geboorte.

Bij patroonherkenning volgen de hersenen geen strikte regels, zoals ‘Als hij blauwe ogen, een bril en een stompe neus heeft, is het oom Ben’, maar reageren ze direct op het herkennen van het patroon: ‘Dit is oom Ben’. Dit is mogelijk doordat onze hersenen ongeveer 85 miljard neuronen bevatten, die via uitlopers of vertakkingen elektrische verbindingen (synapsen) kunnen maken met andere neuronen. Deze kunnen zich op hun beurt weer met andere neuronen verbinden, wat automatisch tot patroonherkenning leidt (zie ook het kader ‘Koekjes bakken’).

©whitehoune - stock.adobe.com

Neuraal netwerk: geactiveerde neuronen activeren via synapsen ook andere neuronen.

Koekjes bakken Stel je voor dat je een geur ruikt die je terugbrengt naar een vroegere ervaring, zoals de geur van versgebakken koekjes je doet herinneren aan oma’s keuken. Het proces in de hersenen werkt als volgt. Eerst detecteren geurreceptoren de geur, waarna signalen via neuronen naar de hersenen gestuurd worden. Deze signalen bereiken de reukcentra in de hersenen, waar neuronen de geur verwerken en beoordelen op basis van eerder opgeslagen informatie. De geurinformatie wordt via synapsen doorgegeven van het ene naar het andere neuron. Hierbij komen neurotransmitters vrij die zich aan receptoren op het volgende neuron binden. Deze neurale verbindingen bereiken delen van de hersenen die verantwoordelijk zijn voor het geheugen, zoals de hippocampus. Door dit netwerk van verbindingen wordt een oude herinnering, zoals die van de koekjes in oma’s keuken, geactiveerd.

Tip 03: Lagen

Computerwetenschappers begrepen al snel dat klassieke, regelgebaseerde programma’s niet geschikt waren voor patroonherkenning. Ze zagen in dat ze neurale netwerken moesten proberen na te bootsen in software, geïnspireerd door de werking van de menselijke hersenen.

Laten we een voorbeeld van een neuraal netwerk bekijken zoals dit wordt gebruikt om te bepalen of een foto een hond of een kat wordt getoond. De invoerlaag van het netwerk vertegenwoordigt het startpunt. Het bestaat uit wiskundige functies, hier neuronen genoemd, die elk een specifiek stukje informatie van de foto (met een hond of een kat) representeren, zoals kleur of helderheid van een pixel.

Na de invoerlaag komen de tussenliggende lagen. Elke laag bestaat opnieuw uit meerdere neuronen die informatie ontvangen van de voorgaande laag. Binnen elke neuron worden wiskundige berekeningen uitgevoerd om te bepalen hoe belangrijk de ontvangen informatie is, vergelijkbaar met hoe neuronen in het menselijk brein informatie ontvangen, verwerken en doorgeven. In deze tussenliggende lagen proberen de neuronen specifieke patronen in de gegevens te herkennen, zoals de vorm van de oren of de textuur van de vacht. Elke laag kan zich specialiseren in het herkennen van steeds complexere kenmerken. Deze lagen fungeren als de ‘denkende’ delen van het netwerk.

Uiteindelijk bereikt de informatie de uitvoerlaag. Het neuron in deze laag dat het meest actief is – dus met de hoogst gewogen waarde na alle berekeningen – geeft aan of de foto een hond of een kat toont.

Een digitaal neuraal netwerk bestaat uit een invoerlaag, tussenliggende lagen (verborgen) en een uitvoerlaag.

 Tip 04: Deep learning

Er is nu wel een structuur van een neuraal netwerk om honden en katten te onderscheiden, maar hoe weet de computer welke neuronen moeten worden geactiveerd en hoe sterk bepaalde verbindingen tussen neuronen moeten worden voor de correcte uitvoer? Daarvoor moet dit netwerk worden getraind. Dat gebeurt door vele duizenden foto’s van honden en katten aan het netwerk te tonen en telkens aan te geven of het om een hond of een kat gaat. De computer stuurt dan de verbindingen binnen het neurale netwerk bij, tot dit hopelijk uiteindelijk zelf het juiste antwoord geeft bij nieuwe foto’s. We geven dus als het ware de input en de output en laten de computer zelf het optimale netwerk vormen.

De binnenste lagen worden vaak ‘verborgen lagen’ genoemd, omdat we als mens nauwelijks zicht hebben op hoe de verbindingen binnen deze lagen precies worden gevormd. Een soort ‘black box’ dus, wat veel mensen ongerust maakt (zie ook tip 7). Op YouTube toont Andrej Karpathy uitgebreid hoe je neurale netwerken kunt trainen. Dit proces, een vorm van machine learning, staat bekend als ‘deep learning’ vanwege van de vele lagen in zulke netwerken.

Een heel klein stukje deep learning op het niveau van de computer.

Tip 05: Patronen genereren

Neurale netwerken zijn dus effectief voor het detecteren en herkennen van patronen, maar ze kunnen ook worden gebruikt om patronen te genereren. Hiervoor werden oorspronkelijk twee complementaire netwerken gebruikt: de Generative Adversarial Networks (GAN’s), bestaande uit een discriminator en een generator.

De generator maakt afbeeldingen die de discriminator beoordeelt. Aanvankelijk vertelt een menselijke operator de discriminator welke afbeeldingen, bijvoorbeeld van menselijke gezichten, echt zijn en welke door de generator zijn gemaakt. De generator leert vervolgens van de discriminator welke afbeeldingen het beste waren en waarom. Zo verbeteren beide netwerken elkaar tot de creaties van de generator bijna perfect zijn. Het resultaat van zo’n GAN zie je op www.thispersondoesnotexist.com (druk telkens op F5).

Er zijn ook andere technieken voor het genereren van patronen, zoals ‘diffusionmodellen’. Hierbij begin je met bijvoorbeeld 10% van een afbeelding om te zetten in ruis en geef je als opdracht deze beschadigde input naar een acceptabele output te transformeren, uiteraard met de nodige trainingsdata. Dit netwerk koppel je vervolgens aan een tweede netwerk dat afbeeldingen met 20% ruis omzet in afbeeldingen met 10% ruis, en zo verder, tot uiteindelijk ook een inputafbeelding met 100% ruis (of: niets) een degelijke output oplevert. Voorbeelden van dergelijke modellen zijn Stable Diffusion, Dall-E en Midjourney.

Lees ook de vergelijkende test: Dall-E of SDXL: wie maakt betere plaatjes?

Deze persoon bestaat niet (met dank aan GAN-netwerk StyleGAN2).

Tip 06: Menselijke taal

Beeldpatronen genereren bleek dus mogelijk, maar de uitdaging van menselijke taal is nog groter. Aanvankelijk werd er geëxperimenteerd met regelgebaseerde programma’s, zoals de chatbot ELIZA uit 1966, maar deze bleken al snel compleet ontoereikend. Ongeveer 10 jaar geleden kwam Word2Vec uit, gebaseerd op Natural Language Processing (NLP). Hierbij worden woorden die vaak in vergelijkbare contexten voorkomen, dicht bij elkaar in een vectorruimte – een soort getallenlijst – geplaatst. Dit helpt bij het ontdekken van taalkundige patronen en relaties tussen woorden, nuttig bij onder meer automatische vertaling en tekstanalyse.

De ontwikkeling ging nog een flinke stap verder met Large Language Models (LLM’s), zoals GPT (Generative Pre-trained Transformer). Terwijl NLP-modellen zich richten op het begrijpen van relaties tussen individuele woorden, kan men bij LLM’s hele tekstfragmenten laten interpreteren en ook genereren via een neuraal netwerk dat getraind is op ‘next word prediction’. Dus wanneer een AI-chatbot als ChatGPT of Gemini een woord genereert, dan is dit woord eigenlijk weinig meer dan een gegevenselement dat volgens het netwerk vaak volgt op voorgaande elementen. In de Playground van OpenAI (betaald met tokens geen onderdeel van ChatGPT) en bij Hugginface kun je experimenteren met een parameter als Temperature. Hoe hoger deze waarde, hoe groter de lijst met mogelijke volgende woorden waaruit GPT zal kiezen en dus hoe onvoorspelbaarder de tekst wordt.

Ook interessant om te lezen: Je creativiteit kent geen grenzen met Playground AI

Een gedicht met een blijkbaar al te hoge ‘temperatuur’.

Tip 07: Risico’s

Je hoeft nauwelijks tussen de regels door te lezen om te begrijpen dat AI risico’s met zich meebrengt, op verschillende vlakken. Om te beginnen zijn er voor neurale netwerken vaak enorm veel trainingsdata nodig, zoals teksten en afbeeldingen. Niet alleen roept dit vragen op met betrekking tot onze privacy (het Amerikaanse bedrijf ClearView verkoopt gezichtsherkenningstechnologie op basis van AI aan overheden en zelfs privé-instanties), ook op het vlak van auteursrecht zijn er heel wat bedenkingen. Mag bijvoorbeeld een LLM zomaar al die data gebruiken en verwerken tot ‘eigen’ content? Bovendien valt het niet uit te sluiten dat deze trainingsdata al dan niet bewust incompleet of bevooroordeeld zijn, wat tot gekleurde uitkomsten kan leiden, de zogeheten bias. Ook het feit dat we eigenlijk niet goed weten hoe een neuraal netwerk tot een bepaalde uitkomst komt, kan ongemerkt bias introduceren. Het gebeurt bovendien geregeld dat een AI-chatbot zomaar dingen verzint en die doodleuk mixt met correcte feiten, het zogeheten hallucineren.

Verder is er ook een groter risico op deepfake, waarbij audio, foto’s of video’s bewust worden gemanipuleerd met behulp van AI, zoals voor het verspreiden van nepnieuws.

Een deepfake-foto van Frans Timmermans die gebruikt is om nepnieuws te verspreiden (let bijvoorbeeld op zwevend wijnglas, verschillende brilglazen, ontbrekende rugleuning).

Tip 08: Verdere evolutie

Het risico bestaat ook dat AI-toepassingen aanzienlijke verschuivingen op de arbeidsmarkt zullen veroorzaken, waardoor sommige beroepen overbodig worden. Zoeken naar AI and <beroepsgroep> laat vaak al zien hoe(zeer) AI invloed heeft op verschillende sectoren. Anderzijds is het realistischer dat je baan niet door AI zelf, maar door iemand die AI gebruikt, wordt overgenomen. AI heeft namelijk nog geen ‘bewustzijn’ ontwikkeld, maar de snelheid en richting van de evolutie van AI-technologie blijft een groot vraagstuk. Terwijl GPT-3 over 175 miljard parameters beschikte (elementen die tijdens de trainingsfase kunnen worden aangepast om datapatronen te herkennen), heeft GPT-4 er al tien keer zoveel (zo’n 1,7 biljoen).

Hoewel dit aantal nog steeds veel minder is dan het menselijke brein heeft, geloven sommigen dat zulke netwerken zo breed inzetbaar zullen worden dat we kunnen spreken van Artificial General Intelligence (AGI); AI die een breed scala aan taken beter kan uitvoeren dan mensen. Er heerst zelfs de vrees dat zo’n netwerk zelfstandig een nieuw AI-netwerk kan ontwerpen. Zeg maar een GPT-6, ontwikkeld door GPT-5. Zo’n moment wordt de ‘singulariteit’ genoemd, waarbij zelfversterkende AI-systemen buiten menselijke controle exponentieel slimmer worden, waardoor de toekomst volledig onvoorspelbaar wordt.

Het moment van singulariteit (een interpretatie door Dall-E 3).

Tip 09: Laagdrempelig

Hoewel veel mensen zich misschien niet bewust zijn van de vele toepassingen van AI, hebben ze er waarschijnlijk al vaak ongemerkt mee te maken (gehad). Zo is het ontgrendelen van je smartphone met gezichtsherkenning al een mooi voorbeeld van AI. De software herkent je gezicht, ondanks verschillende hoeken, belichting en gezichtsuitdrukkingen. Ook gebruikers van Google Foto’s zullen hebben gemerkt dat de software uitstekend personen herkent, zelfs over verschillende leeftijden heen. Apps als Google Translate of Microsoft Translator, die tekst uit foto’s herkennen en direct vertalen, maken eveneens gebruik van AI. Ook voor het vertaalproces zelf blijken AI-technieken trouwens beter te werken dan een regelgebaseerde aanpak.

Ook natuurliefhebbers kunnen er baat bij hebben met de populaire, gratis app Obsidentify. Richt je camera op een dier of wilde plant, en de app identificeert de soort dankzij duizenden gelabelde foto’s, door gebruikers geüpload naar websites als www.waarneming.nl en www.waarnemingen.be. En met de gratis app Merlin Bird ID kun je vogels herkennen op basis van hun gezang.

Obsidentify maakt dankbaar gebruik van een massale hoeveelheid trainingsdata.

In het nieuws In dit artikel hebben we heel wat concrete AI-toepassingen vermeld, maar het kan ook interessant zijn om het actuele nieuws te volgen, aangezien AI vaak ter sprake komt. Wijzelf noteerden op een paar dagen onder meer de volgende uiteenlopende ontwikkelingen:

  • AI was een van de hoofdthema’s op CES 2024 in Las Vegas, met een hele reeks innovatieve producten.
  • Ook de wereldwijde top 4 van consultancybedrijven (Deloitte, KPMG, PwC en EY) is actief bezig met het ontwikkelen van eigen geavanceerde generatieve AI-platformen.
  • Microsoft plant de lancering van een nieuw toetsenbord met een Copilot-toets, bedoeld om snel AI-assistentie op te roepen in Windows en Office-toepassingen.
  • AI-modellen kunnen ontbossing in het Amazonewoud detecteren met een nauwkeurigheid van minstens 90%.
  • Amazon werkt aan de ontwikkeling van een eigen zoekmachine die gebaseerd is op AI.

Tip 10: Tekst

AI is al jaren bekend, maar werd vooral populair door de ontwikkeling van generatieve AI-chatbots zoals ChatGPT van OpenAI. Eind 2022 brak ChatGPT echt door en inmiddels is LLM GPT-4 gelanceerd, met binnenkort mogelijk de integratie van GPT-5 in ChatGPT. ChatGPT is gratis te gebruiken via https://chat.openai.com of via de officiële mobiele app, waarmee ook gesproken dialogen mogelijk zijn. De gratis versie biedt toegang tot LLM GPT-3.5, die beperkter is dan GPT-4 (zie ook tip 8). De Plus-versie (ongeveer 23 euro per maand), biedt toegang tot GPT-4 en enkele extra’s, zoals geen wachttijden, toegang tot beeldgenerator Dall-E (zie ook tip 11), recentere kennis, het uploaden van eigen documenten (zoals docx en pdf) ter analyse, het installeren van extensies en het ontwerpen van eigen ‘persona’s’ (GPT’s genoemd). Sinds kort kun je ook gepubliceerde GPT’s van medegebruikers zoeken en gebruiken.

Maar er zijn nog andere, gratis chatbots die GPT-4 gebruiken, zoals Microsoft Copilot, dat steeds meer in Windows wordt geïntegreerd (zie ook het kader ‘In het nieuws’), of Gemini, de chatbot van Google. Voor wie geïnteresseerd is in nog meer AI-chatbots, via deze webpagina vind je een overzicht van zo’n twintig andere bots.

Van eksters tot broeken: GPT-4 (b)lijkt ‘intelligenter’ dan GPT-3.5.

Lees ook: Alles over Google Gemini, Googles antwoord op ChatGPT

Tip 11: Beeld

OpenAI heeft niet alleen de bot ChatGPT ontwikkeld, maar ook de beeldgenerator Dall-E. Deze is inmiddels aan versie 3 toe en is geïntegreerd in ChatGPT Plus, maar je kunt het ook gratis gebruiken via het al eerder vermelde Copilot. Daarnaast zijn er nog heel wat andere generatoren die je gratis kunt gebruiken (of uitproberen). We denken aan Craiyon, Midjourney, DreamStudio, Canva AI en Firefly van Adobe (je kunt gratis 25 beelden per maand laten maken of bewerken). De meeste van deze beeldgeneratoren ondersteunen ook outpainting: je kunt het canvas dan vergroten en hier allerlei objecten aan toevoegen, gebaseerd op patronen en kenmerken van de bestaande afbeelding.

Beelgenerator Dall-E 3 aan het werk in Microsoft Copilot.

Tip 12: Audio

In ChatGPT kun je tegenwoordig gesproken dialogen voeren met AI, maar er zijn meer interessante AI-toepassingen in audio. Bijvoorbeeld radiostations die volledig op AI draaien. Luister bijvoorbeeld naar listen.streamon.fm/radiogpt. RadioGPT selecteert op basis van GPT en TopicPulse muziek en produceert scripts, gecombineerd met AI-spraaktechnologie, door socialmedia- en nieuwsbronnen te scannen.

Voor spraaktechnologie is Adobe Podcast een aanrader. Upload een audiobestand en de dienst verwijdert storende achtergrondgeluiden en optimaliseert het geluid met AI. Je kunt het resultaat als wav-bestand downloaden.

Whisper, een opensource-spraakherkenningssysteem, is beschikbaar als app of API en herkent spraak in verschillende talen en dialecten, zelfs met achtergrondgeluiden en variabele spreeksnelheden, en zet dit om naar tekst.

Soundraw is een AI-audiogenerator, handig voor muziek bij video’s of presentaties. Selecteer lengte, genre, stemming en thema en beluister verschillende tracks. Downloaden is helaas alleen mogelijk met een betaald account.

Een stap verder gaat Suno. Vul een uitvoerige beschrijving in van het gewenste muziekstuk en even later krijg je de gevraagde muziek, inclusief songtekst en gezongen tekst. We vonden dit behoorlijk indrukwekkend.

Een stevig rapnummer over kippen die slapengaan? Klinkt prima!

Tip 13: Video

Het lijdt geen twijfel dat beeldgeneratoren zoals Dall-E en Midjourney binnenkort worden uitgebreid met de mogelijkheid om videobeelden te genereren op basis van een beschrijving of eventueel een voorbeeldfoto of -video. Maar je hoeft hier niet eens op te wachten, want met HeyGen is dit tot op zekere hoogte al mogelijk. Deze dienst is primair bedoeld voor het creëren van natuurlijk klinkende menselijke stemmen, maar biedt ook de optie om deze stemmen te combineren met animaties en video, waardoor het lijkt alsof de persoon echt aan het praten is.

Microsoft Clipchamp, geïntegreerd in Windows, benut AI dan weer op een andere manier voor video’s. Met de knop Een video met AI maken kun je media zoals audio, video en foto’s toevoegen en nadat je informatie over de titel, stijl en gewenste lengte hebt verstrekt, genereert Clipchamp automatisch een bijpassende video.

Tot slot vermelden we ook graag Channel1, dat mogelijk tegen de tijd dat je dit leest al actief is. Channel1 is namelijk een gepersonaliseerd tv-nieuwskanaal dat volledig wordt samengesteld op basis van generatieve AI.

Clipchamp analyseert je media-input en genereert op basis hiervan een passende video.

Training Je kunt zelf een AI-netwerk trainen zonder je te verdiepen in het ontwerp en de verbindingen van het netwerk. Een gebruiksvriendelijke tool hiervoor is Teachable Machine. Deze tool stelt je in staat om zonder programmeerkennis snel machinelearning-modellen te maken voor websites of apps Je kunt modellen trainen met eigen afbeeldingen, bijvoorbeeld van je webcam, of met audio. Het resultaat is een AI-tool die de gewenste patronen kan herkennen. Deze tool kan gecombineerd worden met een microcontroller, zoals Raspberry Pi of Arduino voor automatiseringsprojecten.

Voor een krachtigere, maar wel minder toegankelijke optie is er Cloud AutoML (proefaccount beschikbaar met gratis credits voor 90 dagen). Hier kun je een machinelearning-systeem trainen door data als afbeeldingen of tabelgegevens te uploaden en te labelen of categoriseren. Het systeem traint vervolgens een model, waarvan je de prestaties kunt evalueren en inzetten voor applicaties. Microsoft biedt een soortgelijke tool aan met Custom Vision.

Upload een reeks foto’s uit twee ‘klassen’ en het AI-model herkent automatisch tot welke klasse nieuwe foto’s behoren.
Watch on YouTube
▼ Volgende artikel
Wat is local dimming en waarom is het belangrijk?
© ER | ID.nl
Huis

Wat is local dimming en waarom is het belangrijk?

Het gebrek aan een rijk contrast is een van de grootste ergernissen bij lcd- en ledtelevisies. Fabrikanten hebben daarom een slimme techniek bedacht die het contrast aanzienlijk verbetert: local dimming. In dit artikel leggen we uit hoe deze techniek van jouw grijze nachtlucht weer een inktzwarte sterrenhemel maakt.

Het contrast van je televisie is misschien wel de belangrijkste eigenschap voor mooi beeld. We willen dat wit verblindend wit is en zwart echt inktzwart. Bij oledtelevisies is dat makkelijk, want daar geeft elke pixel zelf licht. Maar de meeste televisies in de Nederlandse huiskamers zijn nog steeds lcd- of ledschermen (inclusief QLED). Die werken met een lamp achter het scherm, de zogeheten backlight. Local dimming is de techniek die probeert de nadelen van die achtergrondverlichting op te lossen.

Om te begrijpen waarom local dimming nodig is, moet je eerst weten hoe een standaard led-tv werkt. Simpel gezegd is het een groot paneel met pixels die zelf geen licht geven, maar alleen van kleur veranderen. Achter die pixels brandt een grote lichtbak. Als het beeld zwart moet zijn, sluiten de pixels zich om het licht tegen te houden. Helaas lukt dat nooit voor de volle honderd procent; er lekt altijd wat licht langs de randjes. Hierdoor zien donkere scènes er vaak wat flets en grijzig uit. De achtergrondverlichting staat immers vol aan, ook als het beeld donker moet zijn.

Nooit meer te veel betalen? Check Kieskeurig.nl/prijsdalers!

De lampen dimmen waar het donker is

Local dimming pakt dit probleem bij de bron aan. In plaats van één grote lichtbak die altijd aan staat, verdeelt deze techniek de achtergrondverlichting in honderden (en bij duurdere tv's soms duizenden) kleine zones. De televisie analyseert de beelden die je kijkt continu. Ziet de processor dat er linksboven in beeld een donkere schaduw is, terwijl rechtsonder een felle explosie te zien is? Dan worden de lampjes in de zone linksboven gedimd of zelfs helemaal uitgeschakeld, terwijl de lampjes rechtsonder juist fel gaan branden.

Het resultaat is direct zichtbaar. Zwart wordt weer echt zwart, simpelweg omdat er geen licht meer achter dat deel van het scherm brandt. Tegelijkertijd blijven de lichte delen van het scherm helder. Dat zorgt voor een veel groter contrast en geeft het beeld meer diepte. Vooral bij het kijken van HDR-films en -series is dat van belang. Zonder local dimming kan een led-tv eigenlijk geen goed HDR-beeld weergeven, omdat het verschil tussen licht en donker dan te klein blijft.

©ER | ID.nl

Niet alle local dimming is hetzelfde

Het klinkt als een wonderoplossing, maar de uitvoering verschilt enorm per televisie. Het grote toverwoord hierbij is het aantal zones. Hoe meer zones de tv onafhankelijk van elkaar kan aansturen, hoe preciezer het licht kan worden geregeld. Goedkopere televisies gebruiken vaak edge lit local dimming. Hierbij zitten de lampjes alleen in de rand van de tv. Dat werkt redelijk, maar is niet heel nauwkeurig. Je ziet dan soms dat een hele verticale strook van het beeld lichter wordt, terwijl er eigenlijk maar één klein object moest worden verlicht.

De betere variant heet full array local dimming. Hierbij zitten de lampjes over de hele achterkant van het scherm verspreid. De allernieuwste en beste vorm hiervan is miniLED. Daarbij zijn de lampjes zo klein geworden dat er duizenden in een scherm passen, wat de precisie van oled begint te benaderen. Als er te weinig zones zijn, kun je last krijgen van zogenaamde 'blooming'. Dat zie je bijvoorbeeld bij witte ondertiteling op een zwarte achtergrond: er ontstaat dan een soort wazige lichtwolk rondom de letters, omdat de zone groter is dan de tekst zelf.

Welke merken gebruiken local dimming?

Bijna elke grote televisiefabrikant past deze techniek inmiddels toe, maar ze doen dat voornamelijk in hun middenklasse en topmodellen. Samsung is een van de voorlopers, zeker met hun QLED- en Neo QLED-televisies, waarbij ze in de duurdere series gebruikmaken van geavanceerde miniLED-techniek voor zeer precieze dimming. Ook Sony staat bekend om een uitstekende implementatie van full array local dimming, die vaak geprezen wordt om de natuurlijke weergave zonder overdreven effecten. Philips past het eveneens toe in hun (mini)ledmodellen, vaak in combinatie met hun bekende Ambilight-systeem voor een extra contrastrijk effect.

Ga voor de full monty!

Local dimming is dus geen loze marketingkreet, maar een dankbare techniek voor iedereen die graag films of series kijkt op een led- of QLED-televisie. Het maakt het verschil tussen een flets, grijs plaatje en een beeld dat van het scherm spat met diepe zwartwaarden. Ben je in de markt voor een nieuwe tv? Vraag dan niet alleen óf er local dimming op zit, maar vooral of het gaat om full array dimming. Je ogen zullen je dankbaar zijn tijdens de volgende filmavond!

Vijf fijne televisies die full array local dimming ondersteunen

▼ Volgende artikel
Waar voor je geld: 5 robotstofzuigers voor een extra schone vloer
© ID.nl
Huis

Waar voor je geld: 5 robotstofzuigers voor een extra schone vloer

Bij ID.nl zijn we gek op producten waar je niet de hoofdprijs voor betaalt of die zijn voorzien van bijzondere eigenschappen. Met een robotstofzuiger wordt de vloer schoongehouden, terwijl je er niet bij hoeft te zijn. En stofzuigen is dan wel het minste dat ze kunnen, want ook dweilen is voor veel modellen geen proleem. We vonden vijf geavanceerde exemplaren.

Philips HomeRun 7000 Series XU7100/01

De Philips HomeRun 7000 Series XU7100/01 is ontworpen om grote ruimtes aan te kunnen. Het apparaat heeft een stofzak van 3 liter en een werktijd tot 180 minuten in de laagste stand. In tegenstelling tot veel kleinere robots is deze HomeRun uitgerust met een stille motor; de opgave van 66 dB maakt hem relatief stil.

Er zit een dweilfunctie in zodat je de robot na het stofzuigen ook direct kunt laten dweilen. Via de app kies je voor een van de modi of plan je een schoonmaakprogramma in. De robot kan zichzelf navigeren, obstakels omzeilen en keert na gebruik terug naar het laadstation. Omdat de opvangbak groot is hoef je niet vaak te legen en dankzij de Li‑ion‑accu is hij geschikt voor grotere woningen. Het apparaat is van recente datum en daarom nog volop verkrijgbaar.

Dreame L10s Pro Ultra Heat

Deze robot combineert een groot stofreservoir van 3,2 liter met een lange werktijd van ongeveer 220 minuten. Dankzij de geïntegreerde dweilfunctie verwijdert hij niet alleen stof maar kan hij ook nat reinigen. De L10s Pro Ultra Heat gebruikt een zak in het basisstation, waardoor je het reservoir minder vaak hoeft te legen.

De Dreame is voorzien van een Li‑ion‑batterij aanwezig en de robot keert automatisch terug naar het station voor opladen en legen. De sensortechnologie helpt bij het vermijden van obstakels en het nauwkeurig schoonmaken van zowel harde vloeren als tapijt. Dankzij de meegeleverde app stuur je de schoonmaak aan, stel je no‑go‑zones in of plan je een dweilrondje.

Philips HomeRun 3000 Series Aqua XU3100/01

Deze Philips‑robot is bedoeld voor wie minder vaak handmatig wil schoonmaken. Hij beschikt over een gecombineerde stofzuig‑ en dweilfunctie en kan zichzelf legen via het automatische station. Met een gebruiksduur tot 200 minuten in de laagste stand en een geluidsniveau van 66 dB kan hij urenlang zijn werk doen zonder al te veel herrie. De stofcontainer van 35 cl is kleiner dan bij de HomeRun 7000, maar door het automatische leegmechanisme is dat geen probleem.

Je bedient het apparaat via de app en kunt daar zowel een schema programmeren als zones instellen. De Aqua XU3100/01 is een model uit de recente 3000‑serie en doordat hij een mop‑pad heeft kan hij zowel droog als nat reinigen, wat handig is voor harde vloeren zoals tegels en laminaat.

iRobot Roomba Combo j9+

De Roomba Combo j9+ is een model dat je vloeren zowel kan stofzuigen als dweilen. De Combo j9 beschikt over een opvangbak van 31 cl en hij kan zelf zijn inhoud legen in het automatische basisstation dat bij de set hoort. De Li‑ion‑accu zorgt voor een lange gebruiksduur en de robot maakt een routeplanning zodat elke ruimte efficiënt wordt schoongemaakt.

Via de app kun je zones instellen waar de robot niet mag komen en het dweilelement in‑ of uitschakelen. In de basis maakt de Combo j9+ zelfstandig een kaart van je woning en keert terug naar het station wanneer de accu moet opladen of de stofcontainer vol is. De robot is bedoeld voor huishoudens die gemak belangrijk vinden en biedt naast stofzuigen ook een dweilfunctie voor hardere vloeren.

MOVA Tech P50 Ultra

De MOVA Tech P50 Ultra is een forse robotstofzuiger met een basisstation. Het apparaat heeft een stofreservoir van 30 cl en wordt geleverd met een basisstation waarin je het stof eenvoudig kunt verwijderen. De robot produceert een geluidsniveau van 74 dB, iets hoger dan de Philips‑modellen, en weegt inclusief station ruim 13 kg.

Hij kan uiteraard ook automatisch terugkeren naar het station om op te laden of te legen. In de specificaties staat dat de MOVA is voorzien van een Li‑ion‑batterij en dat hij zowel kan stofzuigen als dweilen. De meegeleverde app maakt het mogelijk om routes in te stellen en zones te blokkeren. Met een vermogen van 700 W is hij krachtig genoeg voor tapijten en harde vloeren. Het is geschikt voor mensen die een uitgebreid station met automatische functies willen.