ID.nl logo
Afbeeldingen maken met AI (kunstmatige intelligentie )
Huis

Afbeeldingen maken met AI (kunstmatige intelligentie )

Het kan je niet ontgaan zijn: AI, kunstmatige intelligentie, is ineens o-ver-al in het nieuws. Behalve teksten genereren kan er nog veel meer met AI. Plaatjes maken bijvoorbeeld. Jij vertelt aan de generator wat je wilt zien, waarna Stable Diffusion, zoals deze AI-tool heet, de afbeeldingen voor je maakt. ID.nl legt je in dit artikel uit hoe je er zelf mee aan de slag kunt en hoe je er de beste resultaten mee boekt.

Let op: dit is een masterclass. Om de stappen in dit artikel te volgen, moet je wel beschikken over de nodige programmeerkennis en de juiste hardware.

Met AI kun je meer dan alleen teksten genereren. Stable Diffusion is een AI-tool waarmee je zelf afbeeldingen kunt maken. In deze masterclass laten we jou zien hoe deze AI-tool volledig naar de hand kan zetten. We behandelen onder andere de volgende punten:

  • Benodigdheden
  • Het gebruik van Stable Diffusion
  • Prompt engineering & mutaties

Wil jij leren hoe je gemakkelijk oude foto's tot leven kan brengen? Lees dan: Deep Nostalgia: A.I. brengt oude foto's tot leven

Begin 2021 introduceerde OpenAI DALL-E, een neuraal netwerk dat was getraind met combinaties van grote hoeveelheden afbeeldingen en beschrijvingen daarvan. Met die kennis was DALL-E in staat om geheel nieuwe plaatjes te genereren op basis van een Engelstalige tekst die in het jargon een prompt wordt genoemd. Alhoewel de resultaten indrukwekkend oogden, kon het publiek er weinig mee; we mochten slechts online spelen met wat voorgekookte voorbeelden. De reden? OpenAI wilde uitgebreid onderzoek doen naar de gevolgen van dergelijke technologie (zie kader ‘Implicaties’). 

Naar goed wetenschappelijk gebruik had men echter wel de basisprincipes achter deze technologie gepubliceerd en daar gingen onmiddellijk veel hobby-programmeurs mee aan de slag. Het gevolg was een stortvloed aan AI-modellen die weliswaar DALL-E niet konden evenaren, maar waar wel iedereen mee kon spelen. 

Wellicht mede omdat deze modellen in rap tempo beter werden, besloot OpenAI medio 2022 om opvolger DALL-E 2 mondjesmaat voor publiek toegankelijk te maken en inmiddels kan iedereen zich aanmelden. De dienst werkt alleen op hun eigen hardware en het neurale netwerk wordt niet gedeeld. Je kunt je aanmelden op https://openai.com/dall-e-2

Ondertussen zat de opensource-community niet stil en met steun van www.stability.ai werd (ongeveer tegelijk met DALL-E 2) Stable Diffusion gelanceerd, compleet met een getraind neurale netwerk, en dat alles opensource. 

**Implicaties **

De komst van steeds betere text-to-image-modellen zorgt momenteel voor veel onrust, met name onder mensen die de kost verdienen met het maken van beeld (fotografen, illustrators en kunstenaars). De betere neurale netwerken zijn namelijk getraind met honderden miljoenen of zelfs miljarden van internet gesprokkelde afbeeldingen. Hoe zit het met de rechten van de mensen die deze hebben vervaardigd en wiens stijl de AI nu ineens kan nabootsen? Ongetwijfeld zal de komende jaren wetgeving worden ontwikkeld die hierin duidelijkheid moet brengen, maar in hoeverre die te handhaven is, is maar zeer de vraag. Vanwege de vele juridische vragen weigeren verschillende beeldbanken momenteel door AI gegenereerd beeld.

Andere punten van zorg rond deze revolutie gaan over het gemak waarmee iedereen nu beeld bij nepnieuws kan maken en de mate waarin AI bestaande stereotypen bevestigt.

Dit heb je nodig 

Het vrijgeven van Stable Diffusion als opensource-model heeft ervoor gezorgd dat verschillende aanbieders van text-to-image-systemen het aan hun arsenaal hebben toegevoegd (zie kader ‘Alternatieven’). 

Omdat Stable Diffusion in vergelijking tot zijn voorgangers relatief bescheiden eisen aan de hardware stelt, draait het ook op veel pc’s en dat biedt allerlei voordelen. Wij focussen ons ook op de pc, met de kanttekening dat alles wat we behandelen in veel andere omgevingen op vergelijkbare wijze werkt. 

AI leunt zwaar op Python en de grafische hardware van Nvidia met minimaal 8 GB geheugen. Terwijl we dit schrijven, wordt ook gewerkt aan varianten die op andere (en nog bescheidenere) hardware werken. 

Hoewel je lokaal de benodigde Python-scripts zou kunnen draaien, heeft het gebruik van het programma Visions of Chaos onze voorkeur. Deze software is oorspronkelijk bedoeld voor het maken van fractals en biedt een eenvoudige gebruikersinterface (die geen kennis van Python vereist). Het bevat een stortvloed aan opensource-AI, waaronder naast Stable Diffusion ook andere text-to-image-modellen, AI om foto’s en video’s te vergroten of in te kleuren, en heel veel meer. 

Om Visions of Chaos voor AI te kunnen gebruiken, moet je eerst een aantal stappen zorgvuldig uitvoeren. Daarna kun je Visions of Chaos downloaden en installeren. 

Er zijn allerlei manieren om Stable Diffusion te draaien. 

**Alternatieven **

Stable Diffusion draai je in een eenvoudige gebruikersinterface op de hardware van de makers op DreamStudio (2 dollar voor 200 afbeeldingen). Andere betaalde online alternatieven zijn Wombo Dream, NightCafé en MidJourney

Heb je zelf geen geschikte hardware en wil je ook niet betalen, dan kun je terecht bij Google Colab. Hier vind je vele Python-scripts voor Stable Diffusion en aanverwante AI, zoals Deforum. Colab-scripts zijn Python-programma’s die je op de hardware van Google kunt draaien door simpelweg op de afspeelknop van elk codeblok te klikken. Verschijnt er een groen vinkje, dan kun je door met het volgende blok. Deze werkwijze is weliswaar wat minder comfortabel, maar wel vanaf elk apparaat met een browser gratis te gebruiken. 

Vind je dat alles te complex en wil je toch niets betalen, dan is er de app VoiceArt (iOS en Android) waarin je je opdrachten zelfs kunt inspreken. 

Het gebruiksgemak van Google Colab is wat minder, maar het kost je ook niets, zelfs geen stroom! 

Stable Diffusion draaien 

Heb je Visions of Chaos eenmaal geïnstalleerd, dan start je het programma en ga je naar Mode / Machine Learning / Image Generation / Text-to-image. Het programma controleert nu of je systeem aan alle vereisten voldoet die bij paragraaf 1 moesten worden geïnstalleerd en daarna kom je in de interface voor de functie text-to-image. Kies je hier Stable Diffusion uit de lijst achter Script, dan gaat Visions of Chaos de benodigde componenten downloaden en een virtuele omgeving opzetten waarin deze draaien. Dat laatste is nodig omdat verschillende AI-modellen een andere combinatie van Python-bibliotheken vereisen. Dankzij Visions of Chaos hoef je daar nooit zelf naar om te kijken. 

Het ingewikkeldste deel is nu voorbij, want het downloaden van meer modellen en opzetten van meer omgevingen gebeurt slechts eenmalig, wanneer je een nieuwe AI voor het eerst gebruikt. 

Tijd om ons eerste plaatje te maken. In het vak Prompt voeren we de tekst a cute kitten in en daarna klikken we op Stable Diffusion Settings. Hier zetten we de opties Image Count en Grid Columns op 1 en klikken we op Close and Generate

Na ongeveer een halve minuut (op ons testsysteem) verschijnt het plaatje. In het statusvenster linksonder zie je overigens waar de resultaten standaard worden opgeslagen. Je kunt allerlei opslaglocaties aanpassen in het menu Options

Beschikt je grafische kaart over voldoende geheugen (zoals op ons testsysteem), dan kun je overigens ook meerdere plaatjes tegelijk genereren. 

Binnen een halve minuut fabriceren we een foto van iets dat niet bestaat. 

Inspiratie opdoen 

Zoiets simpels als ‘a cute kitten’ leent zich prima voor het snel maken van een plaatje, maar meestal is er heel wat meer nodig om het resultaat te krijgen dat je voor ogen hebt. Het maken van goede prompts is dan ook in rap tempo uitgegroeid tot een bijna wetenschappelijke bezigheid die prompt engineering wordt genoemd. 

Behalve van personen en objecten heeft Stable Diffusion ook kennis van heel veel grafische technieken en media, kunststromingen en artiesten. Het uitpluizen van de vele mogelijkheden op dit gebied is misschien wel het krachtigste wapen in het arsenaal van de prompt engineer. 

Een goed startpunt vormt het overzicht van (grafische) media en technieken op Wikipedia en bij Aesthetics Wiki vind je allerlei visuele stijlen. De overstap naar kunstrichtingen maak je op WikiArt waar je ook de naam van heel veel kunstenaars vindt, compleet met voorbeelden. Naast deze algemene sites kun je op internet zoeken naar overzichten van stijlen in architectuur en design, namen van bekende fotografen voor allerlei genres (portret, mode, landschap enzovoort). Al deze informatie bij elkaar vormt het begin van de inspiratie om betere prompts te formuleren die je meer naar eigen hand kunt zetten. 

Nauwkeurigheid 

In het prompt-venster van Visions of Chaos zie je een veld met de naam Seed. Dit houdt verband met de manier waarop deze en andere AI werken. Ze beginnen vaak met een afbeelding die uit ruis bestaat en proberen deze in het opgegeven aantal stappen (Iterations) om te toveren tot iets wat lijkt op de opgegeven prompt. Begin je met een andere waarde voor de seed, dan zal het eindresultaat ook anders zijn, wat betekent dat je met één prompt miljarden verschillende afbeeldingen kunt maken. 

Vanwege de complexe wiskunde achter dit soort modellen waren veel voorgangers van Stable Diffusion niet-deterministisch. Met andere woorden: dezelfde seed gaf verschillende resultaten wanneer je er meerdere plaatjes mee genereerde. 

De grote kracht van Stable Diffusion zit in het feit dat deze wél deterministisch is. Dat zorgt ervoor dat je het effect van wijzigingen in prompts nauwkeurig kunt testen en bestuderen. 

Uitgebreid testen 

Omdat Visions of Chaos verschillende mogelijkheden biedt om batches van prompts te verwerken, kun je dit soort tests eenvoudig ‘s nachts laten draaien. 

Om te achterhalen welke kunstenaars de AI kent, kun je bijvoorbeeld een lijst met prompts maken in de vorm van an artwork by X en deze laten uitvoeren via Batch / A list of text prompts. Een andere mogelijkheid vind je onder dezelfde knop bij Iterative text prompts. Hier kun je een prompt invoeren zoals a painting of a %1 by %2 waarbij je onder %1 replacements wat onderwerpen opgeeft en bij %2 replacements een aantal kunstenaars. 

Als voorbeeld kiezen we een vaste seed, zeg 1000, en geven de prompt a portrait of a beautiful girl. Vervolgens voegen we daar elementen aan toe om het resultaat te wijzigen (modifiers genaamd). Met a portrait of a beautiful girl, pencil sketch (of oil painting, gouache enzovoort) test je zo technieken en media. Met a portrait of a beautiful girl, by Albert Anker test en vergelijk je kunstenaars. En met a portrait of a beautiful girl, Steampunk (of medieval, ancient egyptian, cubism enzovoort) test je visuele stijlen. 

Door dit soort tests uit te voeren, bouw je vanzelf een bibliotheek met referentiemateriaal op die je kunt gebruiken wanneer je beeld wilt gaan genereren voor een willekeurige gelegenheid. Daarmee zijn we er echter nog niet. 

Dezelfde prompt en seed met verschillende ‘modifiers’ geven inzicht in het effect dat deze hebben. 

Spelen met variabelen 

Oudere AI-modellen boden vaak de mogelijkheid om met ‘gewichten’ te werken, wat je extra controle gaf over het resultaat. Een prompt was dan bijvoorbeeld a forest | foggy:x | autumn:y, en door de waarden voor x en y groter of kleiner te maken, kon je de hoeveelheid mist en de sterkte van de herfstkleuren beïnvloeden. Stable Diffusion ondersteunt deze mogelijkheid vooralsnog niet, maar dat wil niet zeggen dat we geen controle hebben. 

In Stable Diffusion geven we als vergelijking met dezelfde seed deze vier prompts: 

- a foggy forest in autumn

- a forest, foggy, autumn

- foggy, autumn, a forest

- autumn, foggy, a forest

Zoals je ziet in de afbeelding zijn er nuanceverschillen in de uitkomst en dus is de woordvolgorde belangrijk. Overigens kun je ook proberen een element te versterken door het woord te herhalen (eventueel in een synoniem). 

Door de woordvolgorde te wijzigen, maak je subtiele veranderingen in het resultaat. 

Prompt engineering 

Met alle verzamelde kennis kunnen we serieus aan de slag met prompt engineering. Naast al genoemde stijlen, media en namen van kunstenaars kun je nog de nodige andere elementen toevoegen. Erg populair is de toevoeging trending on Artstation die je resultaat vaak net wat fraaier maakt. Ook veelgebruikt zijn modifiers die verwijzen naar grafische technieken uit 3D-games zoals raytracing en Unreal Engine

Als voorbeeld van een grondig uitgewerkte prompt bekijken we het resultaat van: 

an elaborately furnished 1970s retro-futuristic interior, octane render, raytracing, volumetric lighting, wide angle, sofa, coffee table in foreground, large potted plant, futuristic lamps, biomorphic windows look out on a futuristic cityscape, mandelbulb space, fractal textures, trending on Artstation, Unreal Engine 3D shading, shadow depth, by Rackstraw Downes, by Canaletto, by Paul Delvaux, by Jakub Schikaneder 

Om exact hetzelfde resultaat te krijgen als wij gebruik je 1906332652 voor het veld Seed en 50 voor Iterations. Vervolgens klik je op Stable Diffusion Settings en zet je een vinkje bij Custom image size. Vul daar 960x512 in (mocht blijken dat je grafische kaart dat niet aankan, dan kun je kiezen voor een andere instelling bij VRAM Offloading). Kies bij Sampler k_lms, zet Scale op 15 en klik op Close and generate

Een voorbeeld van een uitgebreide prompt waarbij we alle registers hebben opengetrokken. 

Mutaties 

Zoals we eerder zeiden is Stable Diffusion deterministisch, maar dat geldt alleen wanneer je exact dezelfde instellingen gebruikt (inclusief de resolutie). Om te zien hoe dramatisch het verschil kan zijn, renderen we dezelfde prompt op 512x512

Een andere belangrijke factor is de gebruikte Sampler (de methode waarmee de AI vanaf de initiële ruis naar het eindresultaat navigeert). We kiezen euler_ancestral in plaats van k_lms. Het resultaat is totaal anders dan ons vorige plaatje op 512x512, maar heeft wel een vergelijkbare uitstraling. 

Een andere belangrijke factor voor het eindresultaat is de combinatie van Iterations en Scale. De eerste bepaalt het aantal stappen waarbinnen de AI beeld moet tonen en de tweede hoe nauwkeurig de prompt moet worden gevolgd. Het absolute minimum om vaak nog bruikbaar beeld te krijgen is Iterations=20 en Scale=7. Zeker met complexe prompts kan het resultaat dan snel wat rommeliger worden. Hogere waarden voor Scale vereisen vaak ook meer iteraties, maar een exacte formule is daarvoor niet te geven. 

Omdat je met complexe prompts vaak ook flink grote waarden voor Scale kunt gebruiken, geven ze je meer ruimte om te experimenteren. Als laatste voorbeeld daarvan renderen we Iterations=100 en Scale=25

Resolutie, Scale en de gebruikte Sampler zijn van grote invloed op het eindresultaat. 

Aan de slag 

We hebben je laten zien hoe je complexe prompts leert bouwen door kennis te vergaren over de stijlen, media en kunstenaars die Stable Diffusion kent. Gelukkig hoef je het wiel niet helemaal opnieuw uit te vinden. Op www.urania.ai/top-sd-artists zie je hoe Stable Diffusion de stijl van bijna tweeduizend artiesten interpreteert. Op www.krea.ai kun je naast het effect van de namen van kunstenaars ook de werking van heel veel andere modifiers bestuderen en leren van de prompts van anderen. Dat laatste kan ook via de miljoenen doorzoekbare afbeeldingen op www.lexica.art

Hoewel je met het langs deze weg genereren van plaatjes jarenlang bezig kunt zijn, is dat nog maar het begin. We hebben het namelijk nog niet eens gehad over het zelf trainen van AI of het maken van animaties. Er valt dus nog heel wat meer te ontdekken. 

**Inpainting en outpainting **

Bij de lancering had DALL-E 2 twee belangrijke troeven in handen ten opzichte van Stable Diffusion. Het genereert om te beginnen standaard plaatjes op 1024 × 1024 pixels waar dat bij Stable Diffusion 512 × 512 pixels is. Daar staat tegenover dat je in Stable Diffusion ook veel andere resoluties kunt kiezen. Overigens met wisselend succes, omdat dit soort modellen altijd wordt getraind met vierkante plaatjes waardoor renderen in portret- of landschapsformaat soms tot herhaling van beeldelementen leidt. 

De tweede troef van DALL-E waren de functies inpainting en outpainting. Met de eerste wis je een deel van een plaatje en laat je DALL-E daar naadloos iets anders voor invullen op basis van een prompt. Met de tweede ‘verzint’ DALL-E wat er buiten een plaatje te zien zou kunnen zijn en vult dat aan via een prompt. Inmiddels kent Stable Diffusion deze trucjes ook en worden ze via DreamStudio (zie kader ‘Alternatieven’) al aangeboden. Inpainting is daarnaast beschikbaar binnen Stable Diffusion WebUI dat Visions of Chaos ook voor je downloadt en installeert. Ongetwijfeld zal outpainting daaraan al zijn toegevoegd wanneer je dit leest. 

Een van de afbeeldingen uit stap 8 waar Dall-e 2 het nodige bij heeft verzonnen via outpainting. 
Inpainting via de Stable Diffusion WebUI. 
▼ Volgende artikel
Wanneer is een tv écht te groot voor je woonkamer?
Huis

Wanneer is een tv écht te groot voor je woonkamer?

Iedereen droomt weleens van een thuisbioscoop, maar groter is niet altijd beter. Een te groot scherm kan bijvoorbeeld zorgen voor vermoeide ogen of korrelig beeld. Ontdek hoe zaken als kijkafstand, de resolutie en de kijkhoek bepalen of een televisie daadwerkelijk in je woonkamer past.

In de felverlichte showroom van de elektronicawinkel lijkt die enorme 75-inch televisie waanzinnig indrukwekkend, maar eenmaal aan de muur in een doorsnee Nederlandse doorzonwoning kan zo'n gapend zwart vlak de ruimte volledig domineren. Veel consumenten denken onterecht dat een groter scherm automatisch garant staat voor een betere kijkervaring, ongeacht de afmetingen van de kamer. Toch is er een harde technische grens waarbij groot verandert in té groot, met hoofdpijn en onscherp beeld als direct gevolg. In dit artikel leer je precies hoe je die grens bepaalt en de ideale televisie kiest.

De kern van het probleem: resolutie en blikveld

Het probleem van een te grote tv is niet alleen esthetisch, maar vooral fysiologisch en technisch. Het draait allemaal om de verhouding tussen de resolutie (het aantal beeldpunten) en je blikveld. Zelfs bij moderne 4K-televisies zijn de pixels niet oneindig klein. Als je een enorm scherm neemt en daar te dicht op zit, trek je het beeld als het ware uit elkaar. Hierdoor verliest het beeld zijn scherpte en samenhang; je hersenen moeten harder werken om de losse informatie tot één geheel te smeden.

Een veelgehoorde misvatting is dat je simpelweg went aan elk formaat. Hoewel de eerste shock van een groot scherm inderdaad verdwijnt, blijft de fysieke belasting overeind. Als een scherm meer dan 40 graden van je horizontale blikveld inneemt, kun je niet meer het hele plaatje in één oogopslag zien. Je ogen moeten dan constant van links naar rechts scannen om de actie te volgen, vergelijkbaar met het kijken naar een tenniswedstrijd vanaf de eerste rij. Dat zorgt voor vermoeide ogen en kan op den duur zelfs leiden tot misselijkheid, ook wel 'cybersickness' genoemd.

©Gorodenkoff

Wanneer werkt een groot formaat wél goed?

Er zijn specifieke scenario's waarin een wandvullend scherm niet alleen kan, maar zelfs de voorkeur heeft. Dat geldt vooral als je de televisie primair gebruikt voor hoogwaardige content. Denk hierbij aan films op 4K Blu-ray of streamingdiensten die uitzenden in de hoogste bitrate, en uiteraard gaming op moderne consoles. In deze gevallen is de bronkwaliteit zo hoog dat je dichterbij kunt zitten zonder fouten in het beeld te zien.

Daarnaast werkt een groot formaat goed als de kijkafstand het toelaat. In moderne woningen met een open plattegrond of een loft-indeling staat de bank vaak wat verder van de muur. Als je kijkafstand meer dan 3 meter is, valt een 55-inch televisie al snel in het niet en moet je turen om details te zien. Een 65-inch of groter model herstelt in dat geval de balans en zorgt voor die gewenste bioscoopervaring, waarbij het scherm groot genoeg is om je onder te dompelen zonder dat je individuele pixels ziet.

Wanneer werkt dit níet goed?

De nadelen van een te grote tv worden pijnlijk duidelijk bij 'gewoon' tv-kijken. Veel lineaire televisieprogramma's, zoals het journaal, talkshows of sportuitzendingen via de kabel, worden niet in 4K uitgezonden, maar in Full HD of zelfs nog lager. Een enorme tv vergroot dat signaal genadeloos uit. Op een te groot scherm zie je dan plotseling ruis, compressieblokjes en onscherpe randen die op een kleiner scherm onzichtbaar zouden blijven. Het beeld oogt daardoor onrustig en rommelig.

Ook in de fysieke ruimte kan het tegenvallen. Een tv die uit staat is een groot, zwart en reflecterend vlak. In een compacte woonkamer zuigt een te groot scherm alle aandacht naar zich toe, zelfs als hij uitstaat. Zoiets verstoort de balans in je interieur en kan de kamer kleiner laten aanvoelen dan hij eigenlijk is. Daarnaast is de plaatsing van sfeerverlichting vaak lastiger; een gigantisch scherm blokkeert lichtinval of reflecteert lampen op een storende manier.

©RDVector

Als je té dicht op je televisie zit, kun je de kleurenleds van elkaar onderscheiden.

Dealbreakers: hier ligt de grens

Er zijn een paar harde grenzen die aangeven dat je beter een maatje kleiner kunt kiezen. Als je een van de onderstaande punten herkent, is dat een duidelijk signaal.

Je moet je hoofd fysiek draaien

Als je tijdens het kijken naar een film ondertiteling leest en daardoor de actie boven in het scherm mist, of als je je nek daadwerkelijk moet draaien om van de linker- naar de rechterhoek te kijken, is het scherm te groot voor je kijkafstand. Je verliest het overzicht.

De tv past fysiek niet op het meubel

Dit klinkt misschien logisch, maar wordt vaak genegeerd. Als de pootjes van de tv net aan op de rand van je tv-meubel balanceren, of als het scherm breder is dan het meubel zelf, oogt dat niet alleen goedkoop, het is ook onveilig. Een scherm dat buiten de kaders van het meubel steekt, is enorm kwetsbaar voor (om)stoten.

Je ziet pixels of rastervorming

Ga op je favoriete plek op de bank zitten. Zie je bij normaal HD-beeld een soort hordeur-effect of individuele blokjes? Dan zit je te dichtbij voor dat specifieke formaat. Dat is geen kwestie van wennen; het is een mismatch tussen resolutie, inch-maat en kijkafstand.

Wat betekent dit voor jouw situatie?

Om te bepalen of een tv past, moet je de rolmaat erbij pakken en even kritisch naar je eigen kijkgedrag kijken. De algemene vuistregel voor 4K-televisies is: meet de afstand van je ogen tot het scherm in centimeters en deel dat door 1,2 tot 1,5. De uitkomst is de ideale schermdiagonaal.

Zit je bijvoorbeeld op 2,5 meter (250 cm) van je scherm? Dan kom je uit op een schermdiagonaal tussen de 166 cm (65 inch) en 208 cm (82 inch). Maar let op: dat geldt alleen voor pure 4K-content. Kijk je veel normale televisie (praatprogramma's, nieuws)? Hanteer dan factor 2. Bij 250 cm afstand kijkt een scherm van 125 cm diagonaal (ongeveer 50 inch) dan vaak prettiger en rustiger. Ben je een fanatieke gamer of filmfanaat? Dan kun je de grens opzoeken. Ben je een casual kijker? Kies dan veilig voor een formaatje kleiner.

©BS | ID.nl

In het kort

Een televisie is te groot wanneer het beeld onscherp oogt of wanneer je fysiek je hoofd moet draaien om alles te kunnen volgen. Hoewel een groot scherm indrukwekkend lijkt, vergroot het bij standaard televisie-uitzendingen ook alle beeldfouten uit. De ideale grootte is een balans tussen kijkafstand en de kwaliteit van wat je kijkt. Meet daarom altijd de afstand tussen bank en muur, en wees realistisch over je kijkgedrag. Zo voorkom je hoofdpijn en blijft tv-kijken ontspannend.

▼ Volgende artikel
Microsofts Xbox Developer Direct heeft de code gekraakt
Huis

Microsofts Xbox Developer Direct heeft de code gekraakt

Het is ergens in 2025 als Fable voor het eerst, een soort van, getoond wordt. Beelden volgen elkaar in rap tempo op. We zien de dame die de hoofdrol lijkt te spelen, geen HUD en vooral heel veel mooie filmpjes. Daarna begint het wild speculeren, de klachten over het hoofdpersonage, de vraagtekens over de gameplay. Gelukkig was daar gister de Xbox Developer Direct, waar Microsoft eens te meer bewees de code gekraakt te hebben.

Vóór de pandemie, toen de Electronic Entertainment Expo (E3) nog bestond en online showcases, Directs en State of Plays nog niet echt een ding waren, wisten gameboeren hun spellen prima te verkopen. Ontwikkelaars verschenen op het podium tijdens liveshows, praatten over hun games, speelden live een demo (wat net zo vaak goed als faliekant misging) en dergelijke presentaties werden afgewisseld met teasers, hypetrailers en (nog verder terug) zelfs weleens grafieken en verkoopcijfers. Hoe anders is de wereld anno nu.

Watch on YouTube

Trailers vol trailers

Klaar zitten voor The Game Awards, een gemiddelde Direct, Showcase of Summer Game Fest is leuk, maar niet hetzelfde als ‘toen’. Want de formule is inmiddels bekend. Een half uur, een uurtje, een paar uur lang wordt er de ene na de andere trailer op je hersenen afgevuurd. Wat is ‘reclame’ en wat niet? Geen idee. Standaard zijn de animegames die elkaar zo rap opvolgen dat de gemiddelde kijker niet eens meer weet waar de ene game begint en de ander ophoudt. Meestal zit er een klapper aan het begin, waarna het grote wachten op de klapper aan het einde begint.

Vraag iemand een week later wat ie gezien heeft, en meer dan de helft van de getoonde games is waarschijnlijk uit het geheugen verdwenen.  En al die flarden van beelden zonder fatsoenlijke uitleg leiden vaker wel dan niet tot hetzelfde als die ene soort van trailer van Fable: speculaties, wild geroep en vraagtekens. Het komt de online discussie rondom games niet ten goede.

©Playground Games

Hoe anders was de inmiddels traditionele Xbox Developer Direct. Langer dan een uur, voor maar vier games. Die games kregen zodoende alle tijd, net als de ontwikkelaars. Gameplaybeelden zijn niet aan te slepen, verscheidene modi worden uitgebreid besproken en zelfs de kleinste details krijgen meer dan genoeg ademruimte. Zo horen we tijdens de Forza Horizon 6-presentatie dat het nummer van je eigen hangar (78) gekozen is omdat de game zich afspeelt in Japan, en die cijfers daar een positieve lading hebben. Fijn om te horen hoe scherp het oog voor detail van een ontwikkelaar is. Dat zegt iets over het project. En het is ook iets wat je never nooit in een hypetrailer van anderhalve minuut langs had zien komen.

Trailers vol trailers

En dus zit ik gisteravond te genieten. Niet eens per se van de games, want ze vallen net niet in mijn straatje. Forza Horizon 6 vind ik héél indrukwekkend en de game zal ongetwijfeld miljoenen spelers perfect bedienen, maar ik ben niet zo van het racen. Game Freak - de makers van Pokémon die eindelijk hun vleugels uitslaan met graphics uit dit decennium - komen met Beast of Reincarnation. Het ziet er oké uit. Double Fine vindt in mij ook geen fan en een multiplayer-pottenbakgame (Kiln) is niet iets wat hoog op mijn lijstje stond. Zelfs afsluiter Fable wist me met z’n levenssimulaties ook niet te overtuigen. Maar, nogmaals, wat heb ik genoten. Van ontwikkelaars die ruim de tijd kregen. Van de games, die van alle kanten belicht werden. Van de antwoorden die we kregen.

©Playground Games

Want wat ik nou precies van die games vond, is niet eens zo heel belangrijk. Veel belangrijker is dat iedereen dit keer in ieder geval een uitgebreid beeld kreeg van wat deze games nu precies worden. Een Xbox Developer Direct creëert geen valse hype. Van die vier getoonde games, weten we nu eigenlijk alles wat we redelijkerwijs moeten weten. Zoals bijvoorbeeld dat Fable een character creation-modus heeft, om maar iets te noemen. En plots zie je de discussies rondom de games gaan om… de inhoud. En niet op wilde speculaties rondom hoofdpersonages die helemaal niet vast blijken te staan. Love it.