ID.nl logo
Alles over kunstmatige intelligentie in processors
© Reshift Digital
Huis

Alles over kunstmatige intelligentie in processors

Meer en meer apparaten gebruiken gespecialiseerde chips voor kunstmatige intelligentie. Zo heeft de Google Pixel 6 een AI-chip en is de iPhone al jaren voorzien van een Neural Engine. Wat is er zo speciaal aan deze chips en welke taken kunnen ze versnellen?

Standaardprocessors zijn ontworpen om zo snel mogelijk instructies na elkaar uit te voeren. Die race naar steeds snellere kloksnelheden heeft al een tijdje moeten plaatsmaken voor parallellisatie: hierbij voeren meerdere processorkernen op hetzelfde moment instructies uit. Maar de meeste software maakt daarvan geen efficiënt gebruik. Je tekstverwerker haalt niet zoveel voordeel uit acht gelijktijdig werkende processorkernen.

Deep learning

Maar er zijn heel wat gespecialiseerde toepassingen die wel profiteren van verregaande parallellisatie. Vooral in AI (kunstmatige intelligentie) en dan in het bijzonder deep learning, een vorm van neurale netwerken. Deze algoritmen profiteren ervan om dezelfde instructies op grote hoeveelheden verschillende data tegelijk uit te voeren. Dat vereist een heel ander soort processor.

Neurale netwerken bootsen de werking van de hersenen na, die een biologisch neuraal netwerk vormen: een kluwen van ontzettend veel verbindingen tussen neuronen (hersencellen). Een kunstmatig neuraal netwerk bestaat meestal uit meerdere lagen: een invoerlaag van neuronen die de invoer van een probleem voorstellen (bijvoorbeeld een foto), een uitvoerlaag van neuronen die de oplossing van het probleem voorstellen (bijvoorbeeld de naam van de persoon op de foto), en een of meer tussenliggende lagen die berekeningen uitvoeren. Bij een groot aantal lagen tussen en uitvoer spreken we van deep learning.

©PXimport

Tensors

De data in deep learning worden opgeslagen in de vorm van tensors. Een tensor is een veralgemening van een vector of matrix naar meerdere dimensies. We kunnen een tensor beschrijven aan de hand van drie primaire eigenschappen: de rang, de vorm en het datatype. De rang van een tensor is het aantal assen. Zo is de rang van een matrix 2, van een vector 1 en van een getal 0.

De vorm van een tensor is het aantal elementen volgens elke as van de tensor. Stel dat je een tensor van rang 2 aanmaakt met op de eerste rij de getallen 1 en 2, op de tweede rij de getallen 3 en 4, en op de derde rij de getallen 5 en 6. Dan is de vorm van deze tensor de vector (en dus ook een tensor, namelijk van rang 1) [3, 2]. De tensor heeft namelijk drie rijen van 2 elementen.

Het datatype van een tensor beschrijft welke getallen de tensor bevat. Dat kan bijvoorbeeld float32 zijn (kommagetallen van 32 bit), of int8 (gehele getallen van 8 bit).

©PXimport

Machine learning met tensors

Voor elke taak waarvoor je een neuraal netwerk wilt trainen, moet je dus de data omzetten in tensors. Een afbeelding waarin je objecten wilt herkennen, zet je dan om in een tensor van rang 3: de vorm is dan [hoogte, breedte, kanalen], waarbij kanalen voor de kleurkanalen zoals rood, groen en blauw staat.

Vaak verwerken algoritmen in machine learning maar een deel van de data tegelijk. In ons voorbeeld van objectherkenning worden dan meerdere afbeeldingen in een batch onderverdeeld. We werken dan met een tensor van rang 4 met als vorm [samples, hoogte, breedte, kanalen]: de eerste as bevat het aantal samples in een batch.

Deep learning met GPU’s

Toen deep learning rond 2010 na jarenlange ontwikkeling eindelijk doorbrak, was dat vooral door de opkomst van snelle GPU’s (graphical processing units). Onderzoekers ontdekten dat de chips die in grafische kaarten zitten om sneller beelden te renderen, ook uitstekend uitgerust waren voor deep learning, in het bijzonder bij volledig verbonden neurale netwerken.

Computerwetenschapper Andrew Ng bepaalde dat deep learning-systemen met een factor 100 versneld konden worden door gebruik van GPU’s. Niet langer had men weken nodig om algoritmen voor handschriftherkenning of objectdetectie te trainen, maar slechts dagen.

Een GPU bestaat dan ook gemakkelijk uit duizenden processorkernen. Bovendien maakt een GPU gebruik van het SIMD-paradigma (zie kader ‘SIMD’): dezelfde bewerking wordt op duizenden stukjes data tegelijk uitgevoerd. Dat is ideaal voor deep learning, wat een heleboel tensorbewerkingen nodig heeft op grote hoeveelheden data.

Grafische kaart voor AI

In het begin werden voor AI-taken gewoon grafische kaarten voor consumenten gebruikt. Ondertussen produceert Nvidia ook GPU’s, ontwikkelbordjes en volledige servers die specifiek zijn ontworpen voor deep learning. Dat alles doet het bedrijf onder de naam Jetson. De prijzen van de Jetson Developer Kits beginnen bij 75 euro.

De prestaties van deze GPU’s variëren van 472 gigaflops (472 miljard floating-point-bewerkingen per seconde) op de 128-core Nvidia Maxwell-GPU in de Jetson Nano tot 200 tops (200 biljoen bewerkingen per seconde) op de 2048-core Nvidia Ampere-GPU met 64 tensor-cores (te vergelijken met de tensor processing units van Google, zie verder) in de later dit jaar verwachte Jetson AGX Orin. Wat al deze GPU’s gemeen hebben, is dat ze met Nvidia’s toolkit CUDA (Compute Unified Device Architecture) te programmeren zijn.

©PXimport

SIMD

Computerwetenschapper Michael J. Flynn stelde in 1966 een invloedrijke classificatie op van computerarchitecturen volgens hun parallellisme. Deze werkt op basis van twee parameters: het aantal instructies dat tegelijk wordt uitgevoerd en het aantal datastromen dat tegelijk wordt verwerkt.

Een computer zonder parallellisme, zoals de pc vóór de komst van multicore-processors, valt onder single instruction, single data (SISD). Een GPU die dezelfde instructie op meerdere data tegelijk uitvoert, valt onder single instruction, multiple data (SIMD). Maar ook moderne processors ondersteunen gedeeltelijk SIMD-instructies, zoals Advanced Vector Extensions (AVX) op Intel- en AMD-processors, de Neon-extensie op ARM-processors en AltiVec op PowerPC.

Multiple instruction, single data is nogal ongewoon. De boordcomputer van de Space Shuttle gebruikt deze aanpak voor foutentolerantie. Multiple instruction, multiple data is de architectuur voor alle vormen van gedistribueerde systemen.

Overigens zijn moderne GPU’s geen perfecte implementatie van SIMD meer, maar eerder van single instruction, multiple threads (SIMT): je voert meerdere threads uit die elk SIMD toepassen.

Tensor processing unit

Hoewel GPU’s al een hele prestatiewinst bieden ten opzichte van CPU’s voor deep learning, kunnen de prestaties nog met zeker een factor 10 verbeteren door application-specific integrated circuits (ASIC) te gebruiken. Die chips hoeven immers geen rekening te houden met de GPU-architectuur en zijn speciaal ontworpen voor berekeningen met lagere precisie. Door berekeningen bij benadering uit te voeren, in plaats van exact tot op zoveel cijfers na de komma, gaan ze veel sneller. Die precisie is immers in veel toepassingen met neurale netwerken niet nodig.

Google ontwikkelde in 2015 zijn tensor processing unit (TPU), een ASIC voor machine learning. De TPU’s zijn ontworpen om met een laag verbruik zoveel mogelijk berekeningen uit te voeren met een lage precisie (doorgaans 8 bit). Specifiek voor convolutional neural networks zijn TPU’s heel geschikt.

TPU’s in de cloud

Het bedrijf zette de TPU’s eerst in zijn eigen datacenters in, en dat blijft het ook nu nog doen. Zo verwerken TPU’s foto’s van Google Photos, tekst van Google Street View en worden de chips ook gebruikt in het zoekalgoritme RankBrain. Google Translate, Google Assistant, Gmail, al deze diensten draaien op TPU’s.

Sinds 2018 biedt Google zijn TPU’s ook aan als onderdeel van het Google Cloud Platform. De dienst heet Cloud TPU. Zo heeft de tweede generatie van de Cloud TPU een snelheid van 45 teraflops. Daarvan worden vier chips op één module geplaatst, met een totale snelheid van 180 teraflops. Google assembleert 64 van die modules tot een ‘pod’ van 256 Cloud TPU-chips met een totale snelheid van 11,5 petaflops.

©PXimport

TPU’s lokaal

In 2019 kwam Google met een nieuwe productlijn TPU’s, de Edge TPU. In tegenstelling tot de Cloud TPU’s zijn deze bedoeld voor edge computing: berekeningen op lokale apparaten. De Edge TPU is in staat om vier biljoen bewerkingen per seconde uit te voeren met een vermogensverbruik van slechts 2 W.

Google biedt zijn Edge TPU-producten aan onder de merknaam Coral. Tot de beschikbare producten behoren ontwikkelbordjes van allerlei afmetingen, M.2-insteekkaartjes en de USB Accelerator die je eenvoudig via usb op je laptop of Raspberry Pi aansluit. De Edge TPU wordt ook aan andere fabrikanten gelicentieerd. Zo biedt Asus zijn ontwikkelbordje Tinker Edge T aan, evenals een PCIe-kaart waarin 8 of 16 Edge TPU-chips zijn geïntegreerd.

De Edge TPU programmeer je met TensorFlow Lite, een lichtgewicht framework voor deep learning. Aangezien de chip alleen 8bit-bewerkingen ondersteunt, moet het neurale netwerk getraind worden zodat het hiermee rekening houdt, of je kwantiseert een netwerk tot 8 bit.

Verder zijn de bewerkingen die de Edge TPU ondersteunt ook beperkt, waardoor de chip voornamelijk nuttig is voor inference, en niet voor het trainen van netwerken. Een voorbeeld van inference is het detecteren van objecten in foto’s. De training van het neurale netwerk dat je daarvoor gebruikt, moet op een ander platform gebeuren.

©PXimport

TPU in je broekzak

In 2019 bracht Google zijn telefoon Pixel 4 uit met een Neural Core. Deze chip was een aangepaste versie van de Edge TPU en hielp met het ontgrendelen via je gezicht, een snellere Google Assistant en een slimmere camera.

In de Pixel 5 verdween de Neural Core vreemd genoeg, maar in de Pixel 6 maakte de Edge TPU een comeback, deze keer ingebouwd in een nieuwe SoC, de Google Tensor. Deze bevat zowel een CPU als een GPU, TPU en nog andere versnellerhardware.

De TPU verbetert de automatische spraakherkenning van Google Assistant en helpt ook het automatische ondertitelingssysteem Live Caption zonder de batterij snel leeg te trekken. En met het neuraal netwerk HDRnet verbetert de TPU beelden met een breed bereik aan helderheden. Door de TPU voor deze taken te gebruiken, hoeft de Pixel 6 minder vaak verbinding te leggen met de Cloud TPU’s van Google zelf. Dat komt de batterijduur ten goede.

Telefoons met AI

Google is niet de enige die gespecialiseerde AI-chips in zijn telefoons steekt. In 2018 introduceerde Samsung zijn Exynos 9820 met een neural processing unit (NPU). De AI-versnellerchip zit onder andere in de Samsung Galaxy S10.

Ook Qualcomm heeft in zijn recente Snapdragon-SoC’s een zogeheten AI Engine ingebouwd. De module die MediaTek in zijn SoC’s heeft ingebouwd, heet een artificial intelligence processing unit (APU). AI is tegenwoordig al zo ingeburgerd in telefoons dat elke serieuze SoC-fabrikant dit inbouwt.

©PXimport

Apple Neural Engine

Ook Apple heeft AI-versnellerhardware. Die dook voor het eerst op in de A11 Bionic-SoC die Apple ontwierp voor de iPhone 8, iPhone 8 Plus en iPhone X van september 2017. Apple noemt deze hardware een Neural Engine. In de A11 bestond die uit twee cores die tot 600 miljard bewerkingen per seconde konden uitvoeren. De versneller werd gebruikt voor Face ID, Animoji en andere taken waarbij intelligentie nodig is.

In de A12 (onder andere gebruikt in de iPhone XR) voerde Apple het aantal cores in de Neural Engine op naar acht, met een snelheid van 5 biljoen bewerkingen per seconde. Niet alleen was dat negen keer sneller, maar de nieuwe versie verbruikte ook tien keer minder vermogen. In de A13 (van de iPhone 11) bleef het aantal kernen op 8 steken. Het resultaat was 20% sneller (6 biljoen bewerkingen per seconde) en 15% zuiniger.

Sneller en ook voor derden

In de A14 (van de iPhone 12) werd het aantal cores van de Neural Engine verdubbeld tot 16, met een snelheid tot 11 biljoen bewerkingen per seconde. In de Apple M1, de eerste door Apple zelf ontworpen ARM-SoC voor Macs, zat zo goed als dezelfde versie van de Neural Engine. In de Apple A15 (van de iPhone 13) werd de snelheid van de 16-core Neural Engine opgevoerd tot 15,8 biljoen bewerkingen per seconde.

Oorspronkelijk was de kracht van de Neural Engine alleen beschikbaar voor apps van Apple zelf. Maar ondertussen kunnen ook third-party app-ontwikkelaars ervan gebruikmaken via het framework Core ML dat Apple aanbiedt voor machine learning. App-ontwikkelaars die zware analysetaken uitvoeren, doen er goed aan om dat via Core ML te doen. Door deze taken op de Neural Engine uit te voeren, werken ze immers energie-efficiënter en blijft de batterij van de iPhone langer meegaan.

©PXimport

Black box

Het is belangrijk om te weten dat een TPU, NPU, Neural Engine of hoe het ook heet altijd is geoptimaliseerd voor een specifiek type bewerkingen. Een neuraal netwerk bestaat altijd uit verschillende lagen en die kunnen van verschillende types zijn. Niet elke AI-versnellerchip ondersteunt alle types. Ook de ondersteunde datatypes hangen af van de hardware: alleen gehele getallen of ook kommagetallen, en 8, 16 of 32 bit?

De bijbehorende ontwikkeltools moeten je normaliter helpen om een neuraal netwerk aan te passen op de versnellerhardware. Maar de Neural Engine en Core ML van Apple zijn een black box. Apple geeft third-party ontwikkelaars geen richtlijnen over hoe ze hun modellen kunnen optimaliseren om in Core ML gebruik te maken van de Neural Engine. Er is zelfs geen documentatie over welke types lagen ondersteund worden door de Neural Engine. Matthijs Hollemans heeft door te experimenteren wel wat bevindingen over de Neural Engine kunnen publiceren.

TensorFlow-modellen 

Bij de Edge TPU ziet het plaatje er al heel wat inzichtelijker uit. Google heeft uitgebreide documentatie over de compatibiliteit van TensorFlow-modellen op de Edge TPU. Allereerst is er de beperking dat de Edge TPU alleen feed-forward neurale netwerken kan uitvoeren. Hierbij vormen de verbindingen tussen neuronen geen cyclus, maar vloeit de informatie maar in één richting. Dit in tegenstelling tot de recurrent neural networks, waarvoor CPU’s overigens nog altijd goed geschikt zijn. De tweede beperking is dat de Edge TPU alleen TensorFlow Lite-modellen met 8bit-voorstellingen van data kan uitvoeren.

Je traint een model nooit rechtstreeks met TensorFlow Lite. Je traint eerst een TensorFlow-model, dat werkt met floating-point getallen van 32 bit. Dit zet je dan met de TensorFlow Lite Converter om naar een TensorFlow Lite-model met 8bit-getallen en compileer je tot een .tflite-bestand dat je op de Edge TPU kunt uitvoeren.

©PXimport

Deels op de CPU

Zelfs als je een model voor de Edge TPU hebt gemaakt dat intern gekwantiseerd is tot 8bit-getallen, zijn de invoertensors mogelijk nog 32bit-kommagetallen. De Edge TPU-compiler heeft dan een kwantisatiebewerking in het begin van je model toegevoegd. Ook aan het einde van je model komt dan een bewerking die de 8bit-uitvoer weer omzet naar 32 bit. Beide bewerkingen worden op de CPU uitgevoerd. Dat hoeft niet zo’n probleem te zijn en levert doorgaans maar een kleine vertraging op.

Als de Edge TPU Compiler een niet-ondersteunde bewerking tegenkomt, compileert hij de bewerkingen vóór die bewerking voor de Edge TPU. Alle bewerkingen daarna worden dan op de CPU uitgevoerd. De compiler vertelt je ook hoeveel bewerkingen hij op de Edge TPU kan uitvoeren en voor hoeveel hij de CPU nodig heeft. Zelfs als maar een kleine fractie van de bewerkingen op de CPU wordt uitgevoerd, kan dat een grote impact op de prestaties hebben. Je moet er altijd naar streven om 100% van het model op de Edge TPU te kunnen draaien.

Coprocessors

Het idee van een AI-versneller, al dan niet ingebouwd in een SoC, is niet zo nieuw. Al in de jaren 1980 werden processors uitgerust met zogenoemde coprocessors om specifieke taken sneller uit te voeren. Zo hadden Intels eerste x86-CPU’s bijbehorende x87-FPU’s (floating-point units): de 8086 kreeg hulp van de 8087 voor berekeningen met kommagetallen, de 80286 van de 80287 en de 80386 van de 80387. De 80486 was de eerste in de reeks met een ingebouwde FPU.

©PXimport

▼ Volgende artikel
Wat is HDR10+ en wanneer zie je het verschil?
© ER | ID.nl
Huis

Wat is HDR10+ en wanneer zie je het verschil?

Ben je op zoek naar een nieuwe televisie? Grote kans dat de afkortingen je om de oren vliegen. 4K, OLED, QLED... en dan ook nog die eindeloze lijst aan HDR-formaten. Vandaag zoomen we in op een specifieke term die je vaak op de doos ziet staan, vooral bij televisies van Samsung, Panasonic en Philips: HDR10+. Is het een marketingkreet of zie je het echt?

Het is een bekend scenario: je staat in de elektronicawinkel of scrolt door een webshop, en de specificatielijst van je droomtelevisie lijkt wel een geheimtaal. Fabrikanten beloven gouden bergen met termen die indrukwekkend klinken, maar waarvan de betekenis vaak vaag blijft. Toch is het zonde om deze termen zomaar te negeren, want achter die cryptische afkortingen gaan technieken schuil die je filmavond aanzienlijk kunnen upgraden. Het gaat tegenwoordig namelijk niet meer alleen om hoeveel pixels je scherm heeft, maar vooral om de kwaliteit van die pixels. Om te begrijpen waarom die plus in de naam HDR10+ zo belangrijk is, moeten we terug naar de basis.

Eerst even terug: Wat is HDR ook alweer?

HDR staat voor High Dynamic Range. Simpel gezegd zorgt deze techniek ervoor dat de beelden op je tv een groter contrast en meer kleuren hebben. Het zwart is dieper zwart en de felle lichten, zoals een explosie of de zon, knállen echt van je scherm zonder dat de rest van het beeld flets wordt. De standaardvorm hiervan heet HDR10. Dit is de basislaag die bijna elke moderne 4K-televisie ondersteunt. Maar HDR10 heeft één beperking: hij bepaalt aan het begin van de film de instellingen voor helderheid en contrast, en houdt die vervolgens de hele film vast.

©ER | ID.nl

De plus maakt het dynamisch

Hier komt HDR10+ om de hoek kijken. Die plus staat eigenlijk voor dynamische metadata. In plaats van één instelling voor de hele film, stuurt HDR10+ extra informatie mee naar je tv. Hierdoor kan de televisie het beeld scène voor scène of zelfs frame voor frame aanpassen. Zie het als een lichttechnicus die continu aan de knoppen draait om te zorgen dat elk specifiek shot er perfect uitziet, in plaats van dat hij het licht aan het begin instelt en daarna rustig koffie gaat drinken.

Wanneer zie je het verschil echt?

Klinkt goed op papier, maar merk je dit in de praktijk? Het antwoord is ja, vooral in films met veel wisselingen tussen licht en donker. Stel, je kijkt een film die begint met een scène in een zonovergoten woestijn, gevolgd door een scène in een pikdonkere grot. Bij standaard HDR10 stelt de tv zich in op het gemiddelde van de hele film. Omdat die woestijn zo fel is, kan de grot-scène er daarna wat te donker of dichtgelopen uitzien, waardoor details in de schaduw wegvallen.

Bij HDR10+ krijgt je tv, zodra de camera de grot in gaat, een seintje dat het donker wordt en het contrast moet worden aangepast. Hierdoor zie je opeens wél de details op de rotswanden en de texturen in de schaduw, terwijl de felle scènes nog steeds spathelder blijven. Kortom, HDR10+ haalt meer detail uit zowel de donkerste schaduwen als de felste hooglichten, precies op het moment dat het nodig is.

©Gorodenkoff - stock.adobe.com

Wat heb je nodig?

Om van HDR10+ te genieten, moeten alle schakels in de ketting kloppen. Allereerst heb je een geschikte televisie nodig. Vooral Samsung is de grote aanjager van HDR10+, maar ook merken als Panasonic, Philips en TCL ondersteunen het vaak. Let er wel op dat LG en Sony meestal kiezen voor de concurrent Dolby Vision.

Daarnaast moet de content (de film of serie die je kijkt) in HDR10+ geschoten zijn. Amazon Prime Video is de grootste aanbieder van HDR10+-materiaal op streaming-gebied, maar ook Apple TV+ en Google Play Movies bieden het aan. Netflix gebruikt helaas voornamelijk concurrent Dolby Vision. Tot slot ondersteunen veel 4K Ultra-HD Blu-rays het formaat ook als je liever fysieke schijfjes kijkt.

Direct aanschaffen dan maar...?

Is HDR10+ een reden om je huidige tv direct bij het grofvuil te zetten? Nee, dat niet. Maar sta je op het punt een nieuwe tv te kopen, bijvoorbeeld een Samsung, dan is het wel een hele fijne bonus. Het zorgt ervoor dat je films en series ziet zoals de regisseur ze bedoeld heeft: levendig, contrastrijk en vol detail. En ze hoeven tegenwoordig al helemaal niet meer de wereld te kosten.

▼ Volgende artikel
Bedankt, AI! Dit kun je tegenwoordig allemaal doen met Microsoft Paint
© Microsoft
Huis

Bedankt, AI! Dit kun je tegenwoordig allemaal doen met Microsoft Paint

Voor miljoenen gebruikers was Microsoft Paint de eerste stap richting digitale creativiteit. Kinderen tekenden er hun eerste computerkunstwerkjes in, volwassenen plakten er snel iets functioneels mee in elkaar. Sinds Windows 11 is Paint door de toevoeging van AI-functies en de ondersteuning van lagen veel slimmer geworden, zonder zijn eenvoud te verliezen.

Dit artikel in het kort

Microsoft Paint is in Windows 11 flink uitgebreid met AI-functies en ondersteuning voor lagen. In dit artikel laten we zien hoe je met Image Creator afbeeldingen maakt op basis van tekst, hoe het AI-saldo met boosts werkt en wat je kunt verwachten van functies als achtergrond verwijderen en generatief wissen. Ook leggen we uit hoe lagen werken in Paint en hoe je meerdere afbeeldingen en tekst combineert tot één geheel. Zo ontdek je dat Paint inmiddels veel meer kan dan alleen tekenen.

Lees ook: Van prompt tot filmpje: zo maak je je eigen AI-video met Bing Video Creator

Geen download, geen licentie en altijd beschikbaar … Paint is er al sinds de vroegste Windows-versies en het is er nog altijd. Hoewel de mogelijkheden beperkt zijn, blijft het geliefd om zijn eenvoud en simpele bediening of puur vanwege nostalgie. Zelfs wie zwaardere grafische software heeft, grijpt vaak terug naar Paint om snel iets te tekenen, een schermafbeelding bij te snijden of iets te markeren. Met de nieuwe functies groeit het programma uit tot meer dan een digitaal speeltje. 

Image Creator

Met Image Creator maak je in Paint rechtstreeks afbeeldingen door simpelweg te beschrijven wat je voor je ziet. De functie gebruikt het DALL·E-model van OpenAI voor tekst-naar-beeldgeneratie. Open Microsoft Paint en klik bovenaan op Copilot. Selecteer vervolgens Image Creator om het zijvenster te openen. In de interface van Cocreator verschijnt een tekstvak waarin je beschrijft wat je wilt zien en in welke stijl. Hoe preciezer en gedetailleerder je bent, hoe beter het resultaat aansluit bij je verwachtingen.

Kies vervolgens een stijl – bijvoorbeeld Houtskool, Ink Sketch, Anime, Fotorealistisch of een andere – en klik op Maken. Image Creator genereert telkens drie varianten van je afbeelding. Selecteer de versie die je het meest bevalt om die meteen op het canvas te plaatsen.

Aan de hand van een tekstopdracht genereert Paint een afbeelding.

AI-saldo

Om afbeeldingen te genereren met Image Creator in Microsoft Paint, moet je aangemeld zijn met een persoonlijk Microsoft-account. Dit werkt doorgaans niet met een zakelijk- of schoolaccount.

Microsoft hanteert een 'fair use'-systeem voor de rekenkracht die nodig is voor AI. Voor gratis gebruikers heet dit systeem boosts. Je krijgt dagelijks vijftien gratis boosts. Eén boost staat voor één snelle generatie van een set afbeeldingen. Zijn je boosts op? Dan kun je vaak nog steeds doorgaan, maar duurt het genereren aanzienlijk langer. De boosts worden elke dag aangevuld en je kunt ze niet opsparen.

Let op: Heb je een betaald Microsoft 365-abonnement (Personal of Family)? Dan werkt het soms net even anders. Je krijgt dan vaak maandelijks een vast aantal AI-credits (bijvoorbeeld 60) die je kunt inzetten voor diverse AI-functies binnen Microsoft-apps. In tegenstelling tot de dagelijkse boosts van gratis gebruikers, worden deze credits pas aan het begin van een nieuwe maand aangevuld.

Wil je onbeperkt en snel werken? Dan ben je aangewezen op een Copilot Pro-abonnement, waarmee je dagelijks 100 snelle generaties krijgt. Losse boosts bijkopen is in de standaardversie niet mogelijk.

In het deelvenster van AI staat een knop die je naar een webpagina met je AI-tegoedsaldo brengt.

Achtergronden

Een veelvoorkomende taak in beeldbewerking is het isoleren van een onderwerp uit de achtergrond. Met de functie Achtergrond verwijderen wordt dat verrassend eenvoudig. Houd er wel rekening mee dat deze functie niet zo verfijnd werkt als in Photoshop. Bij fijne details zoals haartjes, takjes of kleine blaadjes kan Paints AI soms een wat grof resultaat opleveren.

Ook hier start je via het pictogram Copilot. Kies vervolgens Achtergrond verwijderen. Paint analyseert het beeld en probeert automatisch te bepalen wat het onderwerp is en wat tot de achtergrond behoort. Aan de rechterkant verschijnt een miniatuurvoorbeeld waarin de achtergrond vervangen is door een schaakbordpatroon. Dat is de standaardweergave voor transparantie.

Onderaan in de zijbalk staat een vierkant pictogram. Als je daarop klikt, verschijnt hetzelfde schaakbordpatroon ook in de grote afbeelding. Je kunt via dit pictogram ook een achtergrondkleur kiezen in plaats van transparantie. Wil je een afbeelding opslaan met transparantie (bijvoorbeeld nadat je een achtergrond hebt verwijderd), dan moet je een bestandsformaat gebruiken dat transparantie ondersteunt. Het veelgebruikte jpg-formaat doet dat niet. Kies in dat geval voor png, dat wel transparante achtergronden kan bewaren.

Het schaakbordpatroon geeft het transparante gebied aan

Generatief wissen

Je kunt ook het selectiegereedschap linksboven gebruiken om een object in de afbeelding te verwijderen. Kies hiervoor het gereedschap Rechthoekige selectie of Vrije vorm selectie. Zodra je een gebied hebt geselecteerd, verschijnt er een klein contextmenu naast de selectie. Kies daar de optie Generatief wissen.

Je vindt deze functie ook via de knop Copilot. Vervolgens zie je een blauwe rechthoekige animatie rond het geselecteerde object. Paint analyseert de omgeving en vervangt het object door een realistisch ogende achtergrond die past bij de rest van de afbeelding.

Eerst selecteren, dan volgt een korte animatie en daarna is de selectie verdwenen.

Meerdere vensters openen

In Microsoft Paint lijkt het alsof je niet meerdere Paint-vensters tegelijk kunt openen. Wanneer je bijvoorbeeld een afbeelding hebt bewerkt, zoals het transparant maken van de achtergrond, en je probeert via Bestand / Openen een nieuw grafisch bestand te openen, vraagt Paint je eerst om het huidige bestand op te slaan.

Toch zijn er twee manieren om wel meerdere bestanden tegelijk in Paint te openen. Houd de Shift-toets ingedrukt terwijl je op het Paint-pictogram in de taakbalk of het startmenu klikt. Of klik met de rechtermuisknop op het Paint-pictogram in de taakbalk en kies opnieuw de opdracht Paint. Daarnaast is er nog een andere methode om afbeeldingen in een bestaand bestand toe te voegen. Daarover straks meer.

Met de Shift-toets kun je meerdere Paint-vensters openen.

Creatiever in Paint? Een goede muis is het halve werk

Of je nu AI-afbeeldingen genereert, teksten toevoegt of delen van een foto wilt wegsnijden: met het touchpad van je laptop blijft het behelpen. Voor nauwkeurig selectiewerk en het fijnere tekenwerk is een fysieke muis eigenlijk onmisbaar. Je voorkomt kramp in je vingers en werkt een stuk preciezer. Let bij aanschaf vooral op de DPI (hoe hoger, hoe nauwkeuriger) en extra knoppen die je zelf kunt instellen, bijvoorbeeld voor 'Ongedaan maken'.

Hier zijn drie muizen die het werken in Paint een stuk aangenamer maken:

1. De alleskunner: Logitech MX Master 3S Dit wordt door velen gezien als de beste muis voor creatief werk. Hij is prijzig, maar ligt fantastisch in de hand. Het unieke aan deze muis is het tweede scrolwieltje bij je duim. Dit kun je instellen om in Paint horizontaal te scrollen of om in en uit te zoomen op je canvas. Daarnaast is hij extreem nauwkeurig, waardoor je pixel-precies selecties kunt maken.

2. De ergonomische keuze: Logitech Lift Ben je urenlang bezig met het finetunen van je AI-creaties? Dan ligt een muisarm op de loer. De Logitech Lift is een zogeheten verticale muis. Je houdt hem vast alsof je iemand de hand schudt. Dit zorgt voor een veel natuurlijkere houding van je pols en onderarm. Even wennen in het begin, maar daarna wil je niet meer anders.

3. De prijsbewuste optie: Trust Ozaa Je hoeft geen honderd euro uit te geven voor een goede draadloze muis. De Trust Ozaa is een prima, betaalbaar alternatief. Hij is oplaadbaar (dus geen gedoe met batterijen), ligt prettig in de hand en heeft extra duimknoppen waarmee je snel tussen vensters kunt schakelen. Een uitstekende keuze voor de hobbyist die gewoon comfortabel wil klikken en slepen.

Lagen

Lagen: verwijderen

De nieuwe Microsoft Paint (vanaf versie 11.2306.30.0 op Windows 11) ondersteunt lagen. Dit is een belangrijke stap richting meer geavanceerde beeldbewerking. Lagen werken als transparante vellen met afzonderlijke elementen die je op elkaar stapelt. Elke laag kun je apart bewerken zonder de andere lagen te beïnvloeden. Dat biedt veel meer controle en flexibiliteit tijdens het creatieproces. We tonen dit met een voorbeeld.

We beginnen met een afbeelding van een meisje. Via Copilot / Achtergrond verwijderen halen we de achtergrond weg. Klik je vervolgens bovenaan op de knop Lagen, dan zie je dat de achtergrond is vervangen door het schaakbordpatroon.

Open Lagen en verwijder de achtergrond.

Lagen: combineren

Achter het meisje willen we nu een nieuwe achtergrond plaatsen. Daarvoor klik je in bij Lagen op het plusteken, zodat er een tweede, transparante laag wordt toegevoegd. Klik op de miniatuur van deze nieuwe laag om die actief te maken. Vervolgens gebruik je de opdracht Bestand / Importeren naar canvas / Uit een bestand om een nieuwe afbeelding - de achtergrond - toe te voegen op deze tweede laag. Let op, als je vergeet eerst de juiste laag te selecteren vóór je importeert, wordt de laag met het meisje overschreven door de nieuwe afbeelding.

In Lagen kun je de laagvolgorde wijzigen door te slepen. Zorg ervoor dat de laag met het meisje boven de achtergrondlaag staat. Op die manier verschijnt het meisje op de voorgrond in een nieuwe omgeving. Wil je het meisje nog wat naar links of rechts verplaatsen? Druk dan op Ctrl+A om alles in de actieve laag te selecteren. Vervolgens verschijnt de verplaatsingshandgreep, waarmee je het onderwerp kunt verschuiven.

Wijzig de volgorde van de lagen.

Lagen: manipuleren

Wanneer je met de rechtermuisknop op Lagen klikt, dan zie je zes mogelijkheden. Je kunt de laag verbergen. Dan verschijnt er in de rechterbovenhoek van de miniatuur een oogje dat doorstreept is. Als je op dit pictogram klikt, wordt deze verborgen laag opnieuw zichtbaar. Je kunt ook de opdracht Ctrl+H (met de H van hide) gebruiken om de geselecteerde laag te verbergen.

De opdracht Dubbele laag kies je als je een laag wilt dupliceren. De opdracht Samenvoegen naar beneden gebruik je wanneer je klaar bent, om alle laaginformatie te bundelen in één laag. Dat is vooral nuttig als je de afbeelding wilt opslaan in een formaat dat geen lagen ondersteunt. De opties Naar boven en Naar beneden gebruik je om lagen te verplaatsen. Persoonlijk slepen we de lagen liever in het deelvenster. En ten slotte is er de opdracht Laag verwijderen.

Met de rechtermuisknop kun je de lagen manipuleren.

Lagen: tekst toevoegen

Je kunt ook tekst toevoegen op een aparte laag. Zorg er eerst voor dat je een nieuwe, lege laag aanmaakt via het plusteken in het lagenvenster voordat je het tekstgereedschap gebruikt. Zodra je met het tekstgereedschap op het canvas klikt, verschijnt er een extra werkbalk waarin je het lettertype, de lettergrootte en de stijl instelt. Via een schuifregelaar kies je een lettergrootte tussen 8 en 72 pt. Let wel: bij foto's blijkt zelfs 72 pt vaak te klein. Je kunt dit oplossen door handmatig een groter getal in te voeren in het veld voor lettergrootte.

In ons voorbeeld kozen we een lettergrootte van 800 pt. In de knoppenbalk bovenaan kun je zowel de tekstkleur als de achtergrondkleur van het tekstvak instellen. Klik op de bovenste grote kleurcirkel om de tekstkleur te kiezen via de kleurstalen of de kleurkiezer. Klik op de onderste kleurcirkel om een achtergrondkleur voor het tekstvak te selecteren. In de tekstwerkbalk moet je de optie Opvulling voor achtergrond activeren als je wilt dat de tekstachtergrondkleur zichtbaar moet zijn.

Hier hebben we een lettergrootte van 800 pt toegepast.

Paint is groot geworden

Kijk je naar de nieuwe mogelijkheden in Paint, dan kun je gerust zeggen dat het programma volwassen is geworden. Het is nog steeds even laagdrempelig als vroeger, maar inmiddels wel uitgerust met een AI-brein en een flink aantal nieuwe functies. Of je nu snel iets wilt knutselen of een slimme bewerking wilt uitvoeren met lagen en AI, Paint laat zien dat zelfs oude software prima meekan met de tijd. En het mooiste? Je hoeft niets te installeren of te betalen. Gewoon openen, klikken en creëren. Met of zonder AI-hulp, die keuze is aan jou!

Zeg je Paint, dan zeggen wij

(stiekem, want guilty pleasure): BOB ROSS 🎨