AI: van razendsnelle ontwikkeling tot strikte regulering
Kunstmatige intelligentie is de wereld aan het veroveren, maar dat brengt ook zorgen met zich mee: banen verdwijnen en het auteursrecht wordt op grote schaal geschonden door technologiebedrijven die snel willen innoveren. Hoe beschermen we ons tegen de negatieve gevolgen van AI?
In dit artikel een overzicht van de status van AI.
- Banen op de tocht
- Stop op ontwikkeling AI-systemen
- Schoorvoetende ontwikkeling regelgeving omtrent AI
- Nederland geen voorloper
Lees ook: Nieuwe AI-wet van Europese Unie moet jou beter gaan beschermen
Al decennialang zijn er zorgen over de potentie van kunstmatige intelligentie. In de film The Terminator werd ons verteld hoe een AI-computer de wereld verwoestte, terwijl in The Matrix de machines besloten ons als menselijke batterijen te gebruiken. Een computer die zelf beslissingen kan nemen, is gevaarlijk, want hoe zorgen we dat die computer geen beslissingen neemt die het menselijk ras in gevaar brengt?
De hedendaagse kunstmatige intelligentie is gelukkig (nog) niet te vergelijken met die uit eerdergenoemde films, maar brengt wel andere zorgen met zich mee. Een zogeheten generatieve AI analyseert grote hoeveelheden data om te leren zelf iets te doen. Voed de software een lading kunstwerken van Van Gogh en hij leert uiteindelijk om in die stijl zelf iets te schilderen.
Een generatieve AI is moeilijk te besturen. Het is geen traditionele software die gebouwd is om één specifiek ding te doen, maar feitelijk een algoritme dat wordt geleerd om allerlei vrij te verzinnen taken uit te voeren. Makers ontdekken vaak pas achteraf wat voor maatregelen ze moeten inbouwen om de software in goede banen te leiden. Zo bleek een chatbot van Microsoft in 2016 ineens nazi-denkbeelden te ontwikkelen na gesprekken met gebruikers.
Gestolen werk
AI-software is inmiddels slim genoeg om illustraties te maken en artikelen te schrijven, wat heeft geleid tot zorgen bij kunstenaars en journalisten. Want als een computer hun werk kan doen, wat zijn de gevolgen voor deze mensen? Voor deze groep is het dubbel zuur, want AI heeft geleerd dit werk te doen door de producties van menselijke makers te analyseren. Dus je werk wordt gestolen en vermalen door een computer, die ermee leert hoe hij jou kan vervangen voor een schijntje van de prijs.
Dit zijn alleen nog maar actuele voorbeelden; experts wijzen erop dat AI alleen nog maar geavanceerder wordt en tot nog veel meer maatschappelijke vraagstukken zal gaan leiden. Want wat gebeurt er als een computer slim genoeg is om op scholen les te geven, criminelen op te sporen of juridisch werk over te nemen? Willen we naar een maatschappij waarin dergelijk werk niet meer door mensen wordt uitgevoerd? Over dat soort vraagstukken wordt momenteel druk nagedacht, en vele insiders neigen ertoe om AI op een of andere manier te reguleren.
Brief tegen AI-ontwikkeling
Een grote groep tech-prominenten schreef begin 2023 een open brief, waarin ze ervoor pleiten om de ontwikkeling van kunstmatige intelligentie te pauzeren. ‘Wacht een half jaar met het bouwen van AI-systemen die krachtiger zijn dan GPT-4’, luidde de boodschap.
Die pauze zou overheden de tijd moeten geven nieuwe wetgeving in te voeren om AI strenger te reguleren, en zo te voorkomen dat er misbruik van wordt gemaakt of de ontwikkeling uit de hand loopt. Die brief werd ondertekend door onder andere Apple-oprichter Steve Wozniak, Tesla-CEO Elon Musk en topmensen bij onder andere Pinterest, Skype en zelfs Googles eigen AI-bedrijf DeepMind.
De eerste regels komen er
Inmiddels worden schoorvoetend de eerste regels en afspraken rond kunstmatige intelligentie gemaakt. In Frankrijk, Duitsland en Italië liggen akkoorden klaar die op termijn moeten uitmonden in bredere wetten. Naast regels waar AI-softwareontwikkelaars zich aan moeten houden, pleit het voorstel ook voor toezichthouders die er op nazien dat bedrijven op verantwoordelijke wijze met AI omgaan.
De akkoorden van genoemde drie landen moeten de basis vormen voor een breder, Europees initiatief om continentbreed AI te reguleren. De zogenoemde AI Act moet technologiebedrijven verplichten om bijvoorbeeld te vermelden met welk bronmateriaal een afbeelding is gegenereerd, zodat de auteursrechtenhouders een vergoeding kunnen ontvangen. Daarnaast moet AI die zich met gevoelige gegevens bezighoudt, geregistreerd worden in een speciale database. Het gaat daarbij om software van bijvoorbeeld politie en overheid of instanties die biometrische gegevens gebruiken.
Deze vroege wetgeving wil nog geen harde sancties opleggen. Het plan is niet om meteen zware boetes uit te delen bij misbruik van AI, maar om bedrijven de juiste kant op te sturen om iets verantwoords te bouwen.
Ook interessant om te lezen: Wat brengt tech ons in de toekomst?
Nederland
Europa doet er altijd erg lang over om nieuwe regels in te voeren, dus het zal waarschijnlijk nog jaren duren voordat de AI Act van de grond komt. Tot dan is het aan ieder land om zelf te reguleren, en in dat opzicht heeft men in Nederland op dit moment vrij spel: er zijn hier geen specifieke wetten voor AI-toepassingen aangenomen. Vraag je het ministerie van Economische Zaken hierover, dan krijg je te horen dat AI een breed begrip is en hierop ook andersoortige regels van toepassing kunnen zijn.
Wel bereidt de Nederlandse regering een verbod voor op het gebruik van AI-software door ambtenaren, uit angst dat de software misbruikt wordt en zal leiden tot datalekken en spionage. Dat gebeurde al eens bij techbedrijf Samsung, waar zeer gevoelige data op straat belandde. Een medewerker vroeg de AI om te helpen met een nog onaangekondigd, geheim product. Hierdoor kwam het bestaan van dat product ineens in de database van de software terecht en kon het AI-bedrijf erover meelezen.
©Arnav Pratap Singh
Een Nederlandse overheids-AI
Tegelijkertijd wordt op overheidsniveau aan nog een maatregel gewerkt: een landelijke kunstmatige intelligentie. Ieder land wil zijn eigen AI bouwen, waarbij in Nederland bijvoorbeeld wordt gesleuteld aan NL-GTP. Dat project staat op dit moment nog in de kinderschoenen. Komend jaar gaat men eerst onderzoeken hoe het zou moeten werken voordat het überhaupt een praktisch bruikbaar stuk software wordt. Economische Zaken steekt 13,5 miljoen euro in de eerste fase van het project, waarmee TNO, Surf en het Nederlands Forensisch Instituut aan de slag gaan.
De nationale AI’s moeten mogelijke zorgen over potentiële wanpraktijken wegnemen. De software wordt volledig transparant, waardoor iedereen achteraf kan zien hoe het algoritme tot een bepaalde conclusie is gekomen en waar alle data naartoe worden verzonden. NL-GPT moet daardoor ook een veilige optie worden voor ambtenaren. En dat is hard nodig: een AI-verbod bij overheidsinstanties is nu nog houdbaar, maar als de technologie straks in alle haarvaten is doorgedrongen, mogen zij niet achterblijven.