top of page

De risicocategorieën van de Europese AI Act

Foto van schrijver: Antal de WaijAntal de Waij

De Europese AI Act, die sinds augustus 2024 gefaseerd van kracht wordt, heeft als uitgangspunt een aantal risiconiveaus om AI te reguleren. Deze wet heeft als doel innovatie te bevorderen maar ook mensen te beschermen. Naarmate het risico toeneemt moet je meer maatregelen nemen om mensen te beschermen. Deze bescherming gaat over de belangrijkste rechten van mensen, veiligheid en de democratische waarden van de Europese Unie. Er zijn vier risicocategorieën met eigen regels en verplichtingen. Deze vier vier risicocategorieën benadrukken het belang van AI-geletterdheid:

 

Risicocategorie 1. AI-systemen met een onaanvaardbaar risico 

Deze categorie omvat AI-toepassingen die als direct gevaar voor burgers worden beschouwd. Daarom zijn ze verboden. Denk hierbij aan social scoringsystemen die mensen beoordelen op basis van persoonlijke kenmerken of gedrag, zoals financiële status of politieke overtuigingen.

 

Een interessant kijkje in de wereld van social scoring is een Netflix-aflevering Nosedive van de serie Black Mirror.


Een voorbeeld van een hoge risicocategorie. Een foto van mensen in een tuin die allemaal hun social score controleren via hun mobiele telefoon. Een scene uit de film Nosedive uit de Netflixserie Black Mirror
Nosedive: personen checken allemaal hun social score (Bron IMDB.com)

Ook realtime biometrische identificatie in openbare ruimtes voor rechtshandhaving is verboden. Maar er zijn uitzonderingen voor gevallen zoals terrorismebestrijding. Tot slot zijn systemen die emoties herkennen in onderwijs- of werkomgevingen expliciet verboden vanwege het risico op manipulatie en discriminatie. Deze verboden gelden sinds februari 2025 en worden streng gehandhaafd, met boetes tot €35 miljoen of 7% van de wereldwijde omzet. 

 

Risicocategorie 2. Hoog-risico AI-systemen 

Hier gaat het om AI die aanzienlijke impact heeft op gezondheid, veiligheid of grondrechten van mensen. Wanneer ze gebruikt worden kunnen de mensen die onderwerp zijn van het systeem zeer nadelige gevolgen ervaren, zoals het verliezen van een baan of een uitkering.

Denk aan systemen voor werving en selectie, zoals CV-screeningtools. Maar denk ook aan AI-systemen die beslissingen neemt over toegang tot belangrijke diensten zoals uitkeringen en leningen. Ook toepassingen in het onderwijs, zoals automatische examenbepalingen, en biometrische identificatie vallen hieronder.

Ontwikkelaars, dus de makers van AI-systemen, en gebruikers moeten voldoen aan strenge eisen, zoals het beoordelen van risico’s, technische documentatie en menselijk toezicht. Vanaf augustus 2026 moeten deze systemen geregistreerd worden in een EU-database en getest zijn. Generatieve AI-modellen zoals ChatGPT vallen standaard onder hoog risico vanwege hun brede inzetbaarheid, tenzij ze voor onbelangrijke, eenvoudige taken worden gebruikt. 

 

Risicocategorie 3. Beperkt risico: het draait om transparantie

AI die gebruikers kunnen misleiden, zoals chatbots of deepfakes, valt in deze groep. De wet vereist dat gebruikers altijd op de hoogte worden gesteld van interacties met AI. Een chatbot moet bijvoorbeeld duidelijk vermelden dat het geen mens is, en gegenereerde content zoals nieuwsartikelen of afbeeldingen moet als zodanig worden gelabeld. Deze regels zijn bedoeld om bewustwording te vergroten en manipulatie te voorkomen.

 

Het komt er kort gezegd op neer dat wanneer jij een chatbot of een deepfake gebruikt, dat je mensen dat moet laten weten. Het draait erom dat mensen anders zouden hebben gehandeld wanneer ze doorhebben dat de informatie niet is gegeven door een mens.


 

Dat het hier gaat om soms zeer gevaarlijke situaties wordt geïllustreerd aan de hand van een rechtszaak. Deze speelt zich weliswaar af in de Verenigde Staten in de staat Texas, maar illustreert exact wat in Europa met deze AI Act wordt voorkomen. De aanklacht, is tegen het bedrijf Character.AI. Deze wordt ervan beschuldigd een rol te hebben gespeeld bij de zelfmoord van een tiener in Florida.


Afbeelding met twee screenshots van het bedrijf Character.AI waaruit blijkt dat hun chatbot of virtuele vriend aanbevelingen doet aan tieners die in strijd zijn met de EU richtlijnen.
Een voorbeeld van de interacties van een chatbot met tieners Twee voorbeelden van interacties met chatbots van het bedrijf Character.AI. Bron: Social Media Victims Law Center
 

 

De Autoriteit persoonsgegevens waarschuwt niet voor niets. Zij publiceerden in hun Rapportage AI- & Algoritmerisico’s Nederland, editie 4-2025: “De huidige generatie AI-chatbotapps, gericht op vriendschappen of mentale gezondheid, zijn over het algemeen onvoldoende transparant, onvoldoende betrouwbaar, en risicovol in crisissituaties”.

 

Risicocategorie 4. Minimaal risico: ruimte voor innovatie 

De meeste AI-toepassingen uit het dagelijks leven vallen hieronder. Denk aan spamfilters of slimme laadpalen voor elektrische auto’s, vallen in deze categorie. Voor deze systemen gelden geen aanvullende regels, waardoor bedrijven vrij zijn om experimenten te doen. De EU benadrukt hiermee dat innovatie niet wordt belemmerd, zolang er maar geen grote, lees eerdergenoemde, risico’s ontstaan.


Handhaving en toekomstperspectief 

Zoals je ziet, heeft de AI Act met de risicocategorieën een gelaagd handhavingssysteem. Hierbij worden nationale toezichthouders ingezet samen met een centraal EU-agentschap. Zij kunnen naast boetes opleggen aan systemen die niet voldoen aan bovenstaande criteria en zelf van de markt worden gehaald. Dat is afhankelijk per risicocategorie. Voor het mkb-bedrijven gelden lagere boete richtlijnen om onevenredige straffen te voorkomen.

 

De risicocategorieën vormen een balans tussen bescherming van mensen en innovatie door bedrijven. Door AI-toepassingen te classificeren op impact op mensen, creëert de EU een voorspelbaar kader waar ontwikkelaars, bedrijven en burgers op kunnen vertrouwen.

 

Nu je de risicocategorieën kent dan weet je ook dat AI-geletterdheid niet voor iedereen hetzelfde is. Er worden aan risicocategorie "hoog risico AI" andere eisen gesteld dan aan de risicocategorie "laag risico". Dat is natuurlijk best wel logisch.




Comments


bottom of page