Europese AI-verordening van per 2-2-2025 van kracht

De Europese AI-verordening is formeel op 1 augustus 2024 voor de gehele Europese Unie, dus ook in Nederland, in werking getreden. Gefaseerd worden vervolgens de regels voor de ontwikkelaars en gebruikers van kunstmatige intelligentie (AI) ingevoerd. Het doel van de verordening: balans vinden tussen innovatie en het waarborgen van de veiligheid en fundamentele rechten van haar burgers. De eerste fase is voor Nederland op 2 februari 2025 ingegaan.

Gefaseerde invoering risicocategorieën

De invoering van de AI-verordening gaat fasegewijs en daarbij worden de grootste risico’s als eerste aangepakt:

  • Per februari 2025: verboden AI-systemen. Dat zijn de AI-toepassingen die een onaanvaardbaar risico vormen voor de fundamentele rechten van mensen. Die toepassingen zijn nu verboden. Het gaat om AI-systemen die gedrag van mensen manipuleren of sociale scores koppelen aan burgers.  Daarnaast verplicht de verordening organisaties – in de rol van aanbieder van een AI-systeem of als ‘gebruiksverantwoordelijke’ – vanaf deze datum maatregelen te nemen om: ‘zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel. Daaronder worden vallen ook de uitzendkrachten en andere personen die namens hen AI-systemen exploiteren en gebruiken’. Dat betekent dat een werkgever moet ervoor zorgen dat werknemers, zzp’ers, uitzendkrachten e.d. die met AI-systemen werken, voldoende kennis en vaardigheden hebben om bewust en veilig met AI om te gaan. Wat een ‘toereikend niveau’ is, is afhankelijk van de werkzaamheden waarvoor AI gebruikt wordt, van de gebruikte systemen en de risico’s. Een werknemer die, bijvoorbeeld, ChatGPT gebruikt als zoekmachine, hoeft niet zo AI-geletterd te zijn als een HR-professional die met AI-tool een selectie te maakt tussen kandidaten voor een functie.
  • Per augustus 2025: AI-systemen voor algemeen gebruik
  • Per augustus 2026: Hoog risico AI-systemen. Dat zijn de toepassingen die een hoog risico vormen, zoals in de gezondheidszorg, rechtshandhaving of onderwijs. De AI-systemen krijgen te maken met strikte controles en toezicht. Deze systemen strikte eisen gesteld aan transparantie, veiligheid en toezicht voordat ze worden ingevoerd.
  • Per augustus 2027: eisen voor hoog-risico AI-producten. De volledige AI-verordening is dan van toepassing.
  • Per augustus 2030: eisen voor hoog-risico AI-systemen bij overheidsorganisaties die vóór augustus 2026 op de markt zijn gebracht.

Andere AI-systemen

Naast de hoog risicosystemen zijn er ook nog twee andere systemen waarvoor minder regels van toepassing zijn:

  • Beperkt Risico AI-systemen: dat zijn de AI-toepassingen met een beperkt risico, zoals chatbots. Ze moeten aan een aantal transparantieverplichtingen voldoen. Gebruikers moeten bijvoorbeeld worden geïnformeerd wanneer ze met een AI-systeem communiceren.
  • Minimaal Risico AI-systemen: het zijn de systemen die weinig of geen risico vormen. Denk aan AI-gestuurde apps en games. Ze zijn vrijgesteld van strenge regelgeving, maar moeten nog steeds voldoen aan de algemene regels van de EU voor gegevensbescherming en consumentenrechten.

Rol OR

De introductie van de AI-verordening is voor de OR een goed moment om de ontwikkelingen van AI in de eigen onderneming te bespreken. Daarbij kan sprake zijn van privacywetgeving (AVG) voor personeel en cliënten, maar kunnen ook er ook belangrijke investeringen gedaan worden om de ontwikkelingen van AI-toepassingen te financieren. Op zo’n belangrijke investering heeft de OR adviesrecht.


  • Meer lezen over de AI-wet? Klik hier
  • Juridische ondersteuning nodig bij de invoering van AI-systemen? Neem contact op
  • Als OR aan de slag met regelingen op het gebied van kunstmatige intelligentie? Neem contact op