Wat betekent de AI-verordening voor jouw organisatie?

15-07-2024

Binnenkort treedt de Europese AI-verordening in werking. Deze verordening is een wet die eisen stelt aan de ontwikkeling en het gebruik van artificiële intelligentie (AI) binnen de Europese Unie (EU). De wet treedt begin augustus in werking.

Daarom is het belangrijk om te begrijpen wat jouw organisatie te wachten staat en hoe je je kunt voorbereiden op deze inwerkingtreding.

Dit artikel verscheen eerder bij Digitale Overheid.

Het doel van de AI-verordening

De AI-verordening gaat voor zowel publieke als private partijen gelden. De wet beschrijft de rechten en plichten van ontwikkelaars en gebruikers van AI-systemen in de hele Europese Unie. Deze regels zorgen ervoor dat alleen betrouwbare AI wordt ontwikkeld en gebruikt die in lijn is met Europese publieke waarden en fundamentele rechten. De EU wil hiermee het vertrouwen van burgers in AI versterken en zo ruimte maken voor innovatie en economische ontwikkeling. Om dit te garanderen gaat de AI-verordening uit van een risico-gebaseerde benadering. Per risicocategorie zullen andere regels gelden.

Wat verandert er voor jouw organisatie?

Vanaf de inwerkingtreding van deze nieuwe wet, 1 augustus 2024, gaat de AI-verordening in fasen van kracht, waarbij de meeste verplichtingen binnen een half en 3 jaar van kracht gaan. Ook geldt dat de verplichtingen over 6 jaar met terugwerkende kracht zullen gelden voor overheidsorganisaties. Hierdoor vinden de veranderingen niet allemaal tegelijk plaats. Dit geeft organisaties de tijd om zich op de verplichtingen voor te bereiden.

Verboden AI-praktijken

De eerste categorie AI-systemen waarvoor de nieuwe wet zal gelden zijn de verboden AI-systemen. Dit zijn AI-systemen die in strijd zijn met Europese fundamentele normen en waarden. Omdat de risico’s van deze systemen onaanvaardbaar zijn, gaan deze bepalingen 6 maanden na inwerkingtreding van kracht. Voorbeelden van verboden praktijken zijn: AI-systemen die menselijk gedrag op een negatieve manier manipuleren. En AI-systemen die worden gebruikt voor een oneerlijke beoordeling van natuurlijke personen (zogenaamde ‘social scoring’).

AI-systemen met hoog risico

Een andere categorie onder de AI-verordening is de categorie hoog-risico AI. Dit zijn systemen die grote kansen en meerwaarde kunnen bieden, maar ook belangrijke risico’s in zich dragen die moeten worden weggenomen. Bijvoorbeeld bij systemen die sollicitaties filteren en analyseren. En systemen die overheidsinstanties ondersteunen bij het behandelen van aanvragen voor asiel of verblijfsvergunningen. Deze systemen moeten 2 jaar na inwerkingtreding (1 augustus 2026) aan de eisen voldoen. Voor hoog-risico AI-systemen in producten die vallen onder bepaalde EU-wetgevingen (bijvoorbeeld liften) geldt dat je tot 1 augustus 2027 de tijd hebt om te voldoen aan de gestelde eisen. Je hebt nog langer de tijd voor AI-systemen die vóór inwerkingtreding al in gebruik zijn genomen. Voor deze systemen geldt dat zij 6 jaar na inwerkingtreding (2030) aan de verplichtingen moeten voldoen.

Concreet betekent het voor jouw organisatie dat je allereerst moet inventariseren of je AI-systemen gebruikt die binnen de categorie verboden praktijken worden ingezet. Wanneer dit het geval is, moeten deze uitgefaseerd worden, vóórdat de verbodsbepalingen van kracht zijn. Inventariseer hierna of je AI-systemen gebruikt met een hoog risico en welke eisen hiervoor gaan gelden.

Vragen

Heb je vragen over de implementatie van de verordening en wat het inhoudt voor jouw overheidsorganisatie? Stel ze aan het ministerie van Binnenlandse Zaken en Koninkrijksrelaties via: ai-verordening@minbzk.nl. Ben je geen overheidsorganisatie, dan verwijzen we je graag door naar het Ondernemersplein.

Zie ook

Bekijk ook

 
 
 
Cookie-instellingen