15
Fri, Nov
0 New Articles

Algemeen

DEN HAAG -  Om ervoor te zorgen dat AI (kunstmatige intelligentie) veilig en betrouwbaar wordt ontwikkeld en toegepast, is per 1 augustus 2024 in de Europese Unie de AI-verordening in werking getreden.

Dit zijn Europese eisen en kaders voor AI. Zo kunnen we optimaal van de (economische) kansen van AI profiteren, worden de risico’s van AI-systemen en toepassingen aangepakt en stimuleren we de ontwikkeling van betrouwbare AI. De verordening zal stapsgewijs van toepassing worden.

De AI-verordening is een set aan regels die betrouwbare AI in de EU moet garanderen, door eisen te stellen aan de ontwikkeling en het gebruik van deze systemen. Afhankelijk van het AI-systeem of de context waarin het gebruikt gaat worden, gelden er andere eisen. Toepassingen van AI die echt ontoelaatbare risico’s opleveren voor mensen, worden verboden.

Denk daarbij aan systemen die worden gebruikt voor een oneerlijke beoordeling van mensen (zogenaamde ‘social scoring’). Aan AI met hoge risico’s, zoals bij toepassingen op de arbeidsmarkt of in de financiële dienstverlening, worden duidelijke eisen gesteld. Bij bepaalde AI-toepassingen die met burgers contact hebben (zoals chatbots) of content maken of manipuleren (deepfakes) moet het duidelijk zijn dat dit AI is. Aan AI-toepassingen die weinig of geen risico’s met zich meebrengen worden geen nieuwe eisen gesteld. De meeste AI-systemen die nu in Europa worden gebruikt, vallen in deze categorie.

Duidelijkheid
Burgers, consumenten, overheden en bedrijven die AI-producten gebruiken of hiermee in aanraking komen, kunnen er zo van uitgaan dat deze systemen veilig en betrouwbaar zijn. En het schept duidelijkheid voor AI-ontwikkelaars wanneer zij hun producten op de Europese markt willen aanbieden. Daarnaast kunnen bedrijven en (overheids-)organisaties in 'regulatory sandboxes' advies en uitleg krijgen van toezichthouders over de regels van de verordening, om zo de drempel te verlagen om AI-systemen op verantwoorde wijze te ontwikkelen en in te zetten. Ten slotte zorgen deze Europese regels voor een gelijk speelveld; ook niet-Europese aanbieders van AI-producten en -diensten moeten hieraan voldoen als zij deze hier aanbieden.

Minister Beljaarts (Economische Zaken): “We willen de economische kansen van AI beter benutten en innovatie door onderzoekers en ondernemers blijven stimuleren. Tegelijkertijd moeten we de veilige werking van AI kunnen verzekeren. Met deze wetgeving sluiten we daarom aan op de risico’s van verschillende AI-systemen. Strenge regels waar nodig, maar juist geen onnodige regels voor bedrijven die laag-risico AI-systemen ontwikkelen en toepassen. Ik ben daarom blij met deze Europese afspraken die de juiste balans brengen in de kansen en risico’s van AI.”

Staatssecretaris Szabó (Digitalisering en Koninkrijksrelaties): “Dit moment van inwerkingtreding van de AI-verordening is een belangrijke mijlpaal voor de Europese Unie. De EU, en daarmee ook Nederland, zet zich er sterk voor in dat we AI kunnen vertrouwen, en dat we ontwikkeling en gebruik van betrouwbare AI bij de overheid stimuleren. Aan de voorkant moeten ontwikkelaars nu bijvoorbeeld de risico’s voor fundamentele rechten in kaart brengen, en burgers worden actief geïnformeerd over de inzet van hoog-risico AI-systemen als het wordt ingezet bij besluiten die hen raken.”

Stapsgewijze invoering
De verordening is op 1 augustus 2024 in werking getreden, maar de verschillende onderdelen worden gefaseerd van toepassing. Dit geeft ontwikkelaars en aanbieders van hoog-risico AI gelegenheid om hun AI-systemen te laten voldoen aan de nieuwe eisen.

  • februari 2025: bepalingen op verboden AI
  • augustus 2025: eisen voor AI voor algemeen gebruik (general purpose AI)
  • augustus 2026: eisen voor hoog-risico AI-toepassingen en transparantieverplichtingen
  • augustus 2027: eisen voor hoog-risico AI-producten: volledige AI-verordening is dan van toepassinga
  • augustus 2030: eisen voor hoog-risico AI-systemen bij overheidsorganisaties die vóór augustus 2026 op de markt zijn gebracht

De Europese Commissie gaat toezicht houden op de grote AI-modellen die voor veel verschillende doelen gebruikt kunnen worden. Nationale toezichthouders gaan erop toezien dat de eisen voor hoog-risico AI worden nageleefd. Dat wordt in nationale regelgeving vastgelegd.