AI-verordening in het kort
In de AI-verordening staan de Europese regels voor het verantwoord ontwikkelen en gebruiken van AI. Ongewenste AI is verboden vanaf 2 februari 2025. Andere AI-systemen moeten vanaf 2026 of vóór 2030 voldoen aan bepaalde vereisten.
Verordening (EU) 2024/1689 (AI-verordening)
Over de AI-verordening
De AI-verordening is de eerste uitgebreide wet over artificiële intelligentie (AI) ter wereld. De regels gelden voor alle Europese lidstaten.
De AI-verordening trad in werking op 1 augustus 2024 en gaat stap voor stap gelden. De eerste regels gaan in op 2 februari 2025. Vanaf 2 augustus 2025 geldt de volgende set regels. Op 2 augustus 2027 gaan de laatste regels in. Dan is de hele AI-verordening van kracht.
Europese regels voor het ontwikkelen en gebruiken van AI
De AI-verordening geldt in deze 3 situaties samen:
- Je ontwikkelt of gebruikt AI.
- Dit doe je namens een overheid, bedrijf of andere organisatie.
- Je organisatie is gevestigd in een EU-land.
Het maakt niet uit waar je AI-producten ontwikkelt. Ontwikkel je buiten de EU, maar is je organisatie gevestigd in een EU-land? Dan geldt de EU-verordening.
Verantwoord gebruik van AI
Het doel van de AI-verordening is om verantwoord gebruik van AI te stimuleren in de hele EU. Daarom gelden in alle EU-landen dezelfde regels voor het:
- Verkleinen van risico’s voor de gezondheid, veiligheid en grondrechten van mensen
- Beschermen van de democratie, de rechtsstaat en het milieu
Het gaat dan om nieuwe risico’s, zoals misleiding en discriminatie door AI-systemen. Bestaande regels zoals de Algemene verordening gegevensbescherming (AVG) en de Algemene wet bestuursrecht (Awb) beschermen voor een deel tegen de risico’s van AI. De AI-verordening vult deze regels aan.
Definitie van een AI-systeem
De AI-verordening geldt voor AI-systemen. Volgens de verordening is dit:
'(…) een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na de uitrol aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen.'
Hieronder vallen systemen die kunstmatig intelligent zijn door zelflerende technieken zoals:
- supervised learning
- unsupervised learning
- reinforcement learning (bekrachtiginsleren)
- deep learning
Onder AI-systemen vallen ook systemen die gebruik maken van op logica en kennis gebaseerde benaderingen (knowledge and logic-based approaches) die leren, redeneren of modelleren mogelijk maken.
Symbolische AI is meestal ook een AI-systeem.
Uitzondering
Onder AI-systemen vallen geen systemen die gebaseerd zijn op door mensen gemaakte regels om automatisch handelingen uit te voeren.
Risicogroepen
De AI-verordening deelt AI op in risicogroepen. Hoe groter het risico van AI voor de samenleving, hoe strenger de regels uit de AI-verordening. Het hangt ervan af waarvoor je dit AI-systeem gebruikt.
Risico op misleiding
Dit zijn AI-systemen die je gebruikt voor:
- interactie met mensen, zoals AI-chatbots
- genereren van content, zoals afbeeldingen laten maken door Dall-E en of audio en tekst
Over deze systemen moet je transparant zijn. Gebruikers mogen niet denken dat zij te maken hebben met echte mensen of originele content.
Zie AI-verordening, hoofdstuk IV.
Hoog-risico-AI-systemen
Dit zijn AI-systemen die je gebruikt als veiligheidsonderdeel van bepaalde producten of AI-systemen die je gebruikt voor bepaalde diensten of processen.
'Gebruiken als veiligheidsonderdeel' betekent dat je AI-systeem een belangrijke rol speelt in de veiligheid van een product. En dit product valt onder de harmonisatiewetgeving van de EU, zoals:
- machines
- speelgoed
- liften
- uitrusting en beveiligingssystemen voor plaatsen met ontploffingsgevaar
- radioapparatuur
- drukapparatuur
- pleziervaartuigen
- kabelbaaninstallaties
- gastoestellen
- medische hulpmiddelen
- hulpmiddelen voor het testen van menselijk materiaal (in-vitrodiagnostiek)
- auto-industrie
- luchtvaartindustrie
Zie AI-verordening, bijlage I.
'Gebruik voor bepaalde diensten of processen' zijn:
- Biometrie, zoals het herkennen of indelen van mensen op basis van hun vingerafdruk, gezicht of andere lichamelijke kenmerken.
- Kritieke infrastructuur, zoals het veilig houden van digitale netwerken en verkeersnetwerken en het leveren van elektriciteit, water, gas en warmte.
- Onderwijs en beroepsopleiding, zoals het bepalen welke studenten je toelaat en het beoordelen van hun prestaties of gedrag.
- Werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, zoals het werven en selecteren van mensen, besluiten nemen die invloed hebben op hun contract en het beoordelen van hun prestaties of gedrag.
- Essentiële particuliere en openbare diensten, zoals bepalen wie recht heeft op uitkeringen, gezondheidszorg en andere belangrijke diensten en wie noodhulp krijgt van politie, brandweer en ambulance, het beoordelen van iemands financiële situatie, fraude opsporen en het bepalen van risico’s en prijzen voor levensverzekeringen en ziektekostenverzekeringen.
- Rechtshandhaving, zoals iemands kans inschatten om slachtoffer of dader te worden, het gebruik van een leugendetector, het beoordelen van bewijsmateriaal en het opsporen van verdachten.
- Migratie, asiel en grenzen, zoals inschatten wat de kans is dat iemand gevaarlijk of illegaal is, het behandelen van aanvragen en klachten en het herkennen of opsporen van mensen.
- Rechtsbedeling en democratische processen, zoals het uitleggen van de wet aan een rechtbank, gerechtshof of de Hoge Raad, advies geven bij een geschil of het beïnvloeden van de uitslag van een verkiezing.
Zie AI-verordening, bijlage III.
Verboden AI-systemen
Dit zijn AI-systemen die:
- misleiden
- misbruik maken van kwetsbaarheden of gevoelige situaties, zoals het overhalen van mensen met schulden om iets te kopen
- sociale scores bijhouden voor gedrag van mensen en hen hiervoor straffen
- beoordelen hoe groot het risico is dat iemand een strafbaar feit pleegt
- afbeeldingen van gezichten ‘scrapen’ (verzamelen) via internet of bewakingscamera’s en deze opslaan in een databank
- emoties herkennen van mensen op hun werkplek of op school
- biometrisch categoriseren: mensen indelen in gevoelige categorieën zoals ras en geloof, op basis van lichamelijke kenmerken zoals huidskleur
- biometrisch identificeren op afstand voor rechtshandhaving, zoals gezichten herkennen via camera’s op een openbaar plein (hiervoor gelden uitzonderingen in ernstige situaties zoals ontvoeringen en terrorisme)
Zie AI-verordening, artikel 5.
2 februari 2025: stoppen met verboden AI
Organisaties die verboden AI ontwikkelen of gebruiken, moeten deze producten vóór 2 februari 2025 uitfaseren.
2 augustus 2026: AI ontwikkelen volgens vereisten
Organisaties die AI-systemen ontwikkelen, moeten ervoor zorgen dat deze producten vóór 2026 voldoen aan bepaalde vereisten, zoals:
- Personen die toezicht houden op het systeem beschikken over de juiste kennis, kunde en autoriteit.
- Inputdata is voldoende relevant en representatief, voor zover dat mogelijk is.
- Als een gebruiksverantwoordelijke aanneemt dat het systeem niet meer voldoet aan de eisen uit de AI-verordening, stelt deze de aanbieder op de hoogte en onderbreekt het gebruik.
- Organisaties die beslissingen nemen over mensen met behulp van een hoog-risico-AI-systeem, informeren deze mensen hierover.
- Organisaties die AI gebruiken voor emotieherkenning of biometrische categorisatie van mensen, informeren deze mensen hierover.
Toezicht
- Nationale toezichthouders: controleren organisaties en kunnen straffen opleggen zoals een product uit de handel nemen
- AI-board: Europese raad voor artificiële intelligentie (nog in oprichting)
- AI-bureau: stelt richtlijnen op voor de AI-board
- Wetenschappelijk panel: advies van wetenschappers
- Adviesforum: advies van belanghebbenden
Beslishulp AI-verordening
Met de beslishulp AI-verordening bepaal je snel en gemakkelijk of jouw AI-product onder de AI-verordening valt. En wat je dan moet doen.
Help ons deze pagina te verbeteren
Deel je idee, suggestie of opmerking via GitHub of mail ons via algoritmes@minbzk.nl.