Ga naar inhoud

Vereisten

Overzicht van de belangrijkste vereisten voor overheden die algoritmes of AI-systemen ontwikkelen of gebruiken.

Wetten en regels

De vereisten zijn gebaseerd op de wetten en regels voor het uitvoeren van wettelijke taken, zoals de:

  • AI-verordening
  • Algemene verordening gegevensbescherming (AVG)
  • Algemene wet bestuursrecht (Awb)
  • Algemene wet gelijke behandeling (Awgb)
  • Auteurswet
  • Baseline Informatiebeveiliging Overheid (BIO)
  • Grondwet

Bij elke vereiste staat de bron er duidelijk bij.

Let op!

Het Algoritmekader biedt een overzicht van de belangrijkste vereisten. Dit is niet volledig. Sectorspecifieke wetgeving is bijvoorbeeld niet meegenomen. Hierdoor kan het zijn dat er meer regelgeving van geldt voor jouw toepassing.

Aantal vereisten verschilt per situatie

Welke vereisten gelden voor jouw organisatie, hangt af van:

  • de technologie die je gebruikt: rekenregels, machinelearning of generatieve AI
  • de risicoclassificatie van het algoritme dat je gebruikt
  • je rol: ben je ontwikkelaar of alleen gebruiker van het algoritme?

Voorbeeld

Impactvolle algoritmes en AI-systemen worden gepubliceerd in het Nederlandse algoritmeregister.

Deze vereiste geldt alleen voor impactvolle algoritmes en hoog-risico-AI-systemen. Een niet-impactvolle rekenregel hoef je niet te registreren.

Overzicht vereisten

idVereistenRollenLevenscyclusOnderwerpen
aia-01Personeel en gebruikers zijn voldoende AI-geletterd projectleider organisatieverantwoordelijkheden menselijke-controle governance
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd projectleider ontwerp governance transparantie
aia-03Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem projectleider organisatieverantwoordelijkheden governance
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen projectleider beleid-en-advies ontwerp monitoring-en-beheer fundamentele-rechten bias-en-non-discriminatie
aia-05Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria projectleider ontwikkelaar dataverkenning-en-datapreparatie verificatie-en-validatie data
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie projectleider ontwikkelaar dataverkenning-en-datapreparatie ontwikkelen verificatie-en-validatie transparantie technische-robuustheid-en-veiligheid
aia-07Hoog-risico AI-systemen loggen automatisch bepaalde gegevens ontwikkelaar projectleider ontwikkelen monitoring-en-beheer transparantie technische-robuustheid-en-veiligheid
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen projectleider ontwikkelaar beleid-en-advies ontwerp ontwikkelen monitoring-en-beheer transparantie
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht projectleider ontwerp ontwikkelen monitoring-en-beheer menselijke-controle
aia-10Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig projectleider beleid-en-advies ontwikkelaar ontwerp ontwikkelen verificatie-en-validatie monitoring-en-beheer technische-robuustheid-en-veiligheid
aia-11Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem projectleider beleid-en-advies organisatieverantwoordelijkheden governance
aia-12Documentatie over hoog-risico-AI-systemen wordt tien jaar bewaard door de aanbieder projectleider ontwerp monitoring-en-beheer uitfaseren transparantie technische-robuustheid-en-veiligheid
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder projectleider ontwerp monitoring-en-beheer uitfaseren transparantie technische-robuustheid-en-veiligheid
aia-14Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure jurist projectleider verificatie-en-validatie implementatie governance
aia-15Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring jurist projectleider verificatie-en-validatie implementatie governance
aia-16Hoog-risico-AI-systemen zijn voorzien van een CE-markering projectleider implementatie transparantie
aia-17Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank projectleider implementatie governance transparantie
aia-18Als een hoog-risico AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in projectleider organisatieverantwoordelijkheden monitoring-en-beheer menselijke-controle technische-robuustheid-en-veiligheid
aia-19Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen projectleider ontwikkelaar ontwerp menselijke-controle technische-robuustheid-en-veiligheid
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing projectleider ontwikkelaar organisatieverantwoordelijkheden implementatie governance
aia-21Menselijke controle van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden projectleider organisatieverantwoordelijkheden governance menselijke-controle
aia-22De werking van hoog-risico-AI-systemen wordt gemonitord projectleider monitoring-en-beheer menselijke-controle
aia-23Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke projectleider ontwikkelen monitoring-en-beheer technische-robuustheid-en-veiligheid
aia-24Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt projectleider implementatie transparantie
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank projectleider organisatieverantwoordelijkheden implementatie monitoring-en-beheer transparantie governance
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten projectleider organisatieverantwoordelijkheden ontwerp monitoring-en-beheer governance fundamentele-rechten transparantie
aia-29Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten projectleider beleid-en-advies ontwerp verificatie-en-validatie fundamentele-rechten
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem projectleider ontwikkelaar ontwikkelen implementatie transparantie
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie projectleider ontwerp ontwikkelen monitoring-en-beheer transparantie
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen projectleider ontwikkelaar ontwikkelen verificatie-en-validatie monitoring-en-beheer transparantie
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd projectleider monitoring-en-beheer governance transparantie
aia-32AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen ontwikkelaar ontwikkelen monitoring-en-beheer governance technische-robuustheid-en-veiligheid
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden jurist ontwikkelaar projectleider organisatieverantwoordelijkheden ontwikkelen dataverkenning-en-datapreparatie privacy-en-gegevensbescherming data
aia-34Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem projectleider monitoring-en-beheer technische-robuustheid-en-veiligheid
aia-35Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder projectleider organisatieverantwoordelijkheden monitoring-en-beheer governance
aia-36Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening projectleider organisatieverantwoordelijkheden monitoring-en-beheer governance menselijke-controle
aia-37Klachtrecht aanbieders verder in AI-waardeketen projectleider organisatieverantwoordelijkheden governance fundamentele-rechten
arc-01Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet projectleider ontwikkelaar uitfaseren monitoring-en-beheer ontwikkelen governance data
aut-01Auteursrechten zijn beschermd jurist dataverkenning-en-datapreparatie ontwerp data governance
avg-01Persoonsgegevens worden op een rechtmatige manier verwerkt projectleider jurist probleemanalyse ontwerp dataverkenning-en-datapreparatie privacy-en-gegevensbescherming
avg-02Persoonsgegevens worden zo kort mogelijk bewaard ontwikkelaar beleid-en-advies ontwerp dataverkenning-en-datapreparatie ontwikkelen uitfaseren privacy-en-gegevensbescherming
avg-03Persoonsgegevens worden zo min mogelijk verwerkt jurist ontwikkelaar ontwerp dataverkenning-en-datapreparatie ontwikkelen privacy-en-gegevensbescherming
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair jurist ontwikkelaar ontwerp dataverkenning-en-datapreparatie fundamentele-rechten privacy-en-gegevensbescherming
avg-05Persoonsgegevens zijn juist en actueel ontwikkelaar projectleider dataverkenning-en-datapreparatie privacy-en-gegevensbescherming
avg-06Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken jurist ontwerp dataverkenning-en-datapreparatie governance privacy-en-gegevensbescherming
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens ontwikkelaar projectleider implementatie monitoring-en-beheer privacy-en-gegevensbescherming transparantie
avg-08Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt projectleider jurist beleid-en-advies ontwerp dataverkenning-en-datapreparatie privacy-en-gegevensbescherming bias-en-non-discriminatie
avg-09Betrokkenen kunnen een beroep doen op hun privacyrechten ontwikkelaar organisatieverantwoordelijkheden ontwikkelen privacy-en-gegevensbescherming data
avg-10Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd projectleider beleid-en-advies ontwerp implementatie privacy-en-gegevensbescherming
avg-11Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen beleid-en-advies projectleider jurist ontwikkelaar ontwerp dataverkenning-en-datapreparatie privacy-en-gegevensbescherming
avg-12Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen jurist ontwikkelaar organisatieverantwoordelijkheden privacy-en-gegevensbescherming technische-robuustheid-en-veiligheid
avg-13Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen jurist projectleider ontwerp dataverkenning-en-datapreparatie verificatie-en-validatie privacy-en-gegevensbescherming
awb-01Organisaties die algoritmes gebruiken voor publieke taken gaan zorgvuldig te werk projectleider beleid-en-advies ontwerp ontwikkelen verificatie-en-validatie fundamentele-rechten
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit jurist beleid-en-advies ontwerp implementatie monitoring-en-beheer transparantie
bio-01Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen beleid-en-advies ontwikkelaar organisatieverantwoordelijkheden technische-robuustheid-en-veiligheid
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister projectleider implementatie monitoring-en-beheer transparantie
dat-01Databanken worden alleen gebruikt met toestemming van de databank-producent jurist dataverkenning-en-datapreparatie data
grw-01Algoritmes schenden geen grondrechten of mensenrechten projectleider jurist probleemanalyse ontwerp verificatie-en-validatie monitoring-en-beheer fundamentele-rechten
grw-02Algoritmes discrimineren niet projectleider dataverkenning-en-datapreparatie verificatie-en-validatie monitoring-en-beheer bias-en-non-discriminatie
woo-01Iedereen kan openbare informatie over algoritmes vinden of aanvragen jurist projectleider organisatieverantwoordelijkheden transparantie

Help ons deze pagina te verbeteren

Deel je idee, suggestie of opmerking via GitHub of mail ons via algoritmes@minbzk.nl.