Ga naar inhoud

Grondrechten beschermen in algoritmes

Als overheid moet je de grondrechten van burgers beschermen. Dit geldt ook als je algoritmes gebruikt voor publieke taken.

Wat is het beschermen van grondrechten in algoritmes?

Dit betekent dat je tijdens het ontwikkelen en gebruiken van algoritmes rekening houdt met de fundamentele rechten van de mens:

Belang van grondrechten beschermen

Algoritmes kunnen grondrechten schenden. Een bekend probleem is bias in algoritmes. Hierdoor worden resultaten onbetrouwbaar en kun je mensen ongelijk behandelen.

Belangrijke grondrechten die vaak worden geraakt door algoritmen zijn bijvoorbeeld:

Als overheid moet je hier goed op letten. Doe dit zo vroeg mogelijk in de levenscyclus. De maatregelen die we adviseren, beginnen al bij het ontwerpen en trainen van algoritmes.

Vereisten

idVereisten
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen.
aia-26Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-27Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-37Klachtrecht voor aanbieders verder in AI-waardeketen.
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair.
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
grw-01Algoritmes schenden geen grondrechten of mensenrechten.

Aanbevolen maatregelen

idMaatregelen
pba-04Overleg regelmatig met belanghebbenden
owp-06Leg vast wat de impact van het algoritme is als het niet werkt zoals beoogd
owp-07Inventariseer welke grondrechten het algoritme kan schenden en maak een belangenafweging
owp-08Maak een lijst van de meest kwetsbare groepen en bescherm hen extra

Hulpmiddelen

Hulpmiddelen
Assessment List for Trustworthy Artificial Intelligence (ALTAI)
De Ethische Data Assistent
Impact Assessment Mensenrechten en Algoritmes
The Fairness Handbook
Framework for Meaningful Engagement
Handreiking non-discriminatie by design
Discriminatie door risicoprofielen - Een mensenrechtelijk toetsingskader

Help ons deze pagina te verbeteren

Deel je idee, suggestie of opmerking via GitHub of mail ons via algoritmes@minbzk.nl.