Impact Assessment Mensenrechten en Algoritmes
ProbleemanalyseOntwerpVerificatie en validatieMonitoring en beheerProjectleiderOntwikkelaarJuristBeleid en adviesFundamentele rechtenTransparantie
Hulpmiddel
Het Impact Assessment Mensenrechten en Algoritmes (IAMA) is een instrument voor overheidsorganen dat een interdisciplinaire dialoog faciliteert en besluitvorming ondersteunt bij de ontwikkeling en inzet van algoritmische systemen. Het IAMA is toepasbaar op zowel AI-systemen als andere algoritmen. Het instrument richt zich vooral op de impact op grondrechten, maar biedt ook ruimte om andere relevante aandachtspunten vroegtijdig en gestructureerd in kaart te brengen. Zo helpt het om risico’s tijdig en zorgvuldig te beoordelen voordat een algoritme wordt ingezet. Het IAMA fungeert als naslagwerk voor de besluitvorming.
In februari 2026 is het IAMA geactualiseerd. De nieuwe versie sluit beter aan op praktijkervaringen binnen de overheid en op de AI-verordening. De actualisatie is gebaseerd op gebruikersfeedback en maakt het instrument overzichtelijker en beter toepasbaar. Tevens is er een apart toelichtingsdocument aan toegevoegd.
Het IAMA wordt in het bijzonder aanbevolen voor hoog-risico AI-systemen en impactvolle algoritmen.
Relevantie
Het IAMA staat zowel nationaal als Europees in de belangstelling. In zowel de Eerste als Tweede Kamer zijn hierover moties ingediend en Kamervragen gesteld.
Met de inwerkingtreding van de AI-verordening in 2024 is het belang van impactanalyses verder toegenomen. Het IAMA ondersteunt overheidsorganisaties bij de nationale implementatie van deze regelgeving.
Het IAMA heeft enige overlap met het Rijksmodel DPIA. Een DPIA richt zich op hoog-risico verwerkingen van persoonsgegevens. BZK heeft een handreiking opgesteld voor het gezamenlijk gebruik van het Rijksmodel DPIA en IAMA.
Het IAMA heeft ook enige overlap met het AIIA (AI Impact Assessment). Het AIIA is ontwikkeld door het ministerie van Infrastructuur en Waterstaat en richt zich specifiek op AI-systemen, terwijl het IAMA breder toepasbaar is op alle vormen van algoritmegebruik binnen de overheid.
Auteur
Het IAMA is in 2021 ontwikkeld door de Utrecht Data School. Opdrachtgever voor de ontwikkeling is het Ministerie van Binnenlandse Zaken.
Bijbehorende vereisten
| ID | Vereiste |
|---|---|
| aia-27 | Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten |
| grw-01 | Algoritmes schenden geen grondrechten of mensenrechten |
Bijbehorende maatregelen
| ID | Maatregel |
|---|---|
| owp-07 | Inventariseer welke grondrechten het algoritme kan schenden en maak een belangenafweging |
Bronnen
- Impact Assessment Mensenrechten en Algoritmes
- Toelichtingsdocument Impact Assessment Mensenrechten en Algoritmes
- Handreiking gebruik IAMA samen met Model DPIA Rijksdienst
Voorbeeld
Benieuwd naar ervaringen in de praktijk? Bekijk het rapport IAMA in Actie voor de lessons learned van 15 IAMA-trajecten bij Nederlandse overheidsorganisaties.
Heb jij een goed voorbeeld? Laat het ons weten!