Ga naar inhoud

Transparant zijn over algoritmes

Overheden moeten transparant zijn over hun algoritmes. Dit betekent dat je duidelijke informatie geeft over de algoritmes die je ontwikkelt of gebruikt.

Wanneer ben je transparant?

Je draagt bij aan transparantie over algoritmes als je duidelijk uitlegt:

  • dat je algoritmes ontwikkelt of gebruikt
  • voor welk doel je deze algoritmes ontwikkelt of gebruikt
  • wat voor soort algoritmes dit zijn
  • welke code of programmeertaal je hiervoor gebruikt
  • welke data je hiervoor gebruikt
  • hoe uitkomsten tot stand komen
  • hoe belanghebbenden bezwaar kunnen maken tegen gevolgen van het algoritme

Belang van transparantie

Als je open bent over de algoritmes die je ontwikkelt of gebruikt, kunnen burgers en bedrijven zich beter verdedigen tegen mogelijke nadelige gevolgen. Verkeerd gebruik van algoritmes kan iemands leven namelijk ernstig beïnvloeden. Bijvoorbeeld door discriminatie of een besluit dat niet klopt.

Door uit te leggen hoe het algoritme werkt, kun je de beslissingen van het algoritme makkelijker controleren. Je leert sneller waarom het bepaalde keuzes maakt en waar de zwakke plekken zitten.

Ook je organisatie is makkelijker te controleren. Omdat je transparant bent over algoritmes, kunnen burgers feedback geven. Journalisten zien wat je doet. En andere overheden kunnen hiervan leren.

Aanpak transparant werken

Hoe je transparantie organiseert, hangt af van:

  • het doel van je algoritme
  • het soort algoritme waarmee je werkt
  • wie de gebruikers zijn van het algoritme, bijvoorbeeld medewerkers of burgers
  • de vereisten waar je aan moet voldoen
  • de maatregelen die je neemt
  • de doelgroep die je wil bereiken
  • de levenscyclus-fase van je algoritme

Onderzoek goed welk soort algoritme je gebruikt of wil gebruiken. Hoe groter de impact en het risico, hoe strenger de vereisten.

De keuze voor het soort algoritme bepaalt ook hoe transparant je kunt zijn. Van rekenregels kun je namelijk precies uitleggen hoe deze tot een beslissing komen. Maar complexe AI-systemen zijn vaak een black box: niemand weet precies hoe deze systemen beslissingen maken. Volledige transparantie is dan niet mogelijk. In dat geval moet je de werking zo goed mogelijk onderzoeken. Probeer bijvoorbeeld in elk geval ernstige gevolgen zoals discriminatie te voorkomen.

Tip

Rekenregels zijn makkelijker uit te leggen dan AI-systemen. Als een rekenregel voldoende is voor het bereiken van je doel, dan is het ook makkelijker om transparant te zijn.

Betrokken partijen

Stem je informatie af op de betrokken partij. Zo moeten gebruikers de uitkomst van het algoritme voldoende begrijpen voor het nemen van onderbouwde beslissingen. En belanghebbenden zoals burgers moeten weten dat zij te maken hebben met een algoritme. Zij moeten snel en makkelijk kunnen vinden wat hun rechten zijn en hoe zij in beroep kunnen gaan.

Doelgroep Informeer bijvoorbeeld over Geef de informatie bijvoorbeeld via:
Ontwikkelaar de werking, keuzes van het ontwikkelteam technische documentatie
Gebruiker hoe uitkomsten tot stand komen, gebruikte data, wat het algoritme wel en niet kan gebruiksinstructies, trainingen
Medewerker contactpersonen, algoritmegebruik binnen de organisatie, afspraken over algoritmemanagement (ook wel: algoritmegovernance) intern algoritmeregister, trainingen
Belanghebbende (iemand voor wie het algoritme gevolgen heeft) hoe een besluit tot stand kwam, mogelijkheden om bezwaar te maken, contactmogelijkheden brief over het besluit, webpagina over het algoritme
Geïnteresseerde burger algoritmegebruik binnen de organisatie webpagina over het algoritme, algoritmeregister
Auditor werking, ontwikkelproces, keuzes van het ontwikkelteam, hoe uitkomsten tot stand komen algoritmeregister, technische documentatie, programmeercode
Onderzoeker of journalist algoritmegebruik binnen de organisatie algoritmeregister, technische documentatie, code

Vereisten

idVereisten
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie
aia-07Hoog-risico AI-systemen loggen automatisch bepaalde gegevens
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen
aia-12Documentatie over hoog-risico-AI-systemen wordt tien jaar bewaard door de aanbieder
aia-13Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder
aia-16Hoog-risico-AI-systemen zijn voorzien van een CE-markering
aia-17Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank
aia-24Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-28Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
woo-01Iedereen kan openbare informatie over algoritmes vinden of aanvragen

Aanbevolen maatregelen

idMaatregelen
owp-08Bepaal welke documenten voor hoe lang gearchiveerd moeten worden
ver-03Controleer regelmatig of het algoritme voldoet aan alle wetten en regels en het eigen beleid
imp-01Maak een openbaar besluit over de inzet van het algoritme
imp-04Publiceer impactvolle algoritmes en hoog-risico-AI-systemen in het Algoritmeregister
imp-08Vermeld het gebruik van persoonsgegevens in het verwerkingsregister

Hulpmiddelen

Hulpmiddelen
Assessment List for Trustworthy Artificial Intelligence (ALTAI)
Impact Assessment Mensenrechten en Algoritmes
Algoritmeregister
Framework for Meaningful Engagement

Help ons deze pagina te verbeteren

Deel je idee, suggestie of opmerking via GitHub of mail ons via algoritmes@minbzk.nl.