Ga naar inhoud

Transparant zijn over algoritmes

Overheden moeten transparant zijn over hun algoritmes. Dit betekent dat je duidelijke informatie geeft over de algoritmes die je ontwikkelt of gebruikt.

Wanneer ben je transparant?

Je draagt bij aan transparantie over algoritmes als je duidelijk uitlegt:

  • dat je algoritmes ontwikkelt of gebruikt
  • voor welk doel je deze algoritmes ontwikkelt of gebruikt
  • wat voor soort algoritmes dit zijn
  • welke code of programmeertaal je hiervoor gebruikt
  • welke data je hiervoor gebruikt
  • hoe uitkomsten tot stand komen
  • hoe belanghebbenden bezwaar kunnen maken tegen gevolgen van het algoritme

Belang van transparantie

Als je open bent over de algoritmes die je ontwikkelt of gebruikt, kunnen burgers en bedrijven zich beter verdedigen tegen mogelijke nadelige gevolgen. Verkeerd gebruik van algoritmes kan iemands leven namelijk ernstig beïnvloeden. Bijvoorbeeld door discriminatie of een besluit dat niet klopt.

Door uit te leggen hoe het algoritme werkt, kun je de beslissingen van het algoritme makkelijker controleren. Je leert sneller waarom het bepaalde keuzes maakt en waar de zwakke plekken zitten.

Ook je organisatie is makkelijker te controleren. Omdat je transparant bent over algoritmes, kunnen burgers feedback geven. Journalisten zien wat je doet. En andere overheden kunnen hiervan leren.

Aanpak transparant werken

Hoe je transparantie organiseert, hangt af van:

  • het doel van je algoritme
  • het soort algoritme waarmee je werkt
  • wie de gebruikers zijn van het algoritme, bijvoorbeeld medewerkers of burgers
  • de vereisten waar je aan moet voldoen
  • de maatregelen die je neemt
  • de doelgroep die je wil bereiken
  • de levenscyclus-fase van je algoritme

Onderzoek goed welk soort algoritme je gebruikt of wil gebruiken. Hoe groter de impact en het risico, hoe strenger de vereisten.

De keuze voor het soort algoritme bepaalt ook hoe transparant je kunt zijn. Van rekenregels kun je namelijk precies uitleggen hoe deze tot een beslissing komen. Maar complexe AI-systemen zijn vaak een black box: niemand weet precies hoe deze systemen beslissingen maken. Volledige transparantie is dan niet mogelijk. In dat geval moet je de werking zo goed mogelijk onderzoeken. Probeer bijvoorbeeld in elk geval ernstige gevolgen zoals discriminatie te voorkomen.

Tip

Rekenregels zijn makkelijker uit te leggen dan AI-systemen. Als een rekenregel voldoende is voor het bereiken van je doel, dan is het ook makkelijker om transparant te zijn.

Betrokken partijen

Stem je informatie af op de betrokken partij. Zo moeten gebruikers de uitkomst van het algoritme voldoende begrijpen voor het nemen van onderbouwde beslissingen. En belanghebbenden zoals burgers moeten weten dat zij te maken hebben met een algoritme. Zij moeten snel en makkelijk kunnen vinden wat hun rechten zijn en hoe zij in beroep kunnen gaan.

Doelgroep Informeer bijvoorbeeld over Geef de informatie bijvoorbeeld via:
Ontwikkelaar de werking, keuzes van het ontwikkelteam technische documentatie
Gebruiker hoe uitkomsten tot stand komen, gebruikte data, wat het algoritme wel en niet kan gebruiksinstructies, trainingen
Medewerker contactpersonen, algoritmegebruik binnen de organisatie, afspraken over algoritmemanagement (ook wel: algoritmegovernance) intern algoritmeregister, trainingen
Belanghebbende (iemand voor wie het algoritme gevolgen heeft) hoe een besluit tot stand kwam, mogelijkheden om bezwaar te maken, contactmogelijkheden brief over het besluit, webpagina over het algoritme
Geïnteresseerde burger algoritmegebruik binnen de organisatie webpagina over het algoritme, algoritmeregister
Auditor werking, ontwikkelproces, keuzes van het ontwikkelteam, hoe uitkomsten tot stand komen algoritmeregister, technische documentatie, programmeercode
Onderzoeker of journalist algoritmegebruik binnen de organisatie algoritmeregister, technische documentatie, code

Vereisten

idVereisten
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder
aia-16Hoog-risico-AI-systemen zijn voorzien van een CE-markering
aia-17Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank
aia-24Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank
aia-26Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd
aia-39Er is beleid opgesteld ter naleving van auteursrechten en naburige rechten door aanbieders van AI-modellen voor algemene doeleinden
arc-01Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodig
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
woo-01Iedereen kan openbare informatie over algoritmes vinden of aanvragen

Aanbevolen maatregelen

idMaatregelen
org-00Inventariseer de algoritmes die binnen jouw organisatie worden gebruikt en houd dit overzicht actueel
org-02Stel beleid op voor een verantwoorde inzet van algoritmes binnen de organisatie
org-04Zorg voor politiek-bestuurlijk bewustzijn, betrokkenheid, en verantwoordelijkheid
pba-01Beschrijf het probleem dat het algoritme moet oplossen
pba-02Beschrijf het doel van het algoritme
pba-05Beschrijf de wettelijke grondslag voor de inzet van het algoritme
owp-09Bepaal welke documenten voor hoe lang gearchiveerd moeten worden
owp-16Maak vereisten voor algoritmes onderdeel van algemene inkoopvoorwaarden en de contractovereenkomst
owp-22Vul technische documentatie van aanbieder aan met relevante informatie vanuit de gebruiksverantwoordelijke
owp-24Bepaal in een aanbesteding of algoritmes van een aanbieder bepalende invloed hebben in een besluit richting personen
owp-30Stel vast welke betrokkenen geïnformeerd moeten worden en welke informatie zij nodig hebben
owp-31Pas vastgestelde interne beleidskaders toe en maak aantoonbaar dat deze zijn nageleefd bij het ontwikkelen, inkopen en gebruiken van algoritmes
owp-32Pas uitlegbaarheidstechnieken toe en evalueer en valideer deze
owp-35Maak gebruik van een algoritme dat bronvermelding kan genereren bij de output
owk-07Zorg voor reproduceerbaarheid van de uitkomsten
ver-05Controleer regelmatig of het algoritme voldoet aan alle wetten en regels en het eigen beleid
imp-01Stel een werkinstructie op voor gebruikers
imp-04Publiceer impactvolle algoritmes en hoog-risico AI-systemen in het Algoritmeregister
imp-05Vermeld het gebruik van persoonsgegevens in een privacyverklaring
imp-07Vermeld het gebruik van persoonsgegevens in het verwerkingsregister
imp-08Maak een openbaar besluit over de inzet van het algoritme
uit-01Bij uitfaseren en doorontwikkeling wordt correct omgegaan met data en modelinformatie

Hulpmiddelen

Hulpmiddelen
AI Impact Assessment (AIIA)
Assessment List for Trustworthy Artificial Intelligence (ALTAI)
Impact Assessment Mensenrechten en Algoritmes
Algoritmeregister
Framework for Meaningful Engagement
Standaarden

Help ons deze pagina te verbeteren

Deel je idee, suggestie of opmerking via GitHub of mail ons via algoritmes@minbzk.nl.