Ga naar inhoud

Transparant zijn over algoritmes

Overheden moeten transparant zijn over hun algoritmes. Dit betekent dat je duidelijke informatie geeft over de algoritmes die je ontwikkelt of gebruikt.

Wanneer ben je transparant?

Je draagt bij aan transparantie over algoritmes als je duidelijk uitlegt:

  • dat je algoritmes ontwikkelt of gebruikt
  • voor welk doel je deze algoritmes ontwikkelt of gebruikt
  • wat voor soort algoritmes dit zijn
  • welke code of programmeertaal je hiervoor gebruikt
  • welke data je hiervoor gebruikt
  • hoe uitkomsten tot stand komen
  • hoe belanghebbenden bezwaar kunnen maken tegen gevolgen van het algoritme

Belang van transparantie

Als je open bent over de algoritmes die je ontwikkelt of gebruikt, kunnen burgers en bedrijven zich beter verdedigen tegen mogelijke nadelige gevolgen. Verkeerd gebruik van algoritmes kan iemands leven namelijk ernstig beïnvloeden. Bijvoorbeeld door discriminatie of een besluit dat niet klopt.

Door uit te leggen hoe het algoritme werkt, kun je de beslissingen van het algoritme makkelijker controleren. Je leert sneller waarom het bepaalde keuzes maakt en waar de zwakke plekken zitten.

Ook je organisatie is makkelijker te controleren. Omdat je transparant bent over algoritmes, kunnen burgers feedback geven. Journalisten zien wat je doet. En andere overheden kunnen hiervan leren.

Aanpak transparant werken

Hoe je transparantie organiseert, hangt af van:

  • het doel van je algoritme
  • het soort algoritme waarmee je werkt
  • wie de gebruikers zijn van het algoritme, bijvoorbeeld medewerkers of burgers
  • de vereisten waar je aan moet voldoen
  • de maatregelen die je neemt
  • de doelgroep die je wil bereiken
  • de levenscyclus-fase van je algoritme

Onderzoek goed welk soort algoritme je gebruikt of wil gebruiken. Hoe groter de impact en het risico, hoe strenger de vereisten.

De keuze voor het soort algoritme bepaalt ook hoe transparant je kunt zijn. Van rekenregels kun je namelijk precies uitleggen hoe deze tot een beslissing komen.

Complexe AI-systemen, vaak met generatieve AI, zijn echter al snel een black box: niemand weet precies hoe deze systemen beslissingen maken. Volledige transparantie is dan niet mogelijk. In dat geval moet je de werking zo goed mogelijk onderzoeken. Probeer in elk geval ernstige gevolgen zoals discriminatie te voorkomen. Wees ook zo transparant mogelijk over de datasets die worden gebruikt om het model te trainen en bied een duidelijke documentatie van het systeem aan.

Tip

Rekenregels zijn makkelijker uit te leggen dan AI-systemen. Als een rekenregel voldoende is voor het bereiken van je doel, dan is het ook makkelijker om transparant te zijn.

Betrokken partijen

Stem je informatie af op de betrokken partij. Zo moeten gebruikers de uitkomst van het algoritme voldoende begrijpen voor het nemen van onderbouwde beslissingen. En belanghebbenden zoals burgers moeten weten dat zij te maken hebben met een algoritme. Zij moeten snel en makkelijk kunnen vinden wat hun rechten zijn en hoe zij in beroep kunnen gaan.

Doelgroep Informeer bijvoorbeeld over Geef de informatie bijvoorbeeld via:
Ontwikkelaar de werking, keuzes van het ontwikkelteam technische documentatie
Gebruiker hoe uitkomsten tot stand komen, gebruikte data, wat het algoritme wel en niet kan gebruiksinstructies, trainingen
Medewerker contactpersonen, algoritmegebruik binnen de organisatie, afspraken over algoritmemanagement (ook wel: algoritmegovernance) intern algoritmeregister, trainingen
Belanghebbende (iemand voor wie het algoritme gevolgen heeft) hoe een besluit tot stand kwam, mogelijkheden om bezwaar te maken, contactmogelijkheden brief over het besluit, webpagina over het algoritme
Geïnteresseerde burger algoritmegebruik binnen de organisatie webpagina over het algoritme, algoritmeregister
Auditor werking, ontwikkelproces, keuzes van het ontwikkelteam, hoe uitkomsten tot stand komen algoritmeregister, technische documentatie, programmeercode
Onderzoeker of journalist algoritmegebruik binnen de organisatie algoritmeregister, technische documentatie, code

Vereisten

VereistenWetgeving
Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerdAI-verordening
Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatieAI-verordening
Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpenAI-verordening
Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbiederAI-verordening
Hoog-risico-AI-systemen zijn voorzien van een CE-markeringAI-verordening
Hoog-risico-AI-systemen zijn geregistreerd in de EU-databankAI-verordening
Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruiktAI-verordening
Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databankAI-verordening
Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluitenAI-verordening
AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeemAI-verordening
AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatieAI-verordening
Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerdAI-verordening
Er is beleid opgesteld ter naleving van auteursrechten en naburige rechten door aanbieders van AI-modellen voor algemene doeleindenAI-verordening
Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodigArchiefwet
Organisaties zijn transparant over het verwerken van persoonsgegevensAVG
Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluitAWB
Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse AlgoritmeregisterBZK
Iedereen kan openbare informatie over algoritmes vinden of aanvragenWOO

Aanbevolen maatregelen

Maatregelen
Inventariseer de algoritmes die binnen jouw organisatie worden gebruikt en houd dit overzicht actueel
Stel beleid op voor een verantwoorde inzet van algoritmes binnen de organisatie
Zorg voor politiek-bestuurlijk bewustzijn, betrokkenheid, en verantwoordelijkheid
Beschrijf het probleem dat het algoritme moet oplossen
Beschrijf het doel van het algoritme
Beschrijf de wettelijke grondslag voor de inzet van het algoritme
Bepaal welke documenten voor hoe lang gearchiveerd moeten worden
Maak vereisten voor algoritmes onderdeel van algemene inkoopvoorwaarden en de contractovereenkomst
Vul technische documentatie van aanbieder aan met relevante informatie vanuit de gebruiksverantwoordelijke
Bepaal in een aanbesteding of algoritmes van een aanbieder bepalende invloed hebben in een besluit richting personen
Stel vast welke betrokkenen geïnformeerd moeten worden en welke informatie zij nodig hebben
Pas vastgestelde interne beleidskaders toe en maak aantoonbaar dat deze zijn nageleefd bij het ontwikkelen, inkopen en gebruiken van algoritmes
Pas uitlegbaarheidstechnieken toe en evalueer en valideer deze
Maak gebruik van een algoritme dat bronvermelding kan genereren bij de output
Zorg voor reproduceerbaarheid van de uitkomsten
Controleer regelmatig of het algoritme voldoet aan alle wetten en regels en het eigen beleid
Stel een werkinstructie op voor gebruikers
Publiceer impactvolle algoritmes en hoog-risico AI-systemen in het Algoritmeregister
Vermeld het gebruik van persoonsgegevens in een privacyverklaring
Vermeld het gebruik van persoonsgegevens in het verwerkingsregister
Maak een openbaar besluit over de inzet van het algoritme
Bij uitfaseren en doorontwikkeling wordt correct omgegaan met data en modelinformatie

Hulpmiddelen

Help ons deze pagina te verbeteren

Deel je idee, suggestie of opmerking via GitHub of mail ons via algoritmes@minbzk.nl.