Ga naar inhoud

Transparant zijn over algoritmes

Overheden moeten transparant zijn over hun algoritmes. Dit betekent dat je duidelijke informatie geeft over de algoritmes die je ontwikkelt of gebruikt.

Wanneer ben je transparant?

Je draagt bij aan transparantie over algoritmes als je duidelijk uitlegt:

  • dat je algoritmes ontwikkelt of gebruikt
  • voor welk doel je deze algoritmes ontwikkelt of gebruikt
  • wat voor soort algoritmes dit zijn
  • welke code of programmeertaal je hiervoor gebruikt
  • welke data je hiervoor gebruikt
  • hoe uitkomsten tot stand komen
  • hoe belanghebbenden bezwaar kunnen maken tegen gevolgen van het algoritme

Belang van transparantie

Als je open bent over de algoritmes die je ontwikkelt of gebruikt, kunnen burgers en bedrijven zich beter verdedigen tegen mogelijke nadelige gevolgen. Verkeerd gebruik van algoritmes kan iemands leven namelijk ernstig beïnvloeden. Bijvoorbeeld door discriminatie of een besluit dat niet klopt.

Door uit te leggen hoe het algoritme werkt, kun je de beslissingen van het algoritme makkelijker controleren. Je leert sneller waarom het bepaalde keuzes maakt en waar de zwakke plekken zitten.

Ook je organisatie is makkelijker te controleren. Omdat je transparant bent over algoritmes, kunnen burgers feedback geven. Journalisten zien wat je doet. En andere overheden kunnen hiervan leren.

Aanpak transparant werken

Hoe je transparantie organiseert, hangt af van:

  • het doel van je algoritme
  • het soort algoritme waarmee je werkt
  • wie de gebruikers zijn van het algoritme, bijvoorbeeld medewerkers of burgers
  • de vereisten waar je aan moet voldoen
  • de maatregelen die je neemt
  • de doelgroep die je wil bereiken
  • de levenscyclus-fase van je algoritme

Onderzoek goed welk soort algoritme je gebruikt of wil gebruiken. Hoe groter de impact en het risico, hoe strenger de vereisten.

De keuze voor het soort algoritme bepaalt ook hoe transparant je kunt zijn. Van rekenregels kun je namelijk precies uitleggen hoe deze tot een beslissing komen. Maar complexe AI-systemen zijn vaak een black box: niemand weet precies hoe deze systemen beslissingen maken. Volledige transparantie is dan niet mogelijk. In dat geval moet je de werking zo goed mogelijk onderzoeken. Probeer bijvoorbeeld in elk geval ernstige gevolgen zoals discriminatie te voorkomen.

Tip

Rekenregels zijn makkelijker uit te leggen dan AI-systemen. Als een rekenregel voldoende is voor het bereiken van je doel, dan is het ook makkelijker om transparant te zijn.

Betrokken partijen

Stem je informatie af op de betrokken partij. Zo moeten gebruikers de uitkomst van het algoritme voldoende begrijpen voor het nemen van onderbouwde beslissingen. En belanghebbenden zoals burgers moeten weten dat zij te maken hebben met een algoritme. Zij moeten snel en makkelijk kunnen vinden wat hun rechten zijn en hoe zij in beroep kunnen gaan.

Doelgroep Informeer bijvoorbeeld over Geef de informatie bijvoorbeeld via:
Ontwikkelaar de werking, keuzes van het ontwikkelteam technische documentatie
Gebruiker hoe uitkomsten tot stand komen, gebruikte data, wat het algoritme wel en niet kan gebruiksinstructies, trainingen
Medewerker contactpersonen, algoritmegebruik binnen de organisatie, afspraken over algoritmemanagement (ook wel: algoritmegovernance) intern algoritmeregister, trainingen
Belanghebbende (iemand voor wie het algoritme gevolgen heeft) hoe een besluit tot stand kwam, mogelijkheden om bezwaar te maken, contactmogelijkheden brief over het besluit, webpagina over het algoritme
Geïnteresseerde burger algoritmegebruik binnen de organisatie webpagina over het algoritme, algoritmeregister
Auditor werking, ontwikkelproces, keuzes van het ontwikkelteam, hoe uitkomsten tot stand komen algoritmeregister, technische documentatie, programmeercode
Onderzoeker of journalist algoritmegebruik binnen de organisatie algoritmeregister, technische documentatie, code

Vereisten

idVereisten
aia-02Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd.
aia-06Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie.
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen.
aia-12Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder.
aia-16Hoog-risico-AI-systemen zijn voorzien van een CE-markering.
aia-17Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank.
aia-24Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt.
aia-25Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank.
aia-26Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem.
aia-29AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie.
aia-31Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd.
aia-39Er is beleid opgesteld ter naleving van auteursrechten en naburige rechten door aanbieders van AI-modellen voor algemene doeleinden.
arc-01Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodig.
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bzk-01Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
woo-01Iedereen kan openbare informatie over algoritmes vinden of aanvragen

Aanbevolen maatregelen

idMaatregelen
org-02Stel beleid op voor een verantwoorde inzet van algoritmes binnen de organisatie.
org-04Zorg voor politiek-bestuurlijk bewustzijn, betrokkenheid, en verantwoordelijkheid.
pba-01Beschrijf het probleem dat het algoritme moet oplossen
pba-02Beschrijf het doel van het algoritme
pba-05Beschrijf de wettelijke grondslag voor de inzet van het algoritme
owp-09Bepaal welke documenten voor hoe lang gearchiveerd moeten worden
owp-16Maak vereisten voor algoritmes onderdeel van algemene inkoopvoorwaarden en de contractovereenkomst.
owp-23Vul technische documentatie van aanbieder aan met relevante informatie vanuit de gebruiksverantwoordelijke.
owp-25Bepaal in een aanbesteding of algoritmes van een aanbieder bepalende invloed hebben in een besluit richting personen
owp-31Stel vast welke betrokkenen geïnformeerd moeten worden en welke informatie zij nodig hebben.
owp-33Pas uitlegbaarheidstechnieken toe en evalueer en valideer deze.
owp-35Pas vastgestelde beleidskaders toe
owp-37Maak gebruik van een algoritme dat bronvermelding kan genereren bij de output.
owk-07Zorg voor reproduceerbaarheid van de uitkomsten
ver-05Controleer regelmatig of het algoritme voldoet aan alle wetten en regels en het eigen beleid
imp-01Stel een werkinstructie op voor gebruikers.
imp-04Publiceer impactvolle algoritmes en hoog-risico-AI-systemen in het Algoritmeregister
imp-06Vermeld het gebruik van persoonsgegevens in een privacyverklaring
imp-08Vermeld het gebruik van persoonsgegevens in het verwerkingsregister
imp-09Maak een openbaar besluit over de inzet van het algoritme
uit-01Bij uitfaseren en doorontwikkeling wordt correct omgegaan met data en modelinformatie.

Hulpmiddelen

Hulpmiddelen
Assessment List for Trustworthy Artificial Intelligence (ALTAI)
Impact Assessment Mensenrechten en Algoritmes
Algoritmeregister
Framework for Meaningful Engagement
Standaarden

Help ons deze pagina te verbeteren

Deel je idee, suggestie of opmerking via GitHub of mail ons via algoritmes@minbzk.nl.