Ga naar inhoud

Tref (technische) maatregelen waarmee het gebruik van het algoritme of AI-systeem kan worden stopgezet.

OntwerpDataverkenning en datapreparatieOntwikkelenVerificatie en validatieImplementatieMonitoring en beheerUitfaserenProceseigenaarBeleidsmedewerkerData engineerData scientistInformatiebeheerderPrivacy officerSecurity officerEthicusInkoopadviseurContractbeheerderGovernance

Maatregel

Tref (technische) maatregelen waarmee het gebruik van het algoritme of AI-systeem kan worden stopgezet.

Toelichting

  • Er moet in een proces zijn beschreven wanneer het gebruik van algoritmes en AI-systemen moet worden stopgezet.
  • Het is van belang dat bij het ontwerp van algoritmes en AI-systemen er rekening wordt gehouden met dat het werkproces ook zonder het algoritme of AI-systeem kan worden uitgevoerd.
  • Als blijkt dat het algoritme of AI-systeem ongewenst functioneert, dan moeten (technische) maatregelen zijn getroffen waarmee het gebruik daadwerkelijk kan worden stopgezet. Denk hierbij aan een stopknop en werkinstructies hoe het gebruik kan worden beëindigd.
  • Maak aantoonbaar dat deze maatregelen zijn getroffen.
  • De proceseigenaar of een menselijk toezichthouder moet in staat zijn om het algoritme of AI-systeem op elk moment te kunnen beëindigen.
  • Het stopzetten van het gebruik van een algoritme mag niet tot gevolg hebben dat betrokkenen niet meer kunnen achterhalen hoe besluiten tot stand zijn gekomen of dat gevolgen niet meer kunnen worden gecorrigeerd als dat noodzakelijk is.

Risico

Betrokkenen of belanghebbenden kunnen nadelige gevolgen ondervinden van een algoritme of AI-systeem dat onjuist functioneert en niet tijdig kan worden stopgezet.

Bijbehorende vereiste(n)

Vereiste
awb-01 - Relevante feiten en belangen zijn bekend
aia-11 - Kwaliteitsbeheersysteem voor hoog-risico AI
grw-01 - Beschermen van fundamentele rechten en vrijheden
aia-29 - Beoordeling van grondrechten
grw-02 - AI-systemen en algoritmes mogen niet discrimineren
aut-01 - Auteursrechten mogen niet worden geschonden
aia-19 - Aanbieders van AI-systemen met een hoog risico zorgen voor toegankelijkheidseisen
aia-09 - Toezichtmogelijkheden voor gebruikers
avg-04 - Proportionaliteit en subsidiariteit
aia-23 - Natuurlijke personen die menselijk toezicht uitvoeren zijn bekwaam, opgeleid, beschikken over autoriteit en krijgen ondersteuning
aia-24 - Gebruiksverantwoordelijken monitoren werking hoog risico AI-systeem
avg-05 - Juistheid en actualiteit van gegevens
aia-19 - Aanbieders van AI-systemen met een hoog risico zorgen voor toegankelijkheidseisen

Bronnen

Bron
Onderzoekskader Algoritmes Auditdienst Rijk, SV.18, SV.17
Toetsingskader Algoritmes Algemene Rekenkamer, 1.03
Algoritmekader

Voorbeeld

Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl