Ga naar inhoud

Maak een noodplan voor het stoppen van het algoritme

owk-02OntwikkelenImplementatieProjectleiderOntwikkelaarGovernanceMenselijke controle

Maatregel

Tref (technische) maatregelen waarmee het gebruik van het algoritme of AI-systeem kan worden stopgezet.

Toelichting

  • Er moet in een proces zijn beschreven wanneer en hoe het gebruik van algoritmes moet worden stopgezet.
  • Het is van belang dat bij het ontwerp van algoritmes en AI-systemen er rekening wordt gehouden met dat het werkproces ook zonder het algoritme of AI-systeem kan worden uitgevoerd.
  • In het geval van risicoselectie kan er bijvoorbeeld worden teruggevallen op het enkel uitvoeren van een aselecte steekproef als selectieinstrument.
  • Als blijkt dat het algoritme of AI-systeem ongewenst functioneert, dan moeten (technische) maatregelen zijn getroffen waarmee het gebruik daadwerkelijk kan worden stopgezet. Denk hierbij aan een stopknop en werkinstructies hoe het gebruik kan worden beëindigd.
  • Maak aantoonbaar dat deze maatregelen zijn getroffen.
  • De proceseigenaar of een menselijk toezichthouder moet in staat zijn om het algoritme of AI-systeem op elk moment te kunnen beëindigen.
  • Het stopzetten van het gebruik van een algoritme mag niet tot gevolg hebben dat betrokkenen niet meer kunnen achterhalen hoe besluiten tot stand zijn gekomen of dat gevolgen niet meer kunnen worden gecorrigeerd als dat noodzakelijk is.

Risico

Betrokkenen of belanghebbenden kunnen nadelige gevolgen ondervinden van een algoritme of AI-systeem dat onjuist functioneert en niet tijdig kan worden stopgezet.

Bijbehorende vereiste(n)

Vereiste
aia-18 - Als een hoog-risico AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in
awb-01 - Organisaties die algoritmes gebruiken voor publieke taken gaan zorgvuldig te werk
aia-11 - Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem
grw-01 - Algoritmes schenden geen grondrechten of mensenrechten
aia-29 - Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
grw-02 - Algoritmes discrimineren niet
aia-19 - Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen
aia-09 - Hoog-risico-AI-systemen staan onder menselijk toezicht
avg-04 - Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
aia-22 - De werking van hoog-risico-AI-systemen wordt gemonitord

Bronnen

Voorbeeld

Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl