Ga naar inhoud

Configuratie met de mens

ImplementatieGovernanceMenselijke controle

Maatregel

  • Maak keuzes rondom de rol van het systeem in de werkwijze van medewerkers.
  • Gebruik duidelijke werkinstructies en protocollen om te voorkomen dat beslissingen, gebaseerd op de output van het systeem, door (automation) bias worden beïnvloed.
  • Stel een structuur op voor het melden van mogelijke problemen met het systeem.
  • Opleiding van medewerkers over:

    • AI en algoritmes;

    • het systeem waarmee ze gaan werken;

    • de rol van het systeem in hun werkwijze;

    • de risico's die aan het gebruik van een systeem verbonden zijn (bijv. (automation) bias, false positives/negatives);

    • de maatregelen die genomen zijn om deze risico’s te beperken (bijv. Willekeurige of fictieve casussen, transparantie over de output).

  • Bespreek regelmatig de uitdagingen die medewerkers ondervinden bij het werken met het systeem (bijv. tijdsdruk).

  • Documenteer alle keuzes en de onderliggende redenen/afwegingen rondom menselijke tussenkomst en overzicht, bijvoorbeeld in een Algoritme Impact Assessment. Evalueer en pas gemaakte keuzes waar nodig aan.

Toelichting

Zorg voor complementariteit tussen medewerkers en systemen. Dit helpt bij het voorkomen van (automation) bias en discriminatie, het signaleren van algoritmische problemen, en het vermijden van de facto automatische besluitvorming.

Bijbehorende vereiste(n)

VereisteUitleg
AI-systemen en algoritmes mogen niet discriminerenOverheidsinstanties moeten zich bij het uitvoeren van hun taken onthouden van discriminatie, ook wanneer er gebruik wordt gemaakt van algoritmes of AI. Wanneer er algoritmes worden gebruikt om selecties te maken van burgers, dienen we te streven naar een gelijke behandeling van personen of groepen ten opzichte van andere personen in een vergelijkbare situatie. Hierbij is het belangrijk te beseffen dat discriminatie ook op indirecte wijze kan ontstaan. Hiervan is sprake wanneer een ogenschijnlijk neutrale bepaling, maatstaf of handelwijze personen met een beschermd persoonskenmerk in vergelijking met andere personen in het bijzonder benadeelt, tenzij hiervoor een objectieve rechtvaardiging bestaat.

Bronnen

Bron
Handreiking non-discriminatie by design
Impact Assessment Mensenrechten en Algoritmes
Ethics Guidelines of Trustworthy AI

Risico

Bias, discriminatie, de facto automatische besluitvorming.

Voorbeeld

Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl