Ga naar inhoud

Spreek af hoe medewerkers omgaan met het algoritme.

imp-05ImplementatieProjectleiderBeleid en adviesGovernanceMenselijke controle

Maatregel

Stel duidelijke werkinstructies op voor de medewerkers die het algoritme gaan gebruiken.

Toelichting

  • Maak keuzes rondom de rol van het systeem in de werkwijze van medewerkers.
  • Gebruik duidelijke werkinstructies en protocollen om te voorkomen dat beslissingen, gebaseerd op de output van het systeem, door (automation) bias worden beïnvloed.
  • Stel een structuur op voor het melden van mogelijke problemen die medewerkers ervaren met het systeem.
  • Opleiding van medewerkers over:

    • Algoritmes, waaronder AI;
    • het systeem waarmee ze gaan werken;
    • de rol van het systeem in hun werkwijze;
    • de risico's die aan het gebruik van een systeem verbonden zijn (bijv. (automation) bias, false positives/negatives);
    • de maatregelen die genomen zijn om deze risico’s te beperken (bijv. willekeurige of fictieve casussen, transparantie over de output).
  • Bespreek regelmatig de uitdagingen die medewerkers ondervinden bij het werken met het systeem (bijv. tijdsdruk).

  • Documenteer alle keuzes en de onderliggende redenen/afwegingen rondom menselijke tussenkomst en overzicht. Evalueer en pas gemaakte keuzes waar nodig aan.

  • Goede samenwerking tussen medewerkers en systemen helpt bij het voorkomen van (automation) bias en discriminatie, het signaleren van algoritmische problemen, en het vermijden van de facto automatische besluitvorming.

Bijbehorende vereiste(n)

Bekijk alle vereisten
Vereiste
grw-02 - Algoritmes discrimineren niet.
aia-09 - Hoog-risico-AI-systemen staan onder menselijk toezicht.
aia-21 - Menselijk toezicht van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden.

Bronnen

Risico

Bias, discriminatie, de facto automatische besluitvorming.

Voorbeeld

Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl