Ga naar inhoud

Bespreek de vereisten die gelden voor een verantwoorde inzet van algoritmes met aanbieders.

owp-15OntwerpOntwikkelenProjectleiderPublieke inkoop

Maatregel

Bespreek de vereiste die gelden voor een verantwoorde inzet van algoritmes met een aanbieder.

Toelichting

Ga met een aanbieder in gesprek over in hoeverre zij invulling kunnen geven aan de vereisten die gelden voor een verantwoorde inzet van algoritmes. Dit kan worden gedaan bijvoorbeeld bij een informatiesessie met aanbieders voorafgaand aan een aanbesteding.

Hiervoor is het van belang om te bepalen om wat voor type algoritme het gaat en wat de bijbehorende risicoclassificatie is. Maak op basis daarvan inzichtelijk welke vereisten hierop van toepassing zijn.

Op basis van nieuwe of gewijzigde wet- en regelgeving of de totstandkoming van nieuwe standaard, is het denkbaar dat aanbieders van algoritmes nog niet of niet meer voldoet aan deze vereisten. Het is van belang om deze inzichten bijvoorbeeld tijdens een aanbesteding worden verkregen. Indien van toepassing, laat de aanbieder inzichtelijk maken welke stappen deze gaat zetten om hieraan te gaan voldoen. Dit is ook relevant bij reeds afgesloten contracten.

Bijbehorende vereiste(n)

Bekijk alle vereisten
Vereiste
aia-01 - Personeel en gebruikers zijn voldoende AI-geletterd.
aia-02 - Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd.
aia-03 - Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem
aia-04 - Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen.
aia-05 - Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
aia-06 - Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie.
aia-07 - Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens.
aia-08 - Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen.
aia-09 - Hoog-risico-AI-systemen staan onder menselijk toezicht.
aia-10 - Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig.
aia-11 - Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem.
aia-12 - Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder.
aia-13 - Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder.
aia-14 - Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure.
aia-15 - Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring.
aia-16 - Hoog-risico-AI-systemen zijn voorzien van een CE-markering.
aia-17 - Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank.
aia-18 - Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in.
aia-19 - Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen.
aia-20 - Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing.
aia-21 - Menselijk toezicht van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden.
aia-22 - De werking van hoog-risico-AI-systemen wordt gemonitord.
aia-23 - Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke.
aia-24 - Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt.
aia-25 - Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank.
aia-26 - Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-27 - Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-28 - AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem.
aia-29 - AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie.
aia-30 - Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen.
aia-31 - Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd.
aia-32 - AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen.
aia-33 - AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden.
aia-34 - Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem.
aia-35 - Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder.
aia-36 - Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening.
aia-37 - Klachtrecht voor aanbieders verder in AI-waardeketen.
arc-01 - Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodig.
aut-01 - Auteursrechten zijn beschermd.
avg-01 - Persoonsgegevens worden op een rechtmatige manier verwerkt.
avg-02 - Persoonsgegevens worden zo kort mogelijk bewaard.
avg-03 - Persoonsgegevens worden zo min mogelijk verwerkt.
avg-04 - Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair.
avg-05 - Persoonsgegevens zijn juist en actueel.
avg-06 - Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken.
avg-07 - Organisaties zijn transparant over het verwerken van persoonsgegevens
avg-08 - Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt.
avg-09 - Betrokkenen kunnen een beroep doen op hun privacyrechten.
avg-10 - Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd.
avg-11 - Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen.
avg-12 - Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen.
avg-13 - Een gegevensbeschermingseffectbeoordeling (DPIA) is verplicht, indien een verwerking van persoonsgegevens waarschijnlijk een hoog risico inhoudt voor de rechten en vrijheden van natuurlijke personen.
awb-01 - Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.
awb-02 - Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bio-01 - Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen
bzk-01 - Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
dat-01 - Databanken worden alleen gebruikt met toestemming van de databank-producent.
grw-01 - Algoritmes schenden geen grondrechten of mensenrechten.
grw-02 - Algoritmes discrimineren niet.

Risico

Door de vereisten voor een verantwoorde inzet van algoritmes niet te bespreken met aanbieders, is het voor hen (deels) onduidelijk aan welke vereisten diens algoritmes moet voldoen om te kunnen contractueren met overheidsorganisaties.

Bronnen

Voorbeeld

Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl