Bespreek de vereisten die gelden voor een verantwoorde inzet van algoritmes met aanbieders
owp-15 Ontwerp Ontwikkelen Projectleider Publieke inkoop
Maatregel
Bespreek de vereisten die gelden voor een verantwoorde inzet van algoritmes met een aanbieder .
Toelichting
Ga met een aanbieder in gesprek over in hoeverre zij invulling kunnen geven aan de vereisten die gelden voor een verantwoorde inzet van algoritmes. Dit kan worden gedaan bijvoorbeeld bij een informatiesessie met aanbieders voorafgaand aan een aanbesteding.
Hiervoor is het van belang om te bepalen om wat voor type algoritme het gaat en wat de bijbehorende risicoclassificatie is. Maak op basis daarvan inzichtelijk welke vereisten hierop van toepassing zijn.
Op basis van nieuwe of gewijzigde wet- en regelgeving of de totstandkoming van nieuwe standaarden, is het denkbaar dat aanbieders van algoritmes nog niet of niet meer voldoen aan deze vereisten. Het is van belang dat deze inzichten bijvoorbeeld tijdens een aanbesteding worden verkregen. Indien van toepassing, laat de aanbieder inzichtelijk maken welke stappen deze gaat zetten om hieraan te gaan voldoen. Dit is ook relevant bij reeds afgesloten contracten.
Risico
Door de vereisten voor een verantwoorde inzet van algoritmes niet te bespreken met aanbieders, is het voor hen (deels) onduidelijk aan welke vereisten diens algoritmes moet voldoen om te kunnen contracteren met overheidsorganisaties.
Bijbehorende vereiste(n)
Bekijk alle vereisten
Vereiste aia-01 - Personeel en gebruikers zijn voldoende AI-geletterd aia-02 - Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd aia-03 - Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem aia-04 - Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen aia-05 - Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria aia-06 - Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie aia-07 - Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens aia-08 - Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen aia-09 - Hoog-risico-AI-systemen staan onder menselijk toezicht aia-10 - Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig aia-11 - Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem aia-12 - Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder aia-13 - Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder aia-14 - Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure aia-15 - Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring aia-16 - Hoog-risico-AI-systemen zijn voorzien van een CE-markering aia-17 - Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank aia-18 - Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in aia-19 - Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen aia-20 - Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing aia-21 - Menselijk toezicht van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden aia-22 - De werking van hoog-risico-AI-systemen wordt gemonitord aia-23 - Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke aia-24 - Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt aia-25 - Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank aia-26 - Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten aia-27 - Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten aia-28 - AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem aia-29 - AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie aia-30 - Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen aia-31 - Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd aia-32 - AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen aia-33 - AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden aia-34 - Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem aia-35 - Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder aia-36 - Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening aia-37 - Klachtrecht voor aanbieders verder in AI-waardeketen arc-01 - Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodig aut-01 - Auteursrechten zijn beschermd avg-01 - Persoonsgegevens worden op een rechtmatige manier verwerkt avg-02 - Persoonsgegevens worden zo kort mogelijk bewaard avg-03 - Persoonsgegevens worden zo min mogelijk verwerkt avg-04 - Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair avg-05 - Persoonsgegevens zijn juist en actueel avg-06 - Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken avg-07 - Organisaties zijn transparant over het verwerken van persoonsgegevens avg-08 - Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt avg-09 - Betrokkenen kunnen een beroep doen op hun privacyrechten avg-10 - Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd avg-11 - Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen avg-12 - Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen avg-13 - Een gegevensbeschermingseffectbeoordeling (DPIA) is verplicht, indien een verwerking van persoonsgegevens waarschijnlijk een hoog risico inhoudt voor de rechten en vrijheden van natuurlijke personen awb-01 - Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig awb-02 - Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit bio-01 - Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen bzk-01 - Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister dat-01 - Databanken worden alleen gebruikt met toestemming van de databank-producent grw-01 - Algoritmes schenden geen grondrechten of mensenrechten grw-02 - Algoritmes discrimineren niet
Bronnen
Geen beschikbare bron voor deze maatregel.
Voorbeelden
Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl
11 februari 2025
4 juli 2024