Ga naar inhoud

Maak vereisten onderdeel van (sub)gunningscriteria bij een aanbesteding

owp-20OntwerpOntwikkelaarPublieke inkoop

Maatregel

Maak vereisten onderdeel van (sub)gunningscriteria bij een aanbesteding.

Toelichting

  • Door een vereiste onderdeel te maken van (sub)gunningscriteria, ontstaat een mogelijkheid voor aanbieders om zich te onderscheiden van andere aanbieders.
  • Dit kan zorgen voor een extra stimulatie op kwaliteitsaspecten van algoritmes.
  • In de context van algoritmes is dit in het bijzonder relevant, bijvoorbeeld in relatie tot vereisten als non-discriminatie, het eerbiedigen van fundamentele rechten of het verbod op schenden auteursrechten.
  • Door vereisten te vertalen naar (sub)gunningscriteria, kan een inhoudelijke beoordeling worden gemaakt in hoeverre een aanbieder voldoet aan deze vereisten.

Risico

Een risico van vereisten geen onderdeel te maken van (sub)gunningscriteria is dat bepaalde vereisten worden overgeslagen of gemist, wat kan leiden tot het niet voldoen aan deze vereisten.

Bijbehorende vereiste(n)

Bekijk alle vereisten
IDVereiste
aia-03Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem
aia-04Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen
aia-05Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
aia-08Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen
aia-09Hoog-risico-AI-systemen staan onder menselijk toezicht
aia-18Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in
aia-19Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen
aia-20Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing
aia-21Menselijk toezicht van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden
aia-22De werking van hoog-risico-AI-systemen wordt gemonitord
aia-24Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt
aia-26Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten
aia-27Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-28AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem
aia-30Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen
aia-33AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden
aia-34Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem
arc-01Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodig
aut-01Auteursrechten zijn beschermd
avg-03Persoonsgegevens worden zo min mogelijk verwerkt
avg-04Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
avg-07Organisaties zijn transparant over het verwerken van persoonsgegevens
avg-09Betrokkenen kunnen een beroep doen op hun privacyrechten
avg-10Besluiten met rechtsgevolgen of aanmerkelijke effecten zijn niet volledig geautomatiseerd
avg-11Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen
awb-01Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig
awb-02Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
dat-01Databanken worden alleen gebruikt met toestemming van de databank-producent
grw-01Algoritmes schenden geen grondrechten of mensenrechten
grw-02Algoritmes discrimineren niet

Bronnen

Voorbeelden

Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl