Ga naar inhoud

Creëer ruimte om met een aanbieder samen te gaan werken om specifieke vereisten te realiseren

owp-19OntwerpOntwikkelenProjectleiderPublieke inkoop

Maatregel

Creëer ruimte om met een aanbieder samen te gaan werken om specifieke vereisten te gaan realiseren.

Toelichting

  • Om op een betekenisvolle manier invulling te geven aan bepaalde vereisten, kan het noodzakelijk zijn dat opdrachtgever en aanbieder (innovatief) moeten gaan samenwerken. Op basis van nieuwe wet- en regelgeving (bv. AI-Verordening) of geharmoniseerde standaarden kunnen aanbieders mogelijk nog niet voldoen aan nieuwe vereisten. Het kan ook onduidelijk zijn hoe moet worden voldaan aan vereisten nu de technologie zich snel ontwikkelt of dat de specifieke omstandigheden van het beoogde gebruik vragen om een samenspel tussen opdrachtgever en aanbieder.

  • Bij een verantwoorde inzet van algoritmes kan het bij vereisten zoals non-discriminatie, transparantie, menselijke controle en grondrechten van belang zijn om samen te onderzoeken hoe hier invulling aan moet worden gegeven. Het is belangrijk om bij de behoeftestelling al te verkennen om welke onderwerpen dit mogelijk van toepassing is. Bij een marktverkenning of informatiesessie kan worden verkend hoe aanbieders ervoor staan. Op basis hiervan kan worden beoordeeld in hoeverre bijvoorbeeld in een aanbesteding contractuele ruimte moet worden gecreëerd voor opdrachtgever en aanbieder om hieraan te werken.

Bijbehorende vereiste(n)

Vereiste
aia-02 - Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd
aia-03 - Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem
aia-04 - Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen
aia-05 - Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria
aia-06 - Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie
aia-07 - Hoog-risico AI-systemen loggen automatisch bepaalde gegevens
aia-08 - Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen
aia-09 - Hoog-risico-AI-systemen staan onder menselijk toezicht
aia-10 - Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig
aia-11 - Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem
aia-12 - Documentatie over hoog-risico-AI-systemen wordt tien jaar bewaard door de aanbieder
aia-13 - Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder
aia-14 - Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure
aia-15 - Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring
aia-16 - Hoog-risico-AI-systemen zijn voorzien van een CE-markering
aia-17 - Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank
aia-18 - Als een hoog-risico AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in
aia-19 - Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen
aia-20-verstrekken-van-informatie-op-verzoek
aia-21-aantoonbaarheid-vereisten-hoog-risico
aia-28-recht-op-uitleg-ai-besluiten
aia-29 - Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten
aia-30-transparantieverplichtingen
aia-31-ai-modellen-algemene-doeleinden
aia-32-ai-modellen-algemene-doeleinden-systeemrisico
aia-33-ai-modellen-algemene-doeleinden-systeemrisico-ernstige-incidenten
aia-34-ai-modellen-algemene-doeleinden-systeemrisico-cyberbeveiliging
aia-35-verwerking-in-testomgeving
aia-36-monitoring-na-het-in-de-handel-brengen
aia-37-melding-ernstige-incidenten
aia-38-melding-inbreuk-op-ai-verordening
aia-39-recht-klacht-indienen-bij-ai-bureau
bzk-01 - Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister
arc-01 - Informatie over algoritmes wordt gedocumenteerd volgens de Archiefwet
aut-01 - Auteursrechten zijn beschermd
avg-01 - Persoonsgegevens worden op een rechtmatige manier verwerkt
avg-02 - Persoonsgegevens worden zo kort mogelijk bewaard
avg-03 - Persoonsgegevens worden zo min mogelijk verwerkt
avg-04 - Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair
avg-05 - Persoonsgegevens zijn juist en actueel
avg-06 - Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken
avg-07 - Organisaties zijn transparant over het verwerken van persoonsgegevens
avg-08 - Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt
avg-09 - Betrokkenen kunnen een beroep doen op hun privacyrechten
avg-10 - Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd
avg-11 - Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen
avg-12 - Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen
avg-13 - Een Data Protection Impact Assessment (DPIA) wordt uitgevoerd wanneer de verwerking van persoonsgegevens waarschijnlijk een hoog risico met zich meebrengt voor de rechten en vrijheden van natuurlijke personen
awb-01 - Organisaties die algoritmes gebruiken voor publieke taken gaan zorgvuldig te werk
awb-02 - Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit
bio-01 - Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen
dat-01 - Databanken worden alleen gebruikt met toestemming van de databank-producent
grw-01 - Algoritmes schenden geen grondrechten of mensenrechten
grw-02 - Algoritmes discrimineren niet
woo-01 - Iedereen kan openbare informatie over algoritmes vinden of aanvragen

Bronnen

Risico

Door niet te kunnen samenwerken aan vereisten, kan de situatie ontstaan dat uiteindelijk niet op een betekenisvolle manier wordt voldaan aan deze vereisten voor een verantwoorde inzet van algoritmes. Gebrek aan samenwerking kan leiden tot onvermogen om de benodigde vereisten voldoende in de praktijk te garanderen. Ook is het belangrijk dat de verantwoordelijke goed genoeg begrijpt hoe het algoritme werkt en welke keuzes er gemaakt zijn tijdens het ontwerp, omdat alleen dan goed beoordeeld kan worden welke vereisten zijn voldaan en welke risico’s nog niet of minder goed zijn afgedekt.

Voorbeeld

Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl