Creëer ruimte om met een aanbieder samen te gaan werken om specifieke vereisten te realiseren
owp-22 Ontwerp Ontwikkelen Projectleider Publieke inkoop
Maatregel
Creëer ruimte om met een aanbieder samen te gaan werken om specifieke vereisten te gaan realiseren.
Toelichting
Om op een betekenisvolle manier invulling te geven aan bepaalde vereisten, kan het noodzakelijk zijn dat opdrachtgever en aanbieder (innovatief) moeten gaan samenwerken. Op basis van nieuwe wet- en regelgeving (bv. AI-Verordening) of geharmoniseerde standaarden kunnen aanbieders mogelijk nog niet voldoen aan nieuwe vereisten. Het kan ook onduidelijk zijn hoe moet worden voldaan aan vereisten nu de technologie zich snel ontwikkelt of dat de specifieke omstandigheden van het beoogde gebruik vragen om een samenspel tussen opdrachtgever en aanbieder .
Bij een verantwoorde inzet van algoritmes kan het bij vereisten zoals non-discriminatie , transparantie , menselijke controle en grondrechten van belang zijn om samen te onderzoeken hoe hier invulling aan moet worden gegeven. Het is belangrijk om bij de behoeftestelling al te verkennen om welke onderwerpen dit mogelijk van toepassing is. Bij een marktverkenning of informatiesessie kan worden verkend hoe aanbieders ervoor staan. Op basis hiervan kan worden beoordeeld in hoeverre bijvoorbeeld in een aanbesteding contractuele ruimte moet worden gecreëerd voor opdrachtgever en aanbieder om hieraan te werken.
Bijbehorende vereiste(n)
Bekijk alle vereisten
Vereiste aia-01 - Personeel en gebruikers zijn voldoende AI-geletterd. aia-02 - Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd. aia-03 - Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem aia-04 - Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen. aia-05 - Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria aia-06 - Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie. aia-07 - Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens. aia-08 - Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen. aia-09 - Hoog-risico-AI-systemen staan onder menselijk toezicht. aia-10 - Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig. aia-11 - Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem. aia-12 - Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder. aia-13 - Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder. aia-14 - Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure. aia-15 - Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring. aia-16 - Hoog-risico-AI-systemen zijn voorzien van een CE-markering. aia-17 - Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank. aia-18 - Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in. aia-19 - Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen. aia-20 - Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing. aia-21 - Menselijk toezicht van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden. aia-22 - De werking van hoog-risico-AI-systemen wordt gemonitord. aia-23 - Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke. aia-24 - Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt. aia-25 - Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank. aia-26 - Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten aia-27 - Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten aia-28 - AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem. aia-29 - AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie. aia-30 - Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen. aia-31 - Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd. aia-32 - AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen. aia-33 - AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden. aia-34 - Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem. aia-35 - Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder. aia-36 - Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening. aia-37 - Klachtrecht voor aanbieders verder in AI-waardeketen. arc-01 - Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodig. aut-01 - Auteursrechten zijn beschermd. avg-01 - Persoonsgegevens worden op een rechtmatige manier verwerkt. avg-02 - Persoonsgegevens worden zo kort mogelijk bewaard. avg-03 - Persoonsgegevens worden zo min mogelijk verwerkt. avg-04 - Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair. avg-05 - Persoonsgegevens zijn juist en actueel. avg-06 - Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken. avg-07 - Organisaties zijn transparant over het verwerken van persoonsgegevens avg-08 - Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt. avg-09 - Betrokkenen kunnen een beroep doen op hun privacyrechten. avg-10 - Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd. avg-11 - Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen. avg-12 - Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen. avg-13 - Een gegevensbeschermingseffectbeoordeling (DPIA) is verplicht, indien een verwerking van persoonsgegevens waarschijnlijk een hoog risico inhoudt voor de rechten en vrijheden van natuurlijke personen. awb-01 - Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig. awb-02 - Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit bio-01 - Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen bzk-01 - Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister dat-01 - Databanken worden alleen gebruikt met toestemming van de databank-producent. grw-01 - Algoritmes schenden geen grondrechten of mensenrechten. grw-02 - Algoritmes discrimineren niet.
Vereiste aia-01 - Personeel en gebruikers zijn voldoende AI-geletterd. aia-02 - Beoordeling als niet 'hoog-risico-AI-systeem' is gedocumenteerd. aia-03 - Hoog-risico-AI-systemen zijn voorzien van een risicobeheersysteem aia-04 - Hoog-risico-AI-systemen vormen geen risico voor kwetsbare groepen zoals kinderen. aia-05 - Datasets voor hoog-risico-AI-systemen voldoen aan kwaliteitscriteria aia-06 - Hoog-risico-AI-systemen zijn voorzien van voldoende technische documentatie. aia-07 - Hoog-risico-AI-systemen loggen automatisch bepaalde gegevens. aia-08 - Hoog-risico-AI-systemen zijn op een transparante manier ontwikkeld en ontworpen. aia-09 - Hoog-risico-AI-systemen staan onder menselijk toezicht. aia-10 - Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig. aia-11 - Hoog-risico-AI-systemen zijn voorzien van een kwaliteitsbeheersysteem. aia-12 - Documentatie over hoog-risico-AI-systemen wordt 10 jaar bewaard door de aanbieder. aia-13 - Logs van hoog-risico-AI-systemen worden zes maanden bewaard door de aanbieder. aia-14 - Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure. aia-15 - Hoog-risico-AI-systemen zijn voorzien van een EU-conformiteitsverklaring. aia-16 - Hoog-risico-AI-systemen zijn voorzien van een CE-markering. aia-17 - Hoog-risico-AI-systemen zijn geregistreerd in de EU-databank. aia-18 - Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in. aia-19 - Hoog-risico-AI-systemen voldoen aan de toegankelijkheidseisen. aia-20 - Hoog-risico-AI-systemen worden gebruikt volgens de gebruiksaanwijzing. aia-21 - Menselijk toezicht van hoog-risico-AI-systemen wordt uitgevoerd door mensen met voldoende kennis en mogelijkheden. aia-22 - De werking van hoog-risico-AI-systemen wordt gemonitord. aia-23 - Logs voor hoog-risico-AI-systemen worden bewaard door de gebruiksverantwoordelijke. aia-24 - Werknemers weten dat hun organisatie een hoog-risico AI-systeem gebruikt. aia-25 - Gebruiksverantwoordelijken controleren de registratie van het hoog-risico AI-systeem in de EU-databank. aia-26 - Mensen over wie besluiten worden genomen door een hoog-risico-AI-systemen, krijgen op verzoek informatie over deze besluiten aia-27 - Hoog-risico-AI-systemen voor publieke taken worden beoordeeld op gevolgen voor grondrechten aia-28 - AI-systemen worden zo ontworpen en gebruikt, dat mensen begrijpen wanneer zij met een AI-systeem communiceren en welke content gemaakt is door een AI-systeem. aia-29 - AI-modellen voor algemene doeleinden zijn voorzien van voldoende technische documentatie en informatie. aia-30 - Aanbieders van AI-modellen voor algemene doeleinden met een systeemrisico treffen extra maatregelen. aia-31 - Als AI-modellen voor algemene doeleinden met systeemrisico’s ernstige incidenten veroorzaken, wordt dit gedocumenteerd en gerapporteerd. aia-32 - AI-modellen voor algemene doeleinden met systeemrisico’s zijn voldoende beveiligd tegen cyberaanvallen. aia-33 - AI-testomgevingen die persoonsgegevens verwerken, voldoen aan strenge voorwaarden. aia-34 - Hoog-risico-AI-systemen zijn voorzien van een monitoringsysteem. aia-35 - Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder. aia-36 - Klokkenluiders kunnen veilig melden dat een organisatie zich niet houdt aan de AI-verordening. aia-37 - Klachtrecht voor aanbieders verder in AI-waardeketen. arc-01 - Informatie over algoritmes wordt in goede, geordende en toegankelijke staat gebracht, bewaard en vernietigd wanneer nodig. aut-01 - Auteursrechten zijn beschermd. avg-01 - Persoonsgegevens worden op een rechtmatige manier verwerkt. avg-02 - Persoonsgegevens worden zo kort mogelijk bewaard. avg-03 - Persoonsgegevens worden zo min mogelijk verwerkt. avg-04 - Persoonsgegevens en andere data verwerken gebeurt proportioneel en subsidiair. avg-05 - Persoonsgegevens zijn juist en actueel. avg-06 - Organisaties kunnen bewijzen dat zij persoonsgegevens op de juiste manier verwerken. avg-07 - Organisaties zijn transparant over het verwerken van persoonsgegevens avg-08 - Gevoelige persoonsgegevens worden alleen gebruikt als hiervoor een wettelijke uitzondering geldt. avg-09 - Betrokkenen kunnen een beroep doen op hun privacyrechten. avg-10 - Besluiten die levens kunnen beïnvloeden, zijn niet volledig geautomatiseerd. avg-11 - Ontwerp en standaardinstellingen (defaults) zijn zo gunstig mogelijk voor de privacy van betrokkenen. avg-12 - Data zoals persoonsgegevens zijn voldoende beveiligd tegen ongelukken en cyberaanvallen. avg-13 - Een gegevensbeschermingseffectbeoordeling (DPIA) is verplicht, indien een verwerking van persoonsgegevens waarschijnlijk een hoog risico inhoudt voor de rechten en vrijheden van natuurlijke personen. awb-01 - Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig. awb-02 - Organisaties kunnen duidelijk uitleggen waarom en hoe algoritmes leiden tot een besluit bio-01 - Computersystemen zijn voldoende beveiligd tegen ongelukken en cyberaanvallen bzk-01 - Impactvolle algoritmes en hoog-risico-AI-systemen staan in het Nederlandse Algoritmeregister dat-01 - Databanken worden alleen gebruikt met toestemming van de databank-producent. grw-01 - Algoritmes schenden geen grondrechten of mensenrechten. grw-02 - Algoritmes discrimineren niet.
Risico
Door niet te kunnen samenwerken aan vereisten, kan de situatie ontstaan dat uiteindelijk niet op een betekenisvolle manier wordt voldaan aan deze vereisten voor een verantwoorde inzet van algoritmes.
Gebrek aan samenwerking kan leiden tot onvermogen om de benodigde vereisten voldoende in de praktijk te garanderen. Ook is het belangrijk dat de verantwoordelijke goed genoeg begrijpt hoe het algoritme werkt en welke keuzes er gemaakt zijn tijdens het ontwerp, omdat alleen dan goed beoordeeld kan worden welke vereisten zijn voldaan en welke risico’s nog niet of minder goed zijn afgedekt.
Bronnen
Voorbeeld
Heb je een voorbeeld of best practice, laat het ons weten via algoritmes@minbzk.nl
18 december 2024
4 juli 2024