Ga naar inhoud

Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig

aia-10OntwerpOntwikkelenMonitoring en beheerProjectleiderBeleid en adviesOntwikkelaarTechnische robuustheid en veiligheid

Vereiste

Hoog-risico-AI-systemen zijn voldoende nauwkeurig, robuust en cyberveilig.

Toelichting

AI-systemen met een hoog risico worden zorgvuldig ontworpen en ontwikkeld om een hoog niveau van nauwkeurigheid, robuustheid en cyberbeveiliging te bieden.

Dit garandeert consistente prestaties gedurende hun levensduur en minimaliseert risico's met betrekking tot deze aspecten, waardoor de betrouwbaarheid en veiligheid van het systeem worden gewaarborgd.

Technische robuustheid is een essentiële eis voor AI-systemen met een hoog risico. Deze systemen moeten bestand zijn tegen schadelijk of anderszins ongewenst gedrag dat kan voortvloeien uit de beperkingen binnen de systemen of de omgeving waarin de systemen opereren (bijvoorbeeld fouten, onregelmatigheden, onverwachte situaties).

Er moeten technische en organisatorische maatregelen worden getroffen om de robuustheid van AI-systemen met een hoog risico te waarborgen. Een technische oplossing kan bijvoorbeeld bestaan uit mechanismen die het systeem in staat stellen zijn werking veilig te onderbreken (storingsbeveiligingsplannen) wanneer zich bepaalde anomalieën voordoen of wanneer de werking buiten bepaalde vooraf bepaalde grenzen plaatsvindt.

Cyberbeveiliging is cruciaal om te waarborgen dat AI-systemen bestand zijn tegen pogingen van kwaadwillige derden die gebruikmaken van de kwetsbaarheden van het systeem om het gebruik, het gedrag of de prestaties ervan te wijzigen of de veiligheidskenmerken ervan in gevaar te brengen.

Bij cyberaanvallen tegen AI-systemen kunnen AI-specifieke activa worden gebruikt, zoals trainingsdatasets (bv. datavervuiling) of getrainde modellen (bv. vijandige aanvallen of membership inference), of kwetsbaarheden in de digitale activa van het AI-systeem of de onderliggende ICT-infrastructuur worden benut.

Om te zorgen voor een niveau van cyberbeveiliging dat aansluit op de risico’s, moeten aanbieders van AI-systemen met een hoog risico passende maatregelen zoals veiligheidscontroles nemen, waarbij ook rekening wordt gehouden met de onderliggende ICT infrastructuur.

Bronnen

Artikel 15 Verordening Artificiële Intelligentie

Van toepassing op

Deze vereiste is van toepassing voor onderstaande (combinatie van) labels. Gebruik de beslishulp voor hulp bij wat er in jouw situatie van toepassing is.

AI-systeemAI-systeem voor algemene doeleindenHoog risico AI-systeemAanbiederGeen transparantieverplichtingTransparantieverplichting

Risico

Gebrek aan nauwkeurigheid, robuustheid of cyberbeveiliging kan leiden tot onbetrouwbare prestaties, kwetsbaarheid voor storingen en blootstelling aan beveiligingsrisico's, wat de effectiviteit en veiligheid van het AI-systeem in gevaar kan brengen.

Maatregelen

idMaatregelen
owp-04Beschrijf welke techniek gebruikt wordt voor de beoogde toepassing
owp-10Maak een Project Startarchitectuur (PSA) voor de ontwikkeling of inkoop van algoritmes
owp-15Bespreek de vereisten die gelden voor een verantwoorde inzet van algoritmes met aanbieders
owp-16Maak vereisten voor algoritmes onderdeel van algemene inkoopvoorwaarden en de contractovereenkomst
owp-21Creëer ruimte om met een aanbieder samen te gaan werken om specifieke vereisten te realiseren
owp-23Neem het kunnen uitvoeren van een audit over de vereiste op in contractvoorwaarden en de contractovereenkomst
owp-26Voer een risico-analyse met de aanbieder uit op het gebied van informatiebeveiliging bij een uitbestedingstraject
owp-27Maak vereisten onderdeel van het programma van eisen bij een aanbesteding
owp-31Pas vastgestelde interne beleidskaders toe en maak aantoonbaar dat deze zijn nageleefd bij het ontwikkelen, inkopen en gebruiken van algoritmes
owp-34Voorkom kwetsbaarheden die geïntroduceerd worden in de supply-chain van het algoritme
dat-07Gebruik bij machine learning technieken gescheiden train-, test- en validatiedata en houd rekening met underfitting en overfitting
dat-10Controleer de data op manipulatie en ongewenste afhankelijkheden
dat-11Controleer de input van gebruikers op misleiding
owk-07Zorg voor reproduceerbaarheid van de uitkomsten
owk-09Ontwerp en train het algoritme om bestand te zijn tegen (cyber)aanvallen
owk-10Zorg dat (gevoelige) informatie niet kan lekken op basis van de output van het algoritme
owk-11Documenteer en beargumenteer de keuze voor gebruikte modellen en parameters
ver-01Controleer regelmatig of het algoritme werkt zoals het bedoeld is
ver-02Evalueer de nauwkeurigheid van het algoritme
ver-06Evalueer de betrouwbaarheid van het algoritme
imp-02Doe aselecte steekproeven om algoritmes met 'risicogestuurde selectie’ te controleren
imp-09Neem technische interventies op in de gebruikersinterface om verkeerd gebruik te voorkomen
mon-02Beveilig de software
mon-03Maak een noodplan voor beveiligingsincidenten
mon-05Monitor regelmatig op veranderingen in de data. Bij veranderingen evalueer je de prestaties en output van het algoritme.
mon-08Controleer regelmatig of een algoritme voldoende weerbaar is tegen bekende aanvallen