Als een hoog-risico-AI-systeem niet voldoet aan de AI-verordening, grijpt de aanbieder in.
aia-18OrganisatieverantwoordelijkhedenMonitoring en beheerProjectleiderMenselijke controleTechnische robuustheid en veiligheid
Vereiste
Aanbieders van AI-systemen met een hoog risico die van mening zijn of redenen hebben om aan te nemen dat een door hen in de handel gebracht of in gebruik gesteld AI systeem met een hoog risico niet in overeenstemming is met de AI-verordening, nemen onmiddellijk de nodige corrigerende maatregelen om dat systeem naargelang het geval in overeenstemming te brengen, uit de handel te nemen, te deactiveren of terug te roepen.
Toelichting
Aanbieders van AI-systemen met een hoog risico die constateren dat hun systeem niet aan de verordening voldoet, moeten onmiddellijk corrigerende acties ondernemen, zoals het terugroepen of uit de handel nemen van het systeem.
Ze moeten ook alle relevante partijen, zoals distributeurs, gebruiksverantwoordelijken en importeurs, op de hoogte stellen van deze maatregelen.
Over AI-modellen voor algemene doeleinden met een systeemrisico wordt relevante informatie over ernstige incidenten en mogelijke corrigerende maatregelen bijgehouden, gedocumenteerd en onverwijld gerapporteerd aan het AI-bureau en, in voorkomende gevallen, aan de nationale bevoegde autoriteiten.
Bronnen
- Artikel 20 Verordening Artificiële Intelligentie
- Artikel 16(j) Verordening Artificiële Intelligentie
- Artikel 55 Verordening Artificiële Intelligentie
Wanneer van toepassing?
AI-systeemAI-systeem voor algemene doeleindenAanbieder
Risico
Niet reageren op non-conformiteit kan leiden tot risico's voor gebruikers en derden. Het kan leiden tot juridische procedures en reputatieschade voor organisaties.