Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder.
aia-35OrganisatieverantwoordelijkhedenMonitoring en beheerProjectleiderGovernance
Vereiste
Ernstige incidenten door hoog-risico-AI-systemen worden gemeld aan de toezichthouder.
Toelichting
Aanbieders van AI-systemen met een hoog risico die binnen de EU worden verhandeld, moeten ernstige incidenten melden bij de markttoezichtautoriteiten van de lidstaten waar het incident heeft plaatsgevonden. Het doel is om de veiligheid en betrouwbaarheid van AI-systemen te waarborgen en mogelijke risico's voor gebruikers te minimaliseren.
Dit meldingsproces is bedoeld om snel en adequaat te reageren op ernstige incidenten die zich voordoen bij het gebruik van deze AI-systemen, en om passende maatregelen te nemen ter bescherming van de consumenten en het publiek. Een 'ernstig incident' wordt in artikel 3 van de AI-verordening gedefinieerd als: een incident of gebrekkig functioneren van een AI-systeem dat direct of indirect leidt tot:
- het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon;
- een ernstige en onomkeerbare verstoring van het beheer of de exploitatie van kritieke infrastructuur;
- een schending van de uit het recht van de Unie voortvloeiende verplichtingen ter bescherming van de grondrechten;
- ernstige schade aan eigendommen of het milieu.
Bronnen
Artikel 73(1) Verordening Artificiële Intelligentie
Wanneer van toepassing?
AI-systeemAI-systeem voor algemene doeleindenAanbieder
Risico
Het niet melden van ernstige incidenten kan leiden tot vertraagde reactie op potentiële gevaren voor gebruikers en kan het vertrouwen in AI-systemen ondermijnen.