Ga naar inhoud

Assessment List for Trustworthy Artificial Intelligence (ALTAI)

OntwerpOntwikkelenJuristOntwikkelaarProjectleiderBeleid en adviesPrivacy en gegevensbeschermingDuurzaamheidFundamentele rechtenTechnische robuustheid en veiligheidTransparantieMenselijke controleData

Direct naar de ALTAI

Hulpmiddel

In 2019 publiceerde de High-Level Expert Group on Artificial Intelligence (AI HLEG), opgericht door de Europese Commissie, de Ethics Guidelines for Trustworthy Artificial Intelligence. De ALTAI is een hulpmiddel dat ontwikkelaars en organisaties helpt hun AI-systemen te beoordelen, gebaseerd op deze Ethics Guidelines for Trustworthy Artificial Intelligence. Het helpt te bepalen of het AI-systeem dat wordt ontwikkeld, ingezet, aangeschaft of gebruikt, voldoet aan zeven vereisten van betrouwbare AI:

  • Menselijke tussenkomst en toezicht;
  • Technische robuustheid en veiligheid;
  • Privacy en gegevensbeheer;
  • Transparantie;
  • Diversiteit, non-discriminatie en eerlijkheid;
  • Maatschappelijk en ecologisch welzijn;
  • Verantwoordelijkheid

De ALTAI is bedoeld voor zelfevaluatie. Het hulpmiddel is verankerd in de bescherming van de fundamentele rechten van mensen, de term die in de Europese Unie wordt gebruikt om te verwijzen naar de mensenrechten die zijn vastgelegd in de EU-verdragen, het Handvest van de Grondrechten, en het internationale mensenrechtenrecht.

De ALTAI is bedoeld voor flexibele inzet: organisaties kunnen gebruikmaken van de relevante onderdelen van dit hulpmiddel voor een specifiek AI-systeem of er elementen aan toevoegen die zij passend achten, rekening houdend met de sector waarin zij opereren. Het helpt organisaties te begrijpen wat betrouwbare AI inhoudt, in het bijzonder welke risico's een AI-systeem zou kunnen meebrengen en hoe deze risico's kunnen worden geminimaliseerd terwijl de kansen van AI worden gemaximaliseerd. Organisaties halen het meeste waarde uit de ALTAI door de gestelde vragen uitgebreid te beantwoorden, die zijn bedoeld om zorgvuldige reflectie te stimuleren en passende vervolgacties aan te formuleren, en een organisatiecultuur te bevorderen die zich inzet voor de ontwikkeling van betrouwbare AI-systemen. Het vergroot het bewustzijn van de mogelijke impact van AI op de samenleving, het milieu, consumenten, werknemers en burgers (in het bijzonder kinderen en mensen die tot gemarginaliseerde groepen behoren).

Relevantie

De ALTAI biedt houvast bij het evalueren van in hoeverre een betreffend AI-systeem voldoet aan de zeven vereisten van betrouwbare AI, zoals geformuleerd door de EU. Deze zeven vereisten en de ALTAI hebben samen de basis gevormd voor de AI-verordening.

Auteur

De ALTAI is ontwikkeld door de High-Level Expert Group on Artificial Intelligence van de Europese Commissie.

Bijbehorende vereisten

Vereiste
aia-14 - Hoog-risico-AI-systemen worden pas geleverd of gebruikt na een conformiteitsbeoordelingsprocedure.
awb-01 - Organisaties die algoritmes gebruiken voor publieke taken nemen besluiten zorgvuldig.

Bijbehorende maatregelen

Maatregel
pba-03 - Beschrijf waarom een algoritme het probleem moet oplossen
2-owp-06-afwegen-grondrechten
imp-03 - Richt de juiste menselijke controle in van het algoritme
6-imp-06-proces-privacyrechten
mon-02 - Beveilig de software
pba-05 - Beschrijf de wettelijke grondslag voor de inzet van het algoritme
owp-03 - Beschrijf voor welk doel het algoritme persoonsgegevens gebruikt en waarom dit mag
3-dat-03-persoonsgegevens-beschrijven
3-dat-04-bewaartermijnen-persoonsgegevens
2-owp-07-kwetsbare-groepen
imp-04 - Publiceer impactvolle algoritmes en hoog-risico-AI-systemen in het Algoritmeregister
5-ver-02-biasanalyse
ver-01 - Controleer regelmatig of het algoritme werkt zoals het bedoeld is
owk-03 - Analyseer de privacy-risico’s en neem maatregelen om deze risico’s laag te houden
owk-01 - Ontwerp en ontwikkel het algoritme volgens de principes van ‘security by design’