De Europese regels omtrent Artificial Intelligence zijn gepubliceerd
Nadat er een politiek akkoord was bereikt over de inhoud van de Europese regels voor Artificial Intelligence (de AI Act) is deze juli jl. gepubliceerd en daarmee officieel van kracht geworden. De Act is ingegaan per 1 augustus en zal van toepassing zijn vanaf 1 augustus 2026, met uitzondering van enkele bepalingen zoals verboden toepassingen die al een half jaar na ingang van toepassing zijn. In dit bericht geven wij een update van de ontwikkelingen rondom de AI Act.
In een eerder bericht hebben we de hoofdkenmerken van de AI Act toegelicht. De komende weken zullen we in een korte serie berichten in gaan op de risico-indeling, de specifieke verplichtingen in geval van ontwikkeling en gebruik van een AI toepassing met een hoog risico en wat je ter voorbereiding kunt doen.
Risico-classificaties
De AI act kent verschillende risico-classificaties en AI toepassingen moeten op basis daarvan worden ingedeeld. Afhankelijk van de classificatie gelden verplichtingen:
- Onaanvaardbaar risico (verboden). AI-systemen voor bijvoorbeeld schadelijke manipulatie, onterechte social scoring en emotieherkenning op het werk hebben een onaanvaardbaar risico en zullen worden verboden.
- Hoog risico (strenge eisen). Er is een lijst met toepassingen die worden beschouwd als risicovol voor fundamentele rechten, veiligheid en gezondheid. Deze toepassingen moeten aan strenge eisen voldoen.
- Beperkt risico (specifieke transparantie verplichtingen): de makers van AI-systemen die content genereren, zoals ChatGPT, moeten dit markeren als gegenereerd of gemanipuleerd, en deepfakes moeten als zodanig bekend worden gemaakt. Ook bij de inzet van bijvoorbeeld chatbots moet duidelijk worden dat je met AI te maken hebt.
- Minimaal risico (geen aparte eisen). Er zijn veel AI-systemen die niet worden gereguleerd. Bij AI die niet in een van de bovenstaande categorieën valt gelden er geen eisen omdat de risico’s laag of nihil zijn. Ontwikkelaars of organisaties kunnen wel vrijwillige gedragscodes opstellen en naleven. Voorbeelden hiervan zijn AI in videogames of spamfilters.
Hoog risico toepassingen in de financiële sector
In de Act zijn twee toepassingen in de financiële sector in de lijst (annex iii) opgenomen als hoog risico waarvoor een stringent regelkader geldt.
- AI systemen die gebruikt worden voor bepaling van kredietwaardigheid van natuurlijke personen
- Voor AI systemen die gebruikt worden voor risico beoordeling en prijsstelling in het kader van levensverzekeringen en ziektekosten verzekeringen.
In twee volgende berichten gaan we in op de eisen aan dit soort toepassingen en hoe je je indien nodig kunt voorbereiden.
Overleg
Wij volgen de verdere ontwikkelingen van de AI regelgeving en voeren daarover het gesprek met onder andere de AFM. De AI Act is een verordening en daarmee direct van toepassing in de verschillende lidstaten. Wel kan de Nederlandse regelgever op onderdelen nadere duiding geven en het toezicht door de AFM zal verder worden ingericht. Mocht je nu vragen hebben, laat ons weten.