De AI Act is een voorstel van de Europese Commissie om kunstmatige intelligentie te reguleren. De AI Act geeft een verbod op bepaalde AI-praktijken en legt specifieke eisen en verplichtingen op aan de makers en gebruikers van AI. Het doel van deze maatregelen is om het vertrouwen in AI te vergroten, de veiligheid en grondrechten van mensen en bedrijven te waarborgen, en investeringen en innovatie in de hele Europese Unie te versterken.
De AI Act
Wat staat er ook alweer in de AI Act? De Act kiest voor een “risicogebaseerde aanpak”, waarbij onderscheid wordt gemaakt tussen AI-systemen met:
- een onaanvaardbaar risico;
- een hoog risico;
- een beperkt risico;
- een minimaal risico.
Systemen uit categorie 1 worden onder de AI Act verboden. Hieronder valt AI waarmee grondrechten geschonden worden of die een duidelijke bedreiging voor de veiligheid veroorzaken. Een voorbeeld hiervan is AI-gedreven ”sociale scoring”.
AI-systemen met een hoog risico zijn onder de AI Act toegestaan, maar worden gereguleerd. Zo worden deze systemen onderworpen aan een verplichte conformiteitsbeoordeling, moet de trainingsdata voldoen aan bepaalde kwaliteitseisen en moeten beslissingen van de AI uitlegbaar zijn. Een “hoog risico” hebben AI-systemen die bedoeld zijn om gebruikt te worden als veiligheidscomponent, zoals medische hulpmiddelen, en AI-systemen met implicaties op het gebied van de grondrechten, zoals op het gebied van onderwijs.
Voor AI-systemen uit categorieën 3 en 4 gelden slechts transparantieverplichtingen.
Amendementen
Eind 2022 is het voorstel voor de AI Act naar het Europees Parlement gestuurd. Daar hebben de Commissie Interne markt en consumentenbescherming (IMCO) en de Commissie Burgerlijke vrijheden, justitie en binnenlandse zaken (LIBE) naar de Act gekeken. In mei 2023 hebben de commissies met overweldigende meerderheid een aantal belangrijke amendementen goedgekeurd.
AI met een onaanvaardbaar risico
Een belangrijke wijziging in de Act ziet op de lijst van verboden AI-systemen (categorie 1). Het Parlement vindt meer AI-toepassingen onaanvaardbaar dan de Commissie:
- “real-time” biometrische identificatiesystemen op afstand in openbaar toegankelijke ruimten, ook niet als dat nodig is voor rechtshandhaving. Denk hierbij aan live gezichtsherkenning.
- biometrische identificatiesystemen op afstand in openbaar toegankelijke ruimten die niet “real time” is, tenzij dat strikt noodzakelijk is om ernstige misdrijven op te sporen en een rechter toestemming heeft gegeven.
- Biometrische categorisatie aan de hand van bijzondere persoonsgegevens, zoals etniciteit en politieke voorkeur.
- Predictive policing.
- Lukraak scrapen van biometrische gegevens uit sociale media of beveiligingscamera’s.
AI met een hoog risico
De amendementen zorgen voor een uitgebreidere definitie van "hoog risico". Nu vallen AI-systemen die de gezondheid, veiligheid, grondrechten of het milieu schaden onder de definitie. Al deze systemen moeten dus voldoen aan de strenge eisen uit de AI Act, zoals de nieuw geïntroduceerde Fundamental Rights Impact Assessment. Hetzelfde geldt voor AI-systemen die ertoe dienen om kiezers te beïnvloeden in politieke campagnes, en voor bepaalde AI die wordt gebruikt door grote sociale media-platforms.
AI met een beperkt of minimaal risico
Ook AI met een lager risico blijft niet buiten schot. Er worden transparantiemaatregelen opgelegd aan aanbieders van AI voor algemene doeleinden, zoals ChatGPT. Het wordt verplicht om kenbaar te maken dat content is gemaakt door AI en er komen strenge eisen om illegale content te vermijden. Belangrijk is ook de verplichting om kenbaar te maken welke auteursrechtelijk beschermde content er is gebruikt om de AI te trainen.
Reacties vanuit de praktijk
Sommige bedrijven uiten bezorgdheid over de impact van deze amendementen op commerciële belangen en innovatie. Ze vrezen dat strenge beperkingen en verboden de ontwikkeling van AI-systemen kunnen belemmeren en de concurrentiepositie van Europese bedrijven kunnen verzwakken. Tegelijkertijd is wel de verwachting dat een groter vertrouwen in AI-systemen zal leiden tot een grotere acceptatie door consumenten en gebruikers. Om tegemoet te komen aan vragen uit de markt, heeft het Parlement uitzonderingen op de regels gemaakt voor onderzoeksdoeleinden en open source-AI.
De voorgestelde regels brengen uitdagingen met zich mee voor bedrijven die AI-systemen ontwikkelen en gebruiken. Het is essentieel dat bedrijven voldoen aan de geldende wetgeving, ethische normen naleven en transparantie bieden over het functioneren van hun AI.
Ontwikkelt u AI en heeft u daar juridische vragen over? Of overweegt uw bedrijf AI te gaan gebruiken en wilt u hier graag meer over weten? Neem dan gerust contact op met mij of een van mijn collega’s IT-recht. We denken graag met u mee.
Thijmen van Hoorn, advocaat IT-recht
Met dank aan Kübra Çöpoğlu