AI-regelgeving vanuit de Europese Unie: waar staan we nu?

29 november 2022, laatst geüpdatet 11 september 2024
De afgelopen jaren werkt de Europese Unie (EU) aan wet- en regelgeving om de ontwikkeling van artificial intelligence (AI) in goede banen te leiden. AI-systemen kunnen namelijk de nodige risico’s opleveren, maar bieden ook mooie mogelijkheden voor bijvoorbeeld de gezondheidszorg, vervoer en automatisering. In dit blog bespreek ik twee recente voorstellen van de EU: de AI Act en de Richtlijn AI-aansprakelijkheid.
In dit artikel

Op 12 april 2021 heeft de Europese Commissie een voorstel gedaan voor een Artificial Intelligence Act , om zo betrouwbare kunstmatige intelligentie te verzekeren. Naar verwachting stemt het Europees Parlement binnenkort, eind 2022, over dit voorstel. Daarnaast heeft de Commissie op 28 september 2022 een voorstel gedaan met betrekking tot aansprakelijkheidsregels voor AI (de Richtlijn AI-aansprakelijkheid). Ook dit voorstel moet nog goedgekeurd worden. Wat houden deze twee voorstellen eigenlijk in? Wat kunnen we verwachten voor de toekomst? En misschien nog wel belangrijker: wat betekent dit voor u en uw bedrijf?

De Artificial Intelligence Act

Update 26 mei 2023: Er zijn amendementen op de AI Act aangenomen. Lees meer over deze amendementen in dit blog.

De AI Act, ook wel de Wet op de artificiële intelligentie, is een voorstel voor een allereerste Europese verordening inzake AI. Het toepassingsgebied is ruim. Zo zal de Act niet alleen van toepassing zijn op alle aanbieders van AI-systemen, maar ook op gebruikers van AI-systemen in de EU én op aanbieders en gebruikers van AI-systemen die zich in een derde land bevinden wanneer de output van het systeem in de EU wordt gebruikt.

Daarbij geeft de Act ook een - vrij juridisch-technische - definitie van AI. De Act heeft betrekking op alle software die (a) invloed uitoefent op zijn omgeving door middel van bijvoorbeeld voorspellingen, aanbevelingen of beslissingen, en die (b) is ontwikkeld middels machine learning of deep learning, die kan deduceren en redeneren, of die is ontwikkeld aan de hand van statistische benaderingen.

In de AI Act staan vier doelstellingen centraal:

  1. Ervoor zorgen dat AI-systemen veilig zijn en de grondrechten en waarden van de EU respecteren;
  2. Rechtszekerheid garanderen om investeringen en innovatie in AI te vergemakkelijken;
  3. De handhaving van bestaande wetgeving die van toepassing is op AI-systemen verbeteren;
  4. De ontwikkeling van een interne markt voor wettige, veilige en betrouwbare AI-toepassingen vergemakkelijken en marktversnippering voorkomen.

De Act stelt dwingende regels aan verschillende soorten AI. Niet iedere toepassing is immers hetzelfde. De Act kiest voor een “risicogebaseerde aanpak”, waarbij onderscheid wordt gemaakt tussen AI-systemen met:

  1. een onaanvaardbaar risico;
  2. een hoog risico;
  3. een beperkt risico;
  4. een minimaal risico.

Een onaanvaardbaar risico

In de AI Act staan alle AI-systemen genoemd die een onaanvaardbaar risico met zich meebrengen, omdat er bijvoorbeeld een schending van grondrechten plaatsvindt of een duidelijke bedreiging voor de veiligheid bestaat. Een voorbeeld van een dergelijke AI-praktijk is het gebruik van subliminale technieken waarvan personen zich niet bewust zijn, waardoor fysieke of psychologische schade optreedt. Ook AI-gedreven ”sociale scoring” en gezichtsherkenning in openbare ruimten voor rechtshandhaving, zijn verboden. Kortgezegd: er is geen ruimte voor Chinese praktijken in de EU.

Een hoog risico

Naast AI-systemen met een onaanvaardbaar risico, ziet de Act ook op AI-systemen met een hoog risico. Dit zijn AI-systemen die bedoeld zijn om gebruikt te worden als veiligheidscomponent, zoals medische hulpmiddelen, en AI-systemen met implicaties op het gebied van de grondrechten, zoals op het gebied van onderwijs en beroepsopleiding. Voor AI-systemen met een hoog risico gelden strenge eisen, zoals een Europese conformiteitsbeoordeling. Daarnaast dienen aanbieders van AI-systemen met een hoog risico een systeem voor risicobeheer vast te stellen.

Een beperkt risico

De derde categorie ziet op AI-systemen met beperkte risico's voor de gezondheid en veiligheid van een individu. De AI Act stelt dat transparantieverplichtingen gaan gelden voor systemen die interageren met mensen, die worden gebruikt om emoties te detecteren of mensen in te delen in categorieën op basis van biometrische gegevens, of die inhoud genereren of manipuleren.

Een minimaal risico

De laatste categorie ziet op AI-systemen met minimale risico's. Aanbieders van deze systemen kunnen zelf gedragscodes opstellen.

De Richtlijn AI-aansprakelijkheid

De AI Liability Directive is een voorstel om de aansprakelijkheid van en voor AI vast te leggen. Het belangrijkste doel van deze nieuwe aansprakelijkheidsregels is om ervoor te zorgen dat slachtoffers een schadevergoeding kunnen vorderen voor schade die AI-systemen hebben veroorzaakt. Daarmee worden AI-producten gelijkgetrokken met andere producten. Het voorstel voor de Richtlijn AI-aansprakelijkheid ziet op schade die veroorzaakt wordt door alle soorten AI-systemen. Het maakt hierbij niet uit of dit AI-systeem volgens de AI Act een onaanvaardbaar, hoog, beperkt of minimaal risico heeft.

Waarborgen voor slachtoffers

Een eerste regel die de Richtlijn in het leven roept, is een verlichting van de bewijslast in AI-gerelateerde aansprakelijkheidszaken. Dit wordt bereikt door de invoering van een vermoeden van oorzakelijk verband. De Commissie heeft geconstateerd dat het erg lastig kan zijn voor slachtoffers om te bewijzen dat een AI-systeem fout heeft gehandeld; dit vereist te veel kennis van te complexe materie. De Richtlijn stelt een bewijsvermoeden voor: als er een fout wordt vastgesteld die relevant is voor de schade en een oorzakelijk verband met de AI-verrichtingen redelijkerwijs waarschijnlijk is, dan is de fabrikant aansprakelijk. De aansprakelijk gestelde persoon kan dit vermoeden echter wel weerleggen.

De tweede waarborg voor slachtoffers ziet op de toegang tot bewijsmateriaal. Slachtoffers dienen volgens de Richtlijn te worden geholpen bij het verzamelen van bewijsmateriaal. De Richtlijn bewerkstelligt dit door slachtoffers de mogelijkheid te geven om de rechter te verzoeken om informatie te geven over AI-systemen met een hoog risico. Met deze informatie kunnen slachtoffers vervolgens beter beoordelen wie aansprakelijk kan worden gesteld en wat er fout is gegaan.

De toekomst

De Richtlijn en de Act vullen elkaar goed aan: de Act waarborgt veilige AI-systemen, maar als er toch schade intreedt, waarborgt de Richtlijn een eerlijke procesgang. Toch zijn er belangrijke punten van kritiek op gevolgen van de voorstellen. Zo uiten kleine ondernemers bijvoorbeeld hun zorgen over de hoge kosten van een conformiteitsbeoordeling voor AI met een hoog risico, en vinden privacy-waakhonden de regels omtrent gezichtsherkenning te soft. De Richtlijn wordt op haar beurt bekritiseerd vanwege het chilling effect dat het grote aansprakelijkheidsrisico met zich kan brengen: wie durft nog AI op de markt te brengen, als men zomaar aansprakelijk kan zijn voor de schade die het berokkent?

Het zal overigens nog moeten blijken hoelang het duurt voordat de AI Act en de Richtlijn AI-aansprakelijkheid in werking treden. De Act zou eind november 2022 in stemming worden gebracht in het Europees Parlement, maar over de precieze stemmingsdatum is nog niets bekend. Daarna zullen de Europese instituties samen toewerken naar een definitieve versie van de Act en een datum vaststellen voor de inwerkingtreding. Dit proces kan lang duren, van een halfjaar tot misschien wel twee. Voor de Richtlijn geldt deze lange doorlooptijd al helemaal. Het wetgevingsproces in de EU moet nog doorlopen worden, en in tegenstelling tot verordeningen zoals de AI Act, moeten richtlijnen daarna nog door de nationale parlementen worden omgezet in nationale wetten. Dit proces kan nog jaren duren. Hoogstwaarschijnlijk zal begin 2023 meer duidelijk worden.

Ontwikkelt u AI en heeft u daar juridische vragen over? Of maakt uw bedrijf gebruik van AI en wilt u hier graag meer over weten? Neem dan gerust contact op met mij of een van mijn collega’s IT-recht . We denken graag met u mee.

Thijmen van Hoorn, advocaat IT-recht

Met dank aan Fleur Verhoeven

Gerelateerd

Gebalanceerde stenen

Langjarige samenwerkingscontracten: het nut van een goede balansbepaling

Samenwerkingscontracten worden vaak voor langere tijd (>5 jaar) aangegaan. Vaak wordt een bepaalde mate van exclusiviteit afgesproken maar dat kan ook gaan...
vrouw justitia

De (bijzondere) zorgplicht van de IT-leverancier: een overzicht

Welke inspanning mag van een IT-leverancier verwacht worden? De beantwoording van die vraag wordt gekleurd door de zorgplicht van een IT-leverancier. En deze...

Hoe goed is jouw bedrijf beveiligd?

Alle computerschermen op zwart, een natuurramp, of een inbraak midden in de nacht. Het is de nachtmerrie van iedere bestuurder. Voor belangrijke organisaties,...

Opnieuw verbod op tracking cookies in kort geding

Nadat onlangs Criteo al een verbod kreeg om tracking cookies te plaatsen zonder toestemming, is nu ook aan Microsoft, LinkedIn, MIOL en Xandr een verbod...

Aandachtspunten bij het gebruik van AI in de zorg (deel II)

Artificial Intelligence (AI) is een gamechanger voor de gezondheidszorg. Voor een sector die kampt met personeelstekorten en groeiende kosten, kan...

Verplichte basisverzekering arbeidsongeschiktheid voor zelfstandigen: een stap dichterbij een gelijker speelveld voor werknemers en zelfstandigen met huidig wetsvoorstel?

Op 11 juni 2024 is de internetconsultatie gestart voor het wetsvoorstel Wet basisverzekering arbeidsongeschiktheid zelfstandigen.
No posts found