Europese AI Verordening
De AI Act wordt ook wel de Wet op de artificiële intelligentie genoemd. De AI Act (of beter gezegd: de AI-Verordening) heeft tot doel ervoor te zorgen dat AI-systemen veilig zijn en (grond)rechten respecteren. Met de AI Act zijn transparantievoorschriften vastgesteld, ook met betrekking tot deep fakes.
Deep fakes
De nieuwe AI-regels (zie ons eerdere bijdrage hierover) hebben betrekking op alle software die (a) invloed uitoefent op zijn omgeving door middel van bijvoorbeeld voorspellingen, aanbevelingen of beslissingen, en die (b) is ontwikkeld middels machine learning of deep learning, die kan deduceren en redeneren, of die is ontwikkeld aan de hand van statistische benaderingen.
Dit kunnen ook AI-systemen zijn die worden gebruikt om beeld-, audio- of video-inhoud te genereren of te manipuleren, waaronder deep fakes. Het gaat hier bijvoorbeeld om beeld-, audio- of videomateriaal dat aanzienlijk op bestaande personen lijkt en voor een persoon onterecht als authentiek of waarheidsgetrouw zou overkomen.
Wettelijke verplichtingen
Art. 52 lid 3 van de AI-Verordening legt een transparantieverplichting op, om kenbaar te maken dat materiaal kunstmatig gegenereerd of bewerkt is.
"Gebruikers van een AI-systeem dat beeld-, audio- of videomateriaal genereert of bewerkt dat aanzienlijk op bestaande personen, objecten, plaatsen of andere entiteiten of gebeurtenissen lijkt en voor een persoon onterecht als authentiek of waarheidsgetrouw (“deep fake”) zou overkomen, maken bekend dat het materiaal kunstmatig is gegenereerd of bewerkt."
Dit geeft de persoon die deepfakes te zien krijgt de mogelijkheid een weloverwogen keuze te maken, en afstand te nemen van bepaalde situaties, aldus de toelichting.
Imitatie of bedrog
Als een AI-systeem wordt gebruikt om beeld-, audio- of videomateriaal te genereren of te manipuleren dat een merkbare gelijkenis vertoont met authentieke inhoud, moet verplicht bekend gemaakt worden dat de inhoud door geautomatiseerde hulpmiddelen is gegenereerd.
In de overwegingen van de verordening en wordt uitgelegd dat AI-systemen specifieke risico’s op imitatie of bedrog met zich mee kunnen brengen, en dat daarom specifieke transparantieverplichtingen gelden. Om deze reden moeten natuurlijke personen op de hoogte worden gesteld van het feit dat zij interageren met een AI-systeem, tenzij dit duidelijk blijkt uit de omstandigheden en de context van het gebruik.
Portretrecht en deepfakes
Het gebruik van deepfakes kan ook inbreuk op portretrechten van de betrokkenen opleveren. Met een deepfake zal als regel immers het gelaat van een bestaande persoon te herkennen zijn. Dan is sprake van een portret in de zin van Artikel 21 van de Auteurswet. Deepfaketechniek wordt immers ingezet om doelbewust een herkenbare afbeelding van een specifieke bestaande (bekende) persoon te genereren.
Het gebruik van een portret kan worden tegengegaan, indien de geportretteerde een redelijk belang heeft zich hiertegen te verzetten. Een redelijk belang, nodig voor een dergelijk verzetten, wordt aangenomen als er sprake is van inbreuk op de persoonlijke levenssfeer en/of wanneer men zich op commerciële belangen kan beroepen. Geportretteerden hoeven in beginsel niet te accepteren dat hun portret voor commerciële doelen wordt gebruikt. Ook wanneer de portetten worden gebruikt in een setting waar hun privacy belangen worden geschaad, is verdedigbaar dat dat inbreuk op portretrecht oplevert. Dat kan ook aan de orde zijn bij het gebruik van deepfakes.
Uitzonderingen?
Er zijn mogelijke uitzonderingen denkbaar voor het gebruik van deepfakes, bijvoorbeeld in geval van een evidente parodie of wanneer de vrijheid van meningsuiting prevaleert. Of hier sprake van is, zal van de omstandigheden van het geval afhangen.
Aansprakelijkheid voor onrechtmatige deepfakes
Makers en exploitanten van illegale deepfakes zijn primair aansprakelijk voor het gebruik van onrechtmatige deepfakes. Ingeval van deep fakes waarin een portret onrechtmatig wordt gebruikt, zal de portretrechthebbende voor het verhalen van schade n.a.v. de inbreuk ook moeten aankloppen bij de maker of de exploitant van de deep fake.
Onrechtmatige deepfakes kunnen ook op internetplatforms voorkomen. Het is de vraag wanneer die internetplatformen daarvoor aansprakelijkheid zijn. Het zal door de AI Verordening in elk geval makkelijker worden voor gebruikers om te weten dat de inhoud gemanipuleerd is (een deep fake is), en internet gebruikers kunnen zodoende eerder een melding maken van illegale inhoud.
Ter zake nepadvertenties is al geoordeeld dat platforms met een actieve rol aangesproken kunnen worden en zij bepaalde maatregelen moeten nemen om dergelijke advertenties tegen te gaan. Over nepadvertenties is ook geoordeeld dat platforms identificerende gegevens moeten afgeven van de adverteerders zelf, om hen daarop te kunnen aanspreken. Deze verplichtingen kunnen nu ook al doorgetrokken worden naar deepfakes die op internet platforms staan. De internetplatforms kunnen onder omstandigheden ook aangesproken worden om voldoende maatregelen te nemen om inbreuken op (portret)rechten van derden zo mogelijk te voorkomen en indien er inbreuk daarop heeft plaats gevonden, de inhoud te verwijderen.
De nieuwe DSA-regels (de Digitale dienstenverordening) leggen bepaalde diensten straks de verplichting op om gebruikers een toegankelijke mogelijkheid te bieden om meldingen te maken van illegale inhoud op platforms. Bovendien dienen zij de gebruiker dan “onverwijld” op de hoogte te stellen van hun besluit met betrekking tot de melding. Het is de bedoeling dat hiermee verspreiding van illegale en onrechtmatige deep fakes wordt tegengegaan, door een gebruikersvriendelijke meldings- en actieprocedures in te voeren (notice and take down).
Zeer grote onlineplatforms en zoekmachines dienen volgens de nieuwe DSA-verordening daarbovenop o.a. redelijke, evenredige en doeltreffende risicobeperkingsmaatregelen, te nemen. De bedoeling is dat zodoende het gebruik van illegale deepfakes zoveel mogelijk wordt tegengegaan. Specifiek stelt art. 35 lid 1 sub k van de DSA het volgende met betrekking tot deepfakes:
“Aanbieders van zeer grote onlineplatforms en van zeer grote onlinezoekmachines nemen redelijke, evenredige en doeltreffende risicobeperkende maatregelen, die zijn toegesneden op de specifieke systeemrisico’s die krachtens artikel 34 zijn vastgesteld, met bijzondere aandacht voor de effecten van die maatregelen op de grondrechten.
Dergelijke maatregelen omvatten waar van toepassing:
waarborging dat informatie, of het nu gaat om gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal dat een merkbare gelijkenis vertoont met bestaande personen, voorwerpen, plaatsen of andere entiteiten of gebeurtenissen, en door een persoon ten onrechte voor authentiek of waarheidsgetrouw wordt aangezien, door opvallende markeringen te onderscheiden is bij het presenteren ervan op hun online-interfaces, en daarnaast, de verstrekking van een gebruiksvriendelijke functionaliteit die afnemers van de dienst de mogelijkheid biedt dergelijke informatie aan te geven.”
Boetes
Wanneer er niet aan de AI-Verordening wordt voldaan, kan er een boete opgelegd worden. Onduidelijk is nog hoe zich dit verhoudt tot de schending van de transparantieverplichting omtrent deepfakes en dus de inzet van illegale deepfakes. Elke lidstaat moet een of meer nationale bevoegde autoriteiten aanwijzen voor het toezicht op de toepassing en uitvoering van de verordening.
Conclusies
Volgens het hierboven besproken regelgevend kader moeten "deep fakes" als zodanig kenbaar worden gemaakt (AI Act). Het gebruik van deepfakes kan een inbreuk opleveren op portretrechten van de betrokken persoon (onder de Auteurswet). Onder omstandigheden kunnen naast de verspreiders van onrechtmatige deepfakes ook de betrokken platforms aangesproken worden op illegale inhoud (DSA-verordening).
Joost Becker, advocaat