Appartementsrecht:
een overzicht van recente ontwikkelingen
Mr. Ulrike Beuselinck en mr. Koen De Puydt (Andersen)
Webinar op donderdag 5 december 2024
De nieuwe wet op de private opsporing
Dhr. Bart De Bie (i-Force) en
mr. Stijn De Meulenaer (Everest)
Webinar op donderdag 17 oktober 2024
De invoering van Boek 6
en de impact voor de medische sector
Prof. dr. Christophe Lemmens (Dewallens & Partners)
Webinar op vrijdag 4 oktober 2024
Boek 7 ‘Bijzondere contracten’
en de impact voor de bouw- en vastgoedsector
Prof. dr. Kristof Uytterhoeven
(Caluwaerts Uytterhoeven)
Webinar op donderdag 7 november 2024
Marketingrecht: juridisch anticiperen
op de razendsnelle evoluties
Mr. Tom Heremans (CMS)
Webinar op donderdag 14 november 2024
Artificiële intelligentie in het HR-proces:
juridische aandachtspunten
Mr. Inger Verhelst en mr. Matthias Vandamme (Claeys & Engels)
Webinar op vrijdag 7 februari 2025
Artificial Intelligence Act gestemd in Europees parlement: van wereldwijde primeur naar strafrechtelijke implicaties (Waeterinckx Advocaten)
Van het creëren van teksten via ChatGPT tijdens het werk, naar algoritmes die bepalen welke online content iemand al dan niet te zien krijgt tijdens zijn pauze. De toepassingsmogelijkheden van artificiële intelligentie lijken ondertussen eindeloos en blijven exponentieel uitbreiden. Eenzelfde sneltempo was het aan beleidsmakers evenwel niet gegeven, nu de innovatieve IT-sector moeilijk te volgen bleek wanneer het op enige regelgeving rond AI aankwam. Met de goedkeuring van de zogenaamde Artificial Intelligence Act (verder: ‘AI Act’) op 14 juni 2023 brengt het Europees Parlement hier eindelijk verandering in.
Hoewel het EU-wetgevingsproces hiermee nog niet ten einde is, houdt de goedkeuring wel de start in van de laatste onderhandelingsfase richting een definitieve tekst. Deze definitieve tekst – die wordt verwacht ergens in het najaar – zou een wereldwijde primeur betekenen, met als voornaamste doel een uniform juridisch kader te creëren voor het gebruik van artificiële intelligentie binnen de EU – rekening houdend met de risico’s die met dat gebruik gepaard (kunnen) gaan.
MEER RISICO = MEER TRANSPARANTIE = MEER (STRAF)RECHTSZEKERHEID
Dat deze risico’s groot zijn, is al mogen blijken uit verschillende incidenten met AI-systemen – gaande van ongevallen met (gedeeltelijk) autonome voertuigen naar chatbots die onaanvaardbaar taalgebruik produceren en daarmee desastreuze gevolgen in de hand werken. Een van de vragen die in deze gevallen rees, is uiteraard die naar de strafrechtelijk ‘verantwoordelijke’ voor ongewenst AI-gedrag.
Ofschoon de Artificial Intelligence Act hierop geen onmiddellijk antwoord geeft (noch tracht te geven), heeft ze wel degelijk ook vanuit strafrechtelijk oogpunt relevantie. Zo valt een groot deel van de problematieken met betrekking tot het vaststellen van enige strafrechtelijke verantwoordelijkheid voor gedragingen van AI-systemen, te herleiden tot het gebrek aan transparantie in de besluitvormingsprocessen van (vele van) deze systemen. Nu de AI Act dit gebrek probeert te verhelpen via diverse specifieke transparantieverplichtingen, valt te verwachten dat minstens enkele problemen (gedeeltelijk) worden verholpen – en dit zowel op preventief als repressief niveau (het opsporen van fouten in AI-systemen om ze ofwel tijdig te kunnen oplossen, dan wel om ze adequaat (strafrechtelijk) te kunnen situeren).
VIER CATEGORIEËN, VELE VERPLICHTINGEN
De bijzondere verplichtingen tot meer transparantie (zoals bijvoorbeeld het verplicht inbouwen van automatische registratiecapaciteiten (‘logs’) in AI, of het verplicht bijhouden van technische documentatie van AI) gelden met name voor de AI-systemen die de Europese wetgever bestempelt als zijnde van ‘hoog risico’. In eerste instantie (voorstel Commissie, artikel 6) gebeurde deze categorisering op basis van het beoogde doel van het AI-systeem. Het Europees Parlement verhoogde de drempel echter, en breidde de definitie van ‘hoog-risico-systemen’ uit met de vereiste dat het systeem daarnaast ook een aanzienlijk risico op de gezondheid, de veiligheid of de fundamentele rechten moet vormen.
Ook aan de andere categorieën van veiligheidsrisico’s (de Artificial Intelligence Act identificeert er vier, gaande van ‘onaanvaardbaar hoog’ tot ‘minimaal’) werd door het Parlement hier en daar gesleuteld. Zo werd voornamelijk de lijst van verboden AI-systemen vanwege een zogenaamd onaanvaardbaar risico aanzienlijk uitgebreid, o.a. met toepassingen van realtime gezichtsherkenning.
Over dat laatste lijkt alleszins nog geen volledige eensgezindheid bereikt, nu er inderdaad vanuit formeel strafrechtelijk perspectief wat voor te zeggen valt om uitzonderingen op het verbod te voorzien in het geval van bijvoorbeeld terreurdreiging of kinderontvoering.
STRENG MAAR RECHTVAARDIG?
Valt men echter niet onder een van de (toekomstige) uitzonderingen en ontwikkelt of gebruikt men desondanks een ‘onaanvaardbaar’ AI-systeem, dan is het Europees Parlement niet mild. Het verhoogt immers de (administratieve) geldboeten die op zulke inbreuken op de AI Act worden voorzien, van 30.000 naar 40.000 euro en – voor ondernemingen – van 6% van hun totale jaarlijkse omzet naar 7%. Gelijkaardige sancties gelden overigens voor zij die de voorschriften of verplichtingen (die gelden al naargelang het soort AI-systeem (risico) – cf. supra) van de AI Act niet nakomen.
Wat daarmee op tafel ligt, is een behoorlijk strenge regulering van AI-toepassingen. Teneinde evenwel tot een succesvolle integratie van artificiële intelligentie in onze samenleving te komen, is dat ook nodig. Enkel ingevolge de nodige transversale wetgevende herdenkingen zoals de AI Act zal immers een uiteindelijke evolutie mogelijk zijn naar een hedendaags (straf-)rechtssysteem, waarin een evenwicht bestaat tussen het juridisch reeds bekende enerzijds en het technologisch soms nog onbekende anderzijds.
Bron: Waeterinckx Advocaten
» Bekijk alle artikels: IT & IP, Innovation & AI