Privacy, gegevensbescherming
& arbeidsrecht:
een actueel overzicht

Mr. Isabel Plets (Lydian)

Webinar op donderdag 8 mei 2025


Wenst u meerdere opleidingen
te volgen bij LegalLearning?

Overweeg dan zeker ons jaarabonnement 

 

Krijg toegang tot +150 opleidingen

Live & on demand webinars

Voor uzelf en/of uw medewerkers


Artificiële intelligentie in het HR-proces:
juridische aandachtspunten

Mr. Inger Verhelst en mr. Matthias Vandamme

(Claeys & Engels)

Webinar op vrijdag 7 februari 2025

De AI-Verordening: geen ‘Minority Report’ in de Europese Unie (Schuermans Advocaten)

Auteur: Schuermans Advocaten

De Europese Unie wilt met de AI-Verordening een voorloper zijn op het gebied van regelgeving rond het gebruik van artificiële intelligentie en zoekt naar een balans tussen het bewaren van de fundamentele grondrechten van de burgers van de Europese Unie en de innovatieve toepassingen van artificiële intelligentie.

De Verordening verdeelt AI-toepassingen onder in risicogroepen.

Een eerste categorie zijn de AI-toepassingen met een onaanvaardbaar risico. Deze worden overeenkomstig art. 5 van de Verordening verboden. Het gaat dan onder meer om toepassingen die databanken voor gezichtsherkenning aanleggen, werken rond emotieherkenning op het werk of op school en over toepassingen die misbruik trachten te maken van de kwetsbaarheden van bepaalde groepen van personen (zoals bijv. minderjarigen of mindervaliden). De Verordening voorziet tevens een expliciet verbod op AI-toepassingen die voorspellen hoe waarschijnlijk het is dat iemand een misdrijf pleegt. Het zal voor de politionele overheden dus niet mogelijk worden om op basis van een dergelijke AI-toepassing preventief in te grijpen.

Een tweede categorie zijn de AI-toepassingen met een hoog risicoprofiel, waaraan veel aandacht wordt besteed in de Verordening. Dit zijn toepassingen die een negatief effect kunnen hebben op de veiligheid of op de grondrechten. In deze categorie is er een onderverdeling in twee groepen. Enerzijds zijn er de toepassingen die onder de klassieke regels rond productaansprakelijkheid vallen, zoals bijv. speelgoed, medische hulpmiddelen of vervoersmiddelen. Daarnaast zijn er AI-toepassingen, die omwille van hun werkgebied als hoog risico worden aangemerkt. Dit zijn AI-toepassingen, die worden gebruikt in het beheer van kritieke infrastructuur, in het onderwijs, in personeelsbeheer, in toegang tot openbare diensten, in rechtshandhaving, in migratie en bij het ondersteunen van rechterlijke instanties bij de toepassing van het recht. Zowel deze risicovolle toepassingen als hun producenten dienen aan een aantal vereisten te voldoen alvorens de toepassingen op de markt kunnen worden gebracht. Belangrijk is echter vooral dat zij conform art. 14 van de Verordening gedurende hun ganse levensduur op effectieve wijze moeten kunnen worden gecontroleerd door een natuurlijk persoon. Voor deze toepassingen is m.a.w. vereist dat een mens steeds moet kunnen nagaan of zij behoorlijk functioneren. Tevens moeten zij toelaten dat deze persoon de AI-toepassing kan ‘overrulen’ of zelfs stoppen.

Een derde categorie zijn de AI-toepassingen met een transparantierisico. Dit zijn bijv. toepassingen die direct met mensen communiceren, zoals chatbots. Van deze toepassingen wordt conform art. 52 van de Verordening vereist dat zij de gebruiker informeren over het feit dat wordt gecommuniceerd met een AI-toepassing en niet met een natuurlijk persoon. In datzelfde artikel wordt verwezen naar AI-toepassingen die kunstmatige beelden en geluiden kunnen produceren of manipuleren. Ook voor deze toepassingen geldt de verplichting om aan de gebruiker kenbaar te maken dat het gaat om artificieel gegenereerde beelden en geluiden.

Ten slotte is er nog de categorie met geen of een beperkt risico. Het gaat dan om bijv. videospellen of spamfilters. Hiervoor zijn geen specifieke verplichtingen voorzien.

De Verordening voorziet ook een handhavingsmodel. Naast het toezicht door de nationale overheden werd binnen de Europese Commissie een AI Bureau opgericht. Dit AI Bureau zal AI-toepassingen kunnen evalueren en informatie mogen opvragen bij de aanbieders van AI-toepassingen, doch zal eveneens mogen overgaan tot het onderzoeken van inbreuken op de Verordening en het toepassen van sancties. Opvallend is daarbij overigens dat geldboetes kunnen worden gebaseerd op een percentage van de wereldwijde jaaromzet van de aanbieder van de AI-toepassing of een vooraf bepaald bedrag indien dat hoger is. Zo gaat het voor inbreuken in verband met verboden AI-toepassingen over 7% van de jaaromzet of een bedrag van 35.000.000,00 EUR.

Het is duidelijk dat de Europese Unie behoedzaam wilt omspringen met de rechten van haar burgers. De snelle ontwikkeling van artificiële intelligentie mag er niet toe leiden dat deze onrechtmatig worden ingeperkt. Deze insteek kan alleen maar worden toegejuicht.

Bron: Schuermans Advocaten

» Bekijk alle artikels: IT & IP, Privacy & Gegevensbescherming

Boeken in de kijker: