Wenst u meerdere opleidingen
te volgen bij LegalLearning?
Overweeg dan zeker ons jaarabonnement
Krijg toegang tot +250 opleidingen
Live & on demand webinars
Met tussenkomst van de kmo-portefeuille
AI in de zorgsector:
hinderen de regels ons nog?
(gratis webinar)
Dr. Nele Somers en mr. Julie Petersen (Artes Advocaten)
Gratis webinar op dinsdag 10 maart 2026
Discriminatie op de werkvloer:
de laatste ontwikkelingen
Mr. Inger Verhelst (Claeys & Engels)
Webinar op donderdag 24 september 2026
Mededingingsrecht:
recente ontwikkelingen
Mr. Melissa Van Schoorisse (Covington)
Webinar op vrijdag 27 maart 2026
Mag België nog eigen AI-regels invoeren? (Everest)
Auteur: Joris Deene (Everest)
De invoering van de Europese AI Act betekent niet enkel een nieuwe set regels voor bedrijven, maar ook een inperking van de bevoegdheid van de Belgische wetgever. Door te kiezen voor maximumharmonisatie heeft de EU het beleidsdomein rond artificiële intelligentie naar zich toe getrokken. Dit betekent dat de Belgische wetgever – federaal en regionaal – grotendeels de bevoegdheid verliest om eigen, afwijkende regels te stellen voor AI-systemen, zelfs als de EU die systemen zelf nauwelijks reguleert.
Maximumharmonisatie en voorrang
In de media en de politiek gaat de aandacht vooral naar de inhoudelijke verplichtingen van de AI Act: de verboden toepassingen, de regels voor hoog-risico systemen en de transparantie-eisen. Een belangrijk aspect wordt evenwel vaak over het hoofd wordt gezien: de impact op de verdeling van bevoegdheden.
Om de impact op de Belgische rechtsorde te begrijpen, moeten we kijken naar de juridische basis van de AI Act. De verordening is gebaseerd op artikel 114 VWEU, gericht op de werking van de interne markt. Het doel is niet enkel reguleren, maar vooral het voorkomen van marktfragmentatie tussen lidstaten.
In het EU recht geldt het voorrangsbeginsel. Zodra de Unie wetgevend optreedt in een bepaald domein, worden de lidstaten uitgesloten van optreden in datzelfde domein. De Europese wetgever heeft duidelijk gemaakt – onder meer in Overweging 1 – dat de AI Act lidstaten verhindert om beperkingen op te leggen aan de ontwikkeling, marketing en het gebruik van AI-systemen, tenzij de verordening dit expliciet toestaat. Dit creëert een juridisch plafond: nationale regels mogen niet strenger zijn, maar ook niet anders, tenzij er een specifieke opening is gelaten.
Gedeeltelijke regulering
Nochtans bestaat er een onevenwicht tussen het toepassingsgebied van de AI Act en de daadwerkelijke regels in de verordening.
- Het toepassingsgebied: De definitie van “AI-systeem” in artikel 3(1) is zeer breed. Het omvat bijna alle software die via machine learning of logica outputs genereert. Hierdoor valt nagenoeg elke moderne AI-toepassing onder de exclusieve bevoegdheid van de EU.
- Het gereguleerde gebied: De daadwerkelijke verplichtingen (compliance, conformiteitsbeoordeling, risicomanagement) gelden slechts voor een deel van deze systemen, namelijk de “hoog-risico” systemen en verboden praktijken.
Voor de overgrote meerderheid van AI-systemen (die niet hoog-risico zijn, zoals spamfilters, eenvoudige chatbots, games, optimalisatiesoftware), legt de EU géén inhoudelijke verplichtingen op. Tegelijkertijd verbiedt de EU lidstaten zoals België om voor deze systemen wél eigen regels te maken.
De Europese wetgever heeft dan ook impliciet bepaald dat voor deze laag-risico systemen de vrije markt moet gelden, zonder belemmeringen door nationale wetgevers. Een Belgisch wetsvoorstel dat bijvoorbeeld extra ethische eisen zou stellen aan AI in videogames of extra eisen zou stellen aan eenvoudige AI chatbots, zou hierdoor onmiddellijk in strijd zijn met het Unierecht, omdat België niet meer bevoegd is om het “gebruik” van AI-systemen te reguleren .
Nationale initiatieven zijn niet mogelijk
Dat deze inperking van nationale autonomie tot conflicten zal leiden, is onvermijdelijk. Politici willen immers reageren op maatschappelijke zorgen rondom AI, zoals deepfakes. Recente voorbeelden uit onze buurlanden tonen de spanning aan:
- Duitsland (Beieren): Er werd een voorstel gedaan om kwaadaardige deepfakes (zoals niet-consensuele pornografie) strafbaar te stellen via het strafrecht.
- Frankrijk: Een wetsvoorstel wilde verplichten dat elk AI-gegenereerd beeld expliciet als zodanig gemarkeerd moet worden.
Hoewel de intenties legitiem zijn, botsen dergelijke initiatieven waarschijnlijk met de AI Act. Het reguleren van het “gebruik” van AI-systemen valt immers exclusief onder de bevoegdheid van de EU. Als de EU beslist heeft om deepfakes enkel te reguleren via transparantieverplichtingen (zoals in art. 50 AI Act), kan een lidstaat niet eenzijdig beslissen om verdergaande verboden of technische verplichtingen op te leggen. Zelfs strafrechtelijke bepalingen kunnen onder de scope van het EU-recht vallen als ze de interne markt voor AI-diensten fragmenteren.
Waar heeft de Belgische wetgever nog wel speelruimte?
De harmonisatie is maximaal, maar niet totaal. Er zijn specifieke openingen en uitzonderingen waar nationale of regionale wetgevers in België nog wel bevoegd blijven.
1. Arbeidsrecht en werknemersbescherming
Artikel 2(11) van de AI Act stelt expliciet dat de verordening lidstaten niet belet om wetten te handhaven of in te voeren die gunstiger zijn voor werknemers.
AI-systemen voor rekrutering of werknemersmonitoring zijn “hoog-risico” onder de AI Act. Ze moeten aan technische eisen voldoen. België mag echter beslissen dat dergelijke systemen in bepaalde contexten verboden zijn, of dat de ondernemingsraad een vetorecht heeft dat verder gaat dan de Europese regels. Hier functioneert de AI Act als minimumharmonisatie.
2. Nationale veiligheid en defensie
Artikel 2(3) sluit AI-systemen die exclusief voor militaire of nationale veiligheidsdoeleinden worden gebruikt uit van de verordening.
Deze uitzondering is strikt. Veel systemen zijn “dual use” (zowel civiel als militair bruikbaar). Zodra een systeem ook voor civiele doeleinden wordt gebruikt, valt het onder de AI Act. Bovendien is de grens tussen wetshandhaving (politie = wél AI Act) en nationale veiligheid (inlichtingendiensten = geen AI Act) in de praktijk vaak vaag .
3. Biometrische identificatie
Het gebruik van biometrische identificatie op afstand in real time in openbare ruimte was een politiek strijdpunt. Artikel 5(1)h I Act staat dit onder strikte voorwaarden toe voor wetshandhaving. Echter, artikel 5(5) geeft lidstaten expliciet het recht om strengere regels te hanteren of dit gebruik volledig te verbieden. België behoudt hier dus zijn volledige soevereiniteit om deze technologie te verbieden.
Onderzoek en ontwikkeling
Er heerst vaak verwarring over de status van R&D. Een cruciale nuance zit in de ontwikkelingsfase. Hierbij moeten we een onderscheid maken tussen puur wetenschappelijk onderzoek en commerciële productontwikkeling (“gewone” R&D).
- Wetenschappelijk onderzoek: AI-systemen die specifiek zijn ontwikkeld en in gebruik gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enige doel, zijn volledig uitgezonderd van de AI Act (artikel 2(6)).
- Commerciële ontwikkeling (vóór marktintroductie): Ook voor bedrijven geldt een belangrijke “vrijhaven”. Zolang een AI-systeem zich in de fase van onderzoek, testen en ontwikkeling bevindt in een gecontroleerde testomgeving en nog niet op de markt is gebracht, zijn de verplichtingen van de AI Act niet van toepassing (artikel 2(8)).
Betekent dit dat België deze van de AI Act uitgesloten domeinen dan zelf mag invullen met regels? Nee. De Europese wetgever heeft in Overweging 1 van de AI Act expliciet aangegeven dat lidstaten de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen niet mogen beperken. Deze overweging sluit wetenschappelijk gebruik niet uit. Binnen haar exclusieve bevoegdheid heeft de Europese wetgever dan ook beslist dat elke vorm van ontwikkeling en elke vorm van wetenschappelijk gebruik vrij moet zijn van regels. Een Belgische wet die strikte voorwaarden zou opleggen aan het trainen of ontwikkelen van AI-systemen in Belgische labs of AI-systemen voor wetenschappelijk onderzoek, is niet toegestaan.
Strategische implicaties voor ondernemingen en overheden
De verschuiving van bevoegdheid heeft directe gevolgen voor uw compliance-strategie en risicobeheer.
- Rechtszekerheid voor bedrijven: Als u een AI-systeem op de markt brengt dat voldoet aan de Europese standaarden, kan een Belgische toezichthouder of lokale overheid in principe geen aanvullende technische eisen opleggen. Dit verlaagt de administratieve lasten voor bedrijven die over de grenzen heen opereren.
- Opletten bij indirecte doorwerking: De AI Act werkt door in sectoren waar België traditioneel bevoegd is, zoals onderwijs en justitie. Omdat de AI Act bepaalde toepassingen in het onderwijs (bv. AI voor het nakijken van examens) classificeert als hoog-risico en reguleert, worden deze toepassingen impliciet “geautoriseerd” door de EU. Een Vlaams decreet dat het gebruik van dergelijke AI in scholen totaal zou verbieden, botst mogelijk met de het EU voorrangsbeginsel.
- Beperkte handhaving: Hoewel juridisch gezien de bevoegdheid bij de EU ligt, is de verwachting dat de Europese Commissie in de beginfase terughoudend zal zijn met inbreukprocedures tegen lidstaten die toch eigen regels maken. Dit kan leiden tot een periode van rechtsonzekerheid waarbij nationale regels bestaan die eigenlijk onwettig zijn, totdat het Hof van Justitie ingrijpt.
Veelgestelde Vragen (FAQ)
Kan een Belgische gemeente het gebruik van bepaalde AI-camera’s verbieden?
In principe is de regulering van het op de markt brengen en het gebruik van AI-systemen geharmoniseerd op Europees niveau. Een lokaal verbod dat ingaat tegen de toelatingen uit de AI Act zou stand kunnen houden indien het specifiek gerechtvaardigd wordt vanuit openbare orde, maar een algemeen verbod op een technologie die de EU toestaat, is problematisch wegens het voorrangsbeginsel.
Mag een Belgische stad “slimme camera’s” verbieden als de AI Act ze toestaat?
Als de camera’s biometrische identificatie gebruiken, mag België (en dus ook lagere overheden via nationale wetgeving) strenger zijn en ze verbieden. Gaat het echter om andere AI-toepassingen (bijv. verkeersstroomanalyse) die de EU toestaat, dan kan een lokaal verbod op de technologie op zicht in strijd zijn met de AI Act. Een verbod gebaseerd op de AVG/GDPR (gegevensbescherming) blijft wel mogelijk.
Geldt de AI Act ook voor AI systemen die in België wordt ontwikkeld voor wetenschappelijk onderzoek?
Nee, de AI Act bevat specifieke uitzonderingen voor onderzoek en ontwikkeling. De verordening is niet van toepassing op AI-systemen die specifiek ontwikkeld en in gebruik genomen worden voor het enige doel van wetenschappelijk onderzoek. Hierdoor wil de EU innovatie binnen de Unie niet belemmeren.
Wat met AI systemen die geen hoog risico vormt? Mag België daar ethische regels voor maken?
Nee, in principe niet. Omdat de EU het volledige veld van “AI-systemen” heeft bezet maar ervoor koos om laag-risico systemen niet substantieel te reguleren, is er sprake van een bewuste deregulering. Nationale ethische regels zouden nieuwe barrières in de interne markt opwerpen, wat precies is wat de AI Act wil voorkomen.
Is de AI Act ook van toepassing op AI-modellen (zoals GPT-5) of enkel op systemen (zoals Chat GPT)?
De AI Act maakt een onderscheid. De meeste regels gelden voor systemen. Er is echter een specifiek regime voor “AI Modellen voor algemene doeleinden” (GPAI). Hoewel Overweging 1 van de AI Act enkel stelt dat lidstaten geen regels mogen maken voor “AI-systemen” (het principe dat EU-recht voorrang heeft), is het juridisch zeer waarschijnlijk dat dit verbod zich uitstrekt tot AI-modellen. De EU trekt de bevoegdheid naar zich toe om te voorkomen dat de interne markt versnipperd raakt door 27 verschillende nationale wetten voor AI-modellen.
Conclusie
De boodschap is helder: de EU AI Act is méér dan een lijst verplichtingen; het is een instrument dat de interne markt beschermt tegen versnippering. Voor bedrijven biedt dit rechtszekerheid: u hoeft in principe niet te vrezen voor 27 verschillende nationale AI-wetgevingen binnen de EU.
Echter, de grens tussen wat wel en niet nationaal geregeld mag worden, zal de komende jaren voor juridische strijd zorgen. Nationale politieke druk zal ongetwijfeld leiden tot pogingen om toch lokaal te reguleren.
Bron: Everest
» Bekijk alle artikels: Innovation & AI














