Wenst u meerdere opleidingen
te volgen bij LegalLearning?

Overweeg dan zeker ons jaarabonnement 

 

Krijg toegang tot +250 opleidingen

Live & on demand webinars

Met tussenkomst van de kmo-portefeuille


Discriminatie op de werkvloer:
de laatste ontwikkelingen

Mr. Inger Verhelst (Claeys & Engels)

Webinar op donderdag 24 september 2026


AI in de zorgsector:
hinderen de regels ons nog?
(gratis webinar)

Dr. Nele Somers en mr. Julie Petersen (Artes Advocaten)

Gratis webinar op dinsdag 10 maart 2026


Mededingingsrecht:
recente ontwikkelingen

Mr. Melissa Van Schoorisse (Covington)

Webinar op vrijdag 27 maart 2026


Boek 7 BW.
Een praktische checklist voor ondernemingen

Prof. dr. Thijs Tanghe en mr. Tijl Eggers (Eubelius)

Webinar op donderdag 2 juli 2026


Buitencontractuele aansprakelijkheidsregelingen:
een kritische benadering na de
invoering van Boek 6 BW

Prof. dr. Britt Weyts (UAntwerpen)

Webinar op vrijdag 5 juni 2026

Mag een rechter AI gebruiken voor uw vonnis en heeft u dan wel een eerlijk proces? (Everest)

Auteur: Joris Deene (Everest)

De opkomst van artificiële intelligentie (AI) zoals ChatGPT roept fundamentele vragen op binnen de rechtszaal. Hoewel AI de efficiëntie kan verhogen, vormt het ongereguleerde gebruik ervan door rechters een directe bedreiging voor uw recht op een eerlijk proces. De kern van het probleem is de ondoorzichtigheid van AI – de zogenaamde ‘black box’ – en het risico op een onmenselijke, oncontroleerbare rechtsgang.

De juridische context: De belofte van efficiëntie versus de realiteit van fundamentele rechten

De rechterlijke macht in heel Europa kampt met een hoge werkdruk en aanzienlijke gerechtelijke achterstanden, wat leidt tot onredelijk lange doorlooptijden voor rechtszaken. Deze vertragingen kunnen het recht op toegang tot de rechter, dat “praktisch en effectief” moet zijn, in gevaar brengen. In theorie kan generatieve AI (GenAI) hier een oplossing bieden door rechters te assisteren bij het samenvatten van dossiers, het opzoeken van rechtsleer of zelfs het opstellen van vonnisteksten. De verleiding om deze technologie in te zetten voor een snellere rechtsbedeling is dan ook groot.

Deze drang naar efficiëntie staat echter op gespannen voet met een van de meest fundamentele rechten in onze democratie: het recht op een eerlijk proces, verankerd in artikel 6 van het Europees Verdrag voor de Rechten van de Mens (EVRM). Recente voorbeelden tonen aan dat dit geen theoretische discussie meer is. Zo heeft een Nederlandse kantonrechter openlijk ChatGPT geraadpleegd om de technische levensduur van zonnepanelen te schatten in een vonnis. Hoewel de rechter benadrukte dat dit niet doorslaggevend was, roept een dergelijke praktijk ernstige vragen op over de betrouwbaarheid en controleerbaarheid van de rechtspleging. Dit creëert een spanningsveld dat de Europese wetgever ertoe heeft aangezet om in te grijpen.

De AI Act

De Europese Unie heeft de risico’s erkend en in 2024 de AI Act aangenomen. Deze wetgeving hanteert een risicogebaseerde aanpak. Belangrijk is de classificatie in artikel 6.2 en bijlage III (punt 8) waarin gesteld wordt dat “AI-systemen die bedoeld zijn om door of namens een gerechtelijke instantie te worden gebruikt om een gerechtelijke instantie te ondersteunen bij het onderzoeken en uitleggen van feiten of de wet en bij de toepassing van het recht op een concrete reeks feiten of om te worden gebruikt op soortgelijke wijze in het kader van alternatieve geschillenbeslechting” kwalificeren als hoog-risico systemen.

Deze classificatie is ingegeven door de “mogelijk aanzienlijke effecten op de democratie, de rechtsstaat, de individuele vrijheden en het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht”. Voor deze hoog-risico systemen gelden strenge verplichtingen, waaronder:

  • Transparantie (Art. 13 AI Act): De werking van het AI-systeem moet “voldoende transparant” zijn zodat een gebruiker (de rechter) de output correct kan interpreteren en gebruiken. De bijgeleverde gebruiksinstructies moeten “beknopte, volledige, juiste en duidelijke informatie” bevatten.
  • Menselijk toezicht (Art. 14 AI Act): Er moet altijd effectief menselijk toezicht zijn, gericht op het voorkomen van risico’s voor grondrechten. De toezichthouder moet zich bewust zijn van mogelijke “automatiseringsbias”. De AI Act stelt expliciet dat de finale beslissing een menselijke activiteit moet blijven en AI deze niet mag vervangen.
  • Fundamental Rights Impact Assessment – FRIA (Art. 27 AI Act): Publieke organen, zoals rechtbanken, die een hoog-risico AI-systeem in gebruik nemen, moeten vooraf een beoordeling uitvoeren van de impact van dat systeem op de fundamentele rechten. Deze beoordeling moet onder meer de processen en de maatregelen voor menselijk toezicht beschrijven en wordt gedeeld met de relevante markttoezichtautoriteit.
Juridische analyse en duiding: De ‘black box’ en de menselijke maat

Ondanks het kader van de AI Act blijven er fundamentele juridische knelpunten bestaan die de kern van het eerlijk proces raken.

Het ‘black box’ probleem en de pijlers van artikel 6 EVRM

Het grootste obstakel is het ‘black box’-karakter van veel AI-modellen. Het is vaak onmogelijk om precies te achterhalen hoe een AI tot een bepaalde conclusie komt. De interne logica is complex, zelflerend en wijkt af van de wijze van redeneren van rechters, die ook sociale waarden en intuïtie meewegen. Dit gebrek aan transparantie botst frontaal met de waarborgen van artikel 6 EVRM:

  • Onafhankelijkheid en onpartijdigheid: Een rechter die te sterk leunt op een ondoorzichtig AI-model, is niet langer volledig onafhankelijk. De beslissing wordt beïnvloed door een externe factor waarvan de data, algoritmes en ingebouwde vooroordelen onbekend zijn. Dit risico is groter bij extern ontwikkelde, commerciële AI-modellen, waarbij bedrijfsgeheimen volledige transparantie in de weg staan. Het beruchte COMPAS-algoritme in de VS, dat onterecht hogere risicoscores toekende aan zwarte verdachten, is hier een schrikbarend voorbeeld van.
  • Hoor en wederhoor: Dit beginsel garandeert dat partijen kunnen reageren op al het bewijsmateriaal dat in aanzienlijke mate als basis voor de beslissing dient. Als een rechter informatie van een AI gebruikt die niet wordt meegedeeld aan de partijen, of als partijen de betrouwbaarheid van die AI-gegenereerde informatie niet kunnen betwisten, wordt dit recht betekenisloos.
  • Het recht op een gemotiveerde beslissing: Een vonnis moet partijen tonen dat hun argumenten daadwerkelijk zijn “gehoord”. Het moet uitleggen waarom de rechter een bepaalde beslissing nam, zodat men kan beslissen over een eventueel beroep. Als de redenering van de AI deels onnavolgbaar is voor de rechter zelf, kan hij of zij ook geen sluitende motivering geven. Een mogelijke oplossing wordt gezocht in ‘Explainable AI’ (XAI), die processen tracht te vatten in voor mensen begrijpelijke verklaringen, maar ook dit is nog in volle ontwikkeling.

De dreiging van dehumanisering: Het impliciete recht op een menselijke rechter

Een eerlijk proces is meer dan een technisch correcte uitkomst; het is fundamenteel verankerd in menselijke waardigheid, wat de “essentie” van het EVRM vormt. Een procespartij heeft het recht om gehoord te worden door een mens, niet om gereduceerd te worden tot een set datapunten voor een algoritme (‘datafication’). Dit leidt tot de conclusie dat er een impliciet recht op een menselijke rechter bestaat, gebaseerd op elementen die AI niet kan repliceren:

  • ‘Voice’ (Gehoord worden): Het gevoel gehoord te worden is cruciaal voor de perceptie van een eerlijk proces. Een menselijke rechter kan luisteren, empathie tonen en context begrijpen. Een AI verwerkt data zonder echt begrip. Een AI kan de illusie van een dialoog creëren, wat het gevoel van onbegrip en dehumanisering zelfs kan versterken.
  • Neutraliteit en empathie: Hoewel AI geen persoonlijke gevoelens heeft, reproduceert en versterkt het de vooroordelen uit zijn gigantische trainingsdatasets. Echte neutraliteit vereist de capaciteit om de wereld vanuit andermans perspectief te zien. Het mist de emotionele autoriteit en het morele kompas van een menselijke rechter.
  • Respect en vertrouwen: Respect in de rechtszaal betekent de erkenning van de inherente waardigheid van elke persoon. Een AI kan dit niet oprecht tonen; het behandelt een persoon als een ‘zaak’. Vertrouwen wordt verder ondermijnd door het gebrek aan verantwoordelijkheid. Wie is aansprakelijk voor een foute beslissing van een AI? Deze diffusie van verantwoordelijkheid is een historisch ongekende loskoppeling van machtsuitoefening en individuele verantwoordelijkheid.
Wat dit concreet betekent
  • Voor de rechtzoekende: U heeft het recht op een transparant en menselijk proces. Een vonnis moet gebaseerd zijn op een voor u controleerbare redenering. Indien u vermoedt dat AI op een ondoorzichtige wijze de beslissing heeft beïnvloed, kan dit een grond zijn om de motivering en de eerlijkheid van het proces aan te vechten in hoger beroep.
  • Voor de rechter: De boodschap is duidelijk: wees uiterst voorzichtig. AI kan een nuttig hulpmiddel zijn voor ondersteunende taken (bv. transcriptie, anonimisering), maar mag nooit de menselijke oordeelsvorming vervangen. Transparantie is essentieel. Als AI wordt gebruikt, moet duidelijk zijn hoe en waarom, en de finale redenering en beslissing moeten altijd van de rechter zelf komen.
  • Voor de advocaat: Wees waakzaam. Het is uw taak om de rechten van uw cliënt te beschermen. Dit betekent kritisch kijken naar de bronnen en argumentatie in een vonnis en voorbereid zijn om het gebruik van oncontroleerbare technologische hulpmiddelen aan de kaak te stellen als deze het recht op een eerlijk proces schenden.
Veelgestelde vragen (FAQ)

Is het gebruik van AI door rechters in België al een feit?

Hoewel er nog geen wijdverspreide, openlijke toepassing is zoals in het buitenland, is het onvermijdelijk dat AI-tools ook in de Belgische magistratuur hun intrede doen, al is het maar voor voorbereidend werk. De wetgeving is anticiperend, maar de problematiek is reëel en actueel.

Wat is het grootste risico als een rechter ChatGPT gebruikt?

Er zijn twee fundamentele risico’s. Ten eerste, de oncontroleerbaarheid van de output (het ‘black box’-probleem). Omdat de redenering van de AI onnavolgbaar is, wordt het recht op een gemotiveerde beslissing en de mogelijkheid tot een effectief beroep uitgehold. Ten tweede, het risico op dehumanisering: uw zaak wordt behandeld als een datapuzzel in plaats van een menselijk geschil, wat de kern van rechtvaardigheid aantast.

Garandeert de AI Act een volledig eerlijk proces?

De AI Act is een cruciale stap door strenge regels op te leggen aan AI in de rechtspraak. Ze verplicht tot menselijk toezicht en transparantie. Echter, vage formuleringen zoals “voldoende transparant” laten ruimte voor interpretatie en de effectiviteit hangt af van de uitvoering en handhaving. Uiteindelijk blijven de fundamentele waarborgen van artikel 6 EVRM en het principe van menselijke waardigheid de belangrijkste bescherming.

Conclusie

Artificiële intelligentie kan de rechtspraak efficiënter maken, maar mag nooit de ziel ervan vervangen. Het recht op een eerlijk proces is onlosmakelijk verbonden met menselijke interactie, controleerbare redeneringen en de waarborg dat u wordt beoordeeld door een menselijke rechter die uw zaak écht hoort. De Europese AI Act biedt een kader, maar waakzaamheid door rechtzoekenden, advocaten en rechters zelf blijft cruciaal voor het behoud van een rechtvaardige en menselijke justitie.

Bron: Everest

» Bekijk alle artikels: Geschillen & Procedure, Innovation & AI

Boeken in de kijker: