AI in de zorgsector:
hinderen de regels ons nog?
(gratis webinar)
Dr. Nele Somers en mr. Julie Petersen (Artes Advocaten)
Gratis webinar op dinsdag 10 maart 2026
Wenst u meerdere opleidingen
te volgen bij LegalLearning?
Overweeg dan zeker ons jaarabonnement
Krijg toegang tot +250 opleidingen
Live & on demand webinars
Met tussenkomst van de kmo-portefeuille
Mededingingsrecht:
recente ontwikkelingen
Mr. Melissa Van Schoorisse (Covington)
Webinar op vrijdag 27 maart 2026
Successieplanning anno 2026
Mr. Olivier De Keukelaere en mr. Rinse Elsermans (Cazimir)
Webinar op donderdag 26 maart 2026
Discriminatie op de werkvloer:
de laatste ontwikkelingen
Mr. Inger Verhelst (Claeys & Engels)
Webinar op donderdag 24 september 2026
Onderhoudsuitkeringen:
de impact van de ingrijpende fiscale wijzigingen
Mr. Steven Brouwers, advocaat-bemiddelaar
Webinar op vrijdag 3 juli 2026
Is het gebruik van AI door banken in de strijd tegen witwassen een zegen of een vloek voor de bankcliënt? (Everest)
Auteur: Joris Deene (Everest)
De strijd tegen witwassen en terrorismefinanciering is de laatste jaren in een stroomversnelling gekomen. Financiële instellingen, zoals banken, spelen hierin een cruciale rol als ‘poortwachters’ van ons financieel stelsel. Zij zijn wettelijk verplicht om transacties van hun cliënten te monitoren en ongebruikelijke verrichtingen te melden aan de Cel voor Financiële Informatieverwerking (CFI). Om de immense stroom aan transacties te kunnen analyseren, maken banken steeds vaker gebruik van geavanceerde technologie, met name artificiële intelligentie (AI). Maar wat betekent deze evolutie voor u als bankcliënt? En welke garanties zijn er dat deze slimme systemen uw rechten niet schenden?
De wettelijke meldplicht van banken
Banken zijn op grond van de antiwitwaswetgeving verplicht om een continu klantenonderzoek uit te voeren. Dit houdt in dat zij hun cliënten moeten identificeren en verifiëren, en een risicoprofiel moeten opstellen. Vervolgens moeten zij de verrichtingen van hun cliënten toetsen aan dit profiel. Wanneer een transactie niet strookt met het verwachte patroon of wanneer de bank op een andere manier vermoedt dat de geldmiddelen een illegale oorsprong hebben of verband houden met terrorisme, moet zij dit melden aan de CFI.
De kern van de zaak is de beoordeling of een transactie ‘verdacht’ is. De wetgever heeft deze beoordeling grotendeels overgelaten aan de subjectieve inschatting van de bank zelf. Het is de bank die moet bepalen of er “een vermoeden” is. Als dat vermoeden er is, is ze verplicht te melden; is het er niet, dan mag ze net niet melden.
Artificiële intelligentie als nieuwe speurhond
Om deze subjectieve beoordeling te ondersteunen en te automatiseren, wenden banken zich meer en meer tot AI. Er kunnen grosso modo twee soorten systemen worden onderscheiden:
- Regelgebaseerde systemen (Expert systemen): Deze systemen, die als een rudimentaire vorm van AI kunnen worden beschouwd, werken op basis van vooraf gedefinieerde regels en beslisbomen (‘als x, dan y’). Denk bijvoorbeeld aan een regel die een alarm genereert bij elke cashstorting boven een bepaald bedrag.
- Artificiële Neurale Netwerken (ANN’s): Dit is de meer geavanceerde vorm van AI, die de werking van het menselijk brein nabootst. Deze systemen, die ook aan de basis liggen van technologieën als ChatGPT, worden getraind met enorme hoeveelheden data over transacties. Door middel van ‘deep learning’ leren de algoritmes zelfstandig patronen te herkennen die kunnen wijzen op witwassen, zonder dat een programmeur elke regel hoeft in te geven. Het systeem kan zo de waarschijnlijkheid berekenen dat een transactie verdacht is en deze classificeren.
De belofte van AI is groot: een efficiëntere en effectievere detectie van verdachte transacties, wat de maatschappij als geheel ten goede komt. De systemen kunnen afwijkingen van normale patronen (anomalieën) detecteren die een menselijke analist misschien over het hoofd zou zien.
De juridische risico’s: “automation bias” en gebrek aan transparantie
De inzet van AI is echter niet zonder gevaren. Een van de grootste risico’s is het gebrek aan transparantie van ‘deep learning’ modellen. Doordat de algoritmes zelflerend zijn, wordt het extreem moeilijk, zo niet onmogelijk, om precies te achterhalen waarom het systeem een bepaalde transactie als verdacht heeft aangemerkt. We spreken hier van het ‘black box’-effect.
Dit roept fundamentele juridische vragen op. Een AI-systeem kan statistische verbanden leggen, maar het kan niet juridisch redeneren. Het kan niet de context van een transactie begrijpen of een afweging maken van wat in een concreet geval redelijk en billijk is.
Wanneer een bank blindelings vertrouwt op de output van een AI-systeem – een fenomeen dat bekend staat als ‘automation bias’ – kunnen de gevolgen voor de cliënt dramatisch zijn:
- Onterechte blokkering van rekeningen: Een ‘false positive’ (een transactie die door het AI-systeem onterecht als verdacht wordt bestempeld) kan leiden tot het bevriezen van uw rekeningen.
- Beëindiging van de bankrelatie: Banken kunnen beslissen om de relatie met een cliënt te beëindigen op basis van een ondoorzichtige AI-score.
- Schending van de privacy: Uw transactiegegevens worden geanalyseerd door complexe algoritmes, wat een aanzienlijke inbreuk op uw privacy en de bescherming van uw persoonsgegevens vormt.
- Discriminatie: Als de data waarmee het AI-model is getraind, bevooroordeeld is, kan het systeem bepaalde groepen mensen onterecht discrimineren.
De AI Act: een schild voor de burger?
De Europese Unie heeft in 2024 de AI Act aangenomen, een verordening die regels oplegt aan de ontwikkeling en het gebruik van artificiële intelligentie. De AI Act hanteert een risicogebaseerde aanpak. Systemen die een ‘hoog risico’ inhouden voor de grondrechten van burgers, worden aan strenge eisen onderworpen. Denk hierbij aan verplicht menselijk toezicht, hoge eisen aan datakwaliteit en transparantie.
Opmerkelijk genoeg lijken de AI-systemen die banken gebruiken voor witwasbestrijding, niet als ‘hoog risico’ te worden gekwalificeerd onder de huidige tekst van de AI Act. Dit is een zorgwekkende vaststelling, gezien de potentieel ernstige gevolgen voor cliënten bij een foute beslissing. Dit is een onjuiste inschatting van de wetgever.
Hoewel de AI Act een verbod instelt op systemen die het risico inschatten dat een persoon een strafbaar feit zal plegen op basis van profilering, wordt er een uitzondering gemaakt voor systemen die dienen “ter ondersteuning van de menselijke beoordeling”. De grens tussen een ondersteunend systeem en een systeem dat de facto de beslissing neemt, is echter flinterdun en niet duidelijk afgebakend in de wet.
Conclusie: AI als hulpmiddel, niet als rechter
Artificiële intelligentie kan ongetwijfeld een nuttig hulpmiddel zijn in de strijd tegen witwassen. Het mag echter nooit meer zijn dan dat. De finale beslissing om een transactie al dan niet als verdacht te melden en de eventuele gevolgen die hieraan gekoppeld worden, moet steeds door een mens genomen worden. Een menselijke analist moet de output van het systeem kritisch evalueren, bijkomend onderzoek voeren en de beslissing deugdelijk motiveren.
Banken die AI inzetten, doen er goed aan om de strenge vereisten van de AI Act voor hoog-risicosystemen vrijwillig toe te passen. Dit omvat het garanderen van robuust menselijk toezicht en het vermijden van blind vertrouwen in de technologie.
Bron: Everest
» Bekijk alle artikels: Innovation & AI, Successie & Vermogen

















