AI in de zorgsector:
hinderen de regels ons nog?
(gratis webinar)
Dr. Nele Somers en mr. Julie Petersen (Artes Advocaten)
Gratis webinar op dinsdag 10 maart 2026
Mededingingsrecht:
recente ontwikkelingen
Mr. Melissa Van Schoorisse (Covington)
Webinar op vrijdag 27 maart 2026
Discriminatie op de werkvloer:
de laatste ontwikkelingen
Mr. Inger Verhelst (Claeys & Engels)
Webinar op donderdag 24 september 2026
Wenst u meerdere opleidingen
te volgen bij LegalLearning?
Overweeg dan zeker ons jaarabonnement
Krijg toegang tot +250 opleidingen
Live & on demand webinars
Met tussenkomst van de kmo-portefeuille
Is een AI-model zelf een illegale kopie? Duitse en Britse rechters lijnrecht tegenover elkaar (Everest)
Auteur: Joris Deene (Everest)
De opkomst van generatieve AI, zoals ChatGPT, heeft een juridisch mijnenveld gecreëerd. Deze modellen worden getraind op gigantische datasets, inclusief miljarden teksten en beelden die auteursrechtelijk beschermd zijn. De centrale vraag waar juristen wereldwijd mee worstelen, is: mag dit zomaar?
Een uitspraak van het Landgericht München op 11 november 2025 in de zaak GEMA v. OpenAI zorgt voor een schokgolf. De rechtbank stelde dat OpenAI inbreuk maakt op het auteursrecht en, cruciaal, dat het AI-model zelf als een illegale reproductie wordt beschouwd. Deze uitspraak staat echter in schril contrast met de recente visie van het Britse High Court in de zaak Getty Images v. Stability AI.
De feiten en de juridische context
De Duitse collectieve beheersorganisatie GEMA (de tegenhanger van de SABAM in België), stelde vast dat de chatbot van OpenAI songteksten van negen bekende Duitse liedjes (waaronder “Atemlos durch die Nacht” van Helene Fischer) nagenoeg letterlijk kon reproduceren. Dit gebeurde na het ingeven van zeer eenvoudige prompts, zoals “Wat is de tekst van [liedtitel]?” .
GEMA daagde OpenAI voor de rechter wegens een dubbele inbreuk op het auteursrecht:
- Een inbreuk op het reproductierecht door de teksten op te slaan in het taalmodel zelf.
- Een inbreuk op het recht op publieke mededeling (en opnieuw het reproductierecht) door de teksten (of delen daarvan) weer te geven aan de gebruiker (de output) .
OpenAI verdedigde zich met het argument dat een AI-model geen teksten opslaat zoals een harde schijf dat doet. Het model zou enkel statistische patronen en relaties tussen woorden ‘leren’. Bovendien, zo stelde OpenAI, valt het trainingsproces hoe dan ook onder de uitzondering voor Text and Data Mining (TDM), die analyse van grote hoeveelheden data toestaat.
De beslissing van de rechtbank
De rechtbank van München ging grotendeels mee met de argumenten van GEMA en veroordeelde OpenAI. De redenering van de rechtbank is technisch gedetailleerd en juridisch van groot belang voor de hele Europese Unie.
Het AI-model als inbreukmakende reproductie
De rechtbank veegde het technische verweer van OpenAI van tafel. Het oordeelde dat het AI-model zelf een reproductie (een ‘kopie’) van de songteksten vormt in de zin van artikel 2 van de Europese Infosoc-richtlijn en omgezet in § 16 van de Duitse auteurswet (in Belgïe is dit in artikel XI.165 §1 Wetboek van Economisch Recht (WER).
De Duitse rechters stelden dat het fenomeen ‘memorisatie’ (het ‘onthouden’ van trainingsdata door het model) bewijst dat de werken “reproduceerbaar aanwezig” zijn in het model. Dat de data technisch is opgesplitst in complexe parameters of vectoren, is irrelevant. Wat telt, is dat het werk “indirect waarneembaar” kan worden gemaakt met behulp van technische middelen (in dit geval de chatbot-interface). Het model is dus een vorm van “lichamelijke vastlegging” van het werk.
De output als publieke mededeling
De rechtbank stelde ook vast dat de output van de chatbot een inbreuk vormt op het recht op publieke mededeling (of ‘beschikbaarstelling). De gebruikers van ChatGPT vormen een “nieuw publiek”, dat op een nieuwe manier toegang krijgt tot de werken. OpenAI is hier bovendien direct en als eerste voor aansprakelijk. De rechtbank wees de verantwoordelijkheid niet toe aan de gebruiker die de prompt ingaf, gezien de centrale en sturende rol van OpenAI in het hele proces.
Juridische analyse en duiding
Een controversiële beslissing: de focus op ‘memorisatie’
De Duitse rechtbank hanteert een functionele benadering: als het resultaat (het kunnen reproduceren van een werk) hetzelfde is als bij traditionele opslag, moet het juridisch ook als opslag (en dus reproductie) worden behandeld. Deze visie staat haaks op andere recente rechtspraak.
De kern van de Duitse redenering rust op ‘memorisatie’. De vraag is of dit geen fundamenteel verkeerd uitgangspunt is aangezien ‘memorisatie’ technisch gezien een ‘bug’ of een ongewenst bijeffect is, ook wel bekend als ‘overfitting’. Dit gebeurt wanneer een model te vaak op dezelfde data is getraind, waardoor het de data niet ‘leert’ maar ‘uit het hoofd leert’.
Het is juridisch veel relevanter om te kijken naar de initiële trainingsfase: de handeling waarbij de beschermde werken (bv. songteksten of foto’s) worden gekopieerd om het model te ‘voeden’. Dát is de primaire reproductiehandeling die juridisch getoetst moet worden, nog los van de vraag of het model het werk later perfect kan namaken.
De Duitse uitspraak staat in schril contrast met de recente beslissing van het Britse High Court in de zaak Getty Images v. Stability AI. In die zaak, die draaide om het trainen van een AI-beeldgenerator op miljarden foto’s, oordeelde de rechter expliciet dat het AI-model (Stable Diffusion) “geen kopieën” van Getty’s werken bevatte en “geen auteursrechtelijk beschermd materiaal opslaat”.
De Britse rechtbank volgt een veel technischere redenering die meer overtuigd. Een AI-model is volgens de Britse rechter geen ‘opslagmedium’ in auteursrechtelijke zin. Het slaat geen data, werken of pixels op. Het slaat uitsluitend complexe wiskundige relaties tussen datapunten (tokens of pixels) op in zijn parameters.
Volgens deze visie is de redenering van de Duitse rechtbank – dat de mogelijkheid om een werk te reconstrueren volstaat om het model als ‘reproductie’ te bestempelen – juridisch moeilijk houdbaar.
Het juridische landschap in Europa is op dit punt dus diep verdeeld. Terwijl de Duitse rechter de functionaliteit (het kunnen reproduceren) centraal stelt, kijkt de Britse rechter veel strikter naar de architectuur (wat is het model echt?).
De TDM-uitzondering: geen vrijgeleide voor memorisatie
OpenAI beriep zich op de uitzondering voor Text and Data Mining, verankerd in artikel 4 van de DSM-richtlijn en in Duitsland in § 44b UrhG (In België is dit art. XI.190, 20° WER). Deze uitzondering laat reproducties toe ten behoeve van geautomatiseerde analyse, op voorwaarde dat de rechtenhouder zich niet heeft verzet (een ‘opt-out’).
De rechtbank in München erkende dat AI-training in principe onder de TDM-uitzondering kan vallen. De rechters volgden echter een gesplitste redenering:
- Fase 1 (De Analyse): Het trainen van het model, waarbij data wordt geanalyseerd om patronen en informatie te extraheren. De tijdelijke kopieën die hiervoor nodig zijn, vallen potentieel onder de TDM-uitzondering.
- Fase 2 (Het Model): Het resultaat van de training. Als het model de werken niet alleen analyseert, maar ze permanent opslaat (memorisatie) om ze later te kunnen reproduceren, is dit een nieuwe reproductie.
De rechtbank oordeelde dat deze tweede fase – de permanente, reproduceerbare opslag in het model – niet wordt gedekt door de TDM-uitzondering. De uitzondering laat kopieën toe “voor het doel van TDM” (d.w.z. analyse). Een blijvende opslag dient echter niet langer het doel van analyse, maar het doel van outputgeneratie. Dit schaadt de normale exploitatie van het werk en valt buiten de uitzondering.
De rechtbank concludeerde scherp: als het naar de huidige stand van de techniek onmogelijk is om memorisatie te voorkomen, dan is het trainen van een model met beschermde data niet gedekt door de TDM-uitzondering.
Wat dit concreet betekent
Dit Duitse vonnis, hoewel vatbaar voor beroep, heeft belangrijke gevolgen voor de AI-industrie in heel Europa.
- Voor AI-ontwikkelaars: Dit is een juridisch mijnenveld. De Duitse uitspraak legt een zware last op ontwikkelaars. Ze kunnen zich in de EU niet langer comfortabel verschuilen achter de TDM-uitzondering als hun model in staat is om beschermde werken te “memoriseren” en te reproduceren. Ze zullen ofwel hun modellen technisch moeten aanpassen om memorisatie te voorkomen, ofwel proactief licenties moeten afsluiten met rechtenhouders. De Britse uitspraak biedt hen daarentegen veel meer ademruimte door te stellen dat het model zelf geen kopie is. Deze rechtsonzekerheid is problematisch voor innovatie.
- Voor auteurs en uitgevers: De GEMA-uitspraak versterkt hun onderhandelingspositie aanzienlijk. Ze kunnen nu met een rechterlijke uitspraak in de hand licentievergoedingen eisen voor het gebruik van hun portfolio’s in AI-modellen die deze kunnen reproduceren. De Britse uitspraak tempert deze verwachtingen.
- Voor Belgische ondernemingen: Hoewel dit een Duits vonnis is, interpreteert het Europese richtlijnen (Infosoc en DSM) die ook in België zijn omgezet in het WER. Het is onduidelijk welke lijn de Belgische hoven en rechtbanken zullen volgen. Zullen zij de functionele (Duitse) of de technische (Britse) benadering kiezen? Bedrijven die generatieve AI-tools inzetten of ontwikkelen, moeten zich zeer bewust zijn van het risico dat deze modellen inbreukmakend materiaal kunnen bevatten en genereren.
Veelgestelde vragen (FAQ)
Valt de training van een AI-model niet onder de TDM-uitzondering?
De rechtbank in München oordeelde dat de TDM-uitzondering (Art. XI.190, 20° WER) wel de analyse van data dekt, maar niet het permanent opslaan (memoriseren) van de werken in het model zelf, met het doel deze later te kunnen reproduceren .
Is een AI-model zelf nu een ‘kopie’ volgens de rechtbank?
Hierover bestaat verdeeldheid in Europa. De Duitse rechter oordeelde van wel. De rechtbank stelde dat het model, waarin de songteksten “reproduceerbaar aanwezig” zijn, een “lichamelijke vastlegging” en dus een reproductie (kopie) vormt in de zin van het auteursrecht (art. XI.165 §1 WER). Het feit dat technische hulpmiddelen (zoals de chatbot-interface) nodig zijn om het werk waarneembaar te maken, verandert daar niets aan. Het Britse High Court oordeelde echter van niet: een AI-model slaat geen werken op, maar enkel wiskundige relaties, en is dus geen kopie.
Wie is er aansprakelijk voor de inbreuk: de gebruiker of OpenAI?
De Duitse rechtbank acht OpenAI direct aansprakelijk, zowel voor de reproductie in het model als voor de reproductie en publieke mededeling in de output. Gezien de centrale en sturende rol van OpenAI in het hele proces en het feit dat eenvoudige prompts volstonden, kan de verantwoordelijkheid niet op de gebruiker worden afgeschoven.
Conclusie
Het vonnis van de rechtbank in München is een keerpunt, maar het is niet het einde van de discussie. Het legt een fundamentele breuklijn in de Europese rechtspraak bloot. De vraag of een AI-model een ‘opslagmedium’ is of een ‘wiskundig instrument’ is de kern van het debat. Het is wachten op verdere uitspraken, en mogelijk een verduidelijking van het Europees Hof van Justitie, om deze fundamentele tegenstelling te beslechten.
Bron: Everest
» Bekijk alle artikels: Innovation & AI, IT & IP














