De insolventie van een
onderneming-natuurlijke persoon

Mr. Jens Vrebos, mr. Astrid Lescouhier

en mr. Marthe Oosthuyse (Crivits legal)

Webinar op donderdag 13 februari 2025


Privacy, gegevensbescherming
& arbeidsrecht:
een actueel overzicht

Mr. Isabel Plets (Lydian)

Webinar op donderdag 8 mei 2025


Wenst u meerdere opleidingen
te volgen bij LegalLearning?

Overweeg dan zeker ons jaarabonnement 

 

Krijg toegang tot +150 opleidingen

Live & on demand webinars

Voor uzelf en/of uw medewerkers


Artificiële intelligentie in het HR-proces:
juridische aandachtspunten

Mr. Inger Verhelst en mr. Matthias Vandamme

(Claeys & Engels)

Webinar op vrijdag 7 februari 2025

ChatGPT en auteursrecht: er zijn nog veel vragen te beantwoorden (Timelex)

Auteurs: Bernd Fiten en Edwin Jacobs (Timelex)

Het Californische OpenAI lanceerde in november 2022 ChatGPT, een chatbot gebaseerd op kunstmatige intelligentie of artificial intelligence (AI) die een dialoog kan voeren met menselijke gebruikers. Het is een vorm van generatieve AI.

Hoe werkt het?

Generatieve AI werkt steeds volgens hetzelfde principe: AI-modellen analyseren een grote hoeveelheid aan gegevens die aan het model wordt gevoed (input of trainingsdata) en genereren op basis hiervan nieuwe gegevens (output of antwoorden). Gegevens kunnen bestaan uit tekst, beelden of zelfs geluiden. Gegevens kunnen ook allerlei vormen aannemen. Zo kan bijvoorbeeld tekst bestaan uit een artikel, een gedicht of zelfs programmacode.

Interactief Orakel van Delphi

ChatGPT is een toepassing van generatieve AI. In de voorbije maanden bleek dat ChatGPT indrukwekkende resultaten kan opleveren. Zo slaagde ChatGPT in het examen van een Amerikaanse rechtsfaculteit. ChatGPT haalde een C+. Dat is zeker niet uitmuntend, maar het is wel voldoende om te slagen. Ook leerlingen uit het middelbaar onderwijs vonden de Chatbot een handig hulpmiddel bij het maken van huiswerk.

Uniek aan ChatGPT is dat het gebruik maakt van Reinforcement Learning with Human Feedback (RLHF). Dat betekent dat het AI-model niet enkel leert van de gegevens waarmee het wordt gevoed, maar ook van mensen die een handje helpen om de kans op schadelijke output te verkleinen. AI-modellen die zonder menselijke tussenkomst zijn getraind, zijn immers afhankelijk van de gegevens waarmee ze worden gevoed. Dat kan leiden tot vooringenomenheid of schadelijke output. Dit is ook één van de kritieken op ChatGPT: door de filtering dreigt de chatbot soms te verzanden in nogal algemene output.

Maar dit is niet de enige kritiek op ChatGPT. Het is ook niet duidelijk hoe de chatbot tot de output komt en de output is soms ook gewoon feitelijk fout. Bijvoorbeeld, op de vraag: “Mag ik in België in de winter met zomerbanden rijden?”, antwoordt ChatGPT: “Nee, in België is het verboden om in de winter met zomerbanden te rijden.” Een eenvoudige zoekopdracht op Google levert links naar enkele betrouwbare bronnen op waaruit blijkt dat het helemaal niet verboden is om in België op zomerbanden te rijden tijdens de winter. Het is dus gevaarlijk om de output van ChatGPT zonder kritische reflectie zomaar voor juist aan te nemen.

ChatGPT is ook maar bijgewerkt tot 2021 (maar het is onduidelijk wanneer precies in 2021), wat betekent dat het AI-model voorlopig niet is gevoed met recentere gegevens. Het AI-model van ChatGPT staat blijkbaar los van het internet en kan dus enkel output generen op basis van gegevens waarmee het werd gevoed, die weliswaar van het internet afkomstig zijn.

Juridische bedenkingen

Los van deze inhoudelijke kritiek, zijn er ook verschillende juridische bedenkingen bij ChatGPT. Binnen het beperkte bestek van deze blog, stippen we hieronder alleen enkele juridische bedenkingen over het auteursrecht aan. We maken hiervoor een onderscheid tussen de input en output. Wat betreft de input onderscheiden we twee soorten: ontwikkelaarsinput en gebruikersinput (soms ook prompts genoemd). De ontwikkelaarsinput bestaat uit alle gegevens die de ontwikkelaar gebruikt om het AI-model te trainen (het is een trainingsdataset). De gebruikersinput daarentegen bestaat uit alle gegevens die de gebruiker zelf ingeeft om gebruik te maken van het AI-model. De output zijn de antwoorden die ChatGPT verschaft.

Ontwikkelaarsinput of trainingsdata

Toegepast op ChatGPT betekent dit dat de ontwikkelaarsinput bestaat uit allerhande gegevens om het AI-model te trainen, maar OpenAI is niet helemaal transparant over welk bronnenmateriaal het precies gaat. Volgens de OpenAI FAQ gaat het om “vast amounts of data from the internet written by humans.”. De ontwikkelaars van GPT-3, de voorganger van ChatGPT, stellen dat allerhande gegevens van het internet wordt geschraapt (via een crawler), waaronder Wikipedia, maar ook informatie uit boeken werd benut. ChatGPT kopieert die bronnen niet letterlijk of in substantiële mate in zijn antwoorden, maar leert zo wel hoe antwoorden eruit horen te zien, zodat het lijkt alsof de antwoorden door een mens geschreven zijn. Naar eigen zeggen maakt OpenAI rechtmatig gebruik van auteursrechtelijk beschermd materiaal.

Maakt ChatGPT een inbreuk op het auteursrecht van de auteur van een boek dat als bron werd gebruikt? Wanneer de tekst uit het boek niet wordt gekopieerd in het antwoord is er geen inbreuk. Het is wel mogelijk dat de toestemming van de auteur nodig is wanneer stukken tekst uit het boek worden gekopieerd. Het zal per geval moeten worden beoordeeld. Bij generatieve AI heeft de gebruiker geen invloed op deze ontwikkelaarsinput (enkel de ontwikkelaar OpenAI heeft dat), maar de gebruiker heeft wel invloed op de gebruikersinput. In het geval van ChatGPT betekent dit dat de gebruiker bijvoorbeeld bepaalt welke vraag hij aan de chatrobot stelt.

Gebruikersinput

Bij het leveren van gebruikersinput, moet de gebruiker onder meer rekening houden met de ChatGPT gebruiksvoorwaarden. Die stellen bijvoorbeeld dat de gebruiker de dienst niet mag gebruiken op een manier die de rechten van derden zou schaden. Dat betekent dat de gebruikersinput geen auteursrechtelijk beschermde gegevens mag bevatten zonder de toestemming van de auteur of rechthebbende, of dat de gebruiker niet zomaar vertrouwelijk gegevens mag gebruiken.

De gebruiksvoorwaarden stellen ook dat als je persoonsgegevens verwerkt bij het gebruiken van de dienst, dat je de nodige kennisgevingen moet hebben gedaan en de nodige toestemming hebben bekomen en dat je verklaart dat de verwerking in overeenstemming met de toepasselijke wetten is. De gebruiksvoorwaarden bepalen ook dat de gebruiker contact moet opnemen met OpenAI om een verwerkingsovereenkomst af te sluiten als de verwerking onderworpen is aan de AVG of de California Consumer Privacy Act (CCPA). Voor beroepsgroepen die gehouden zijn tot het beroepsgeheim, zoals advocaten, spreekt het voor zich dat zij geen informatie die onder het beroepsgeheim valt mogen gebruiken als input. De reden voor al deze beperkingen aan de gebruikersinput is evident.

De gebruikersinput wordt immers niet enkel gebruikt om output te genereren, maar wordt ook opnieuw gebruikt om de dienst te verbeteren, en dus het AI-model te verfijnen. De gebruikersinput belandt op een grote berg gegevens en de gebruiker verliest dan in principe de controle over die gegevens. OpenAI zou werken aan een professionele betalende versie van ChatGPT, maar het is nog onduidelijk of ook de professionele gebruikersinput, die misschien ook vertrouwelijke professionele gegevens bevat, ook zal worden gebruikt om de dienst te verbeteren. Organisaties die gebruik maken van de ChatGPT API, kunnen wel verzoeken aan OpenAI om hun inputgegevens niet te gebruiken voor het verbeteren van de diensten. Maar voor gewone gebruikers lijkt zo’n opt-out momenteel niet mogelijk.

Auteursrecht

Hoewel de gebruikersinput dus aan bepaalde regels moet voldoen en geen rechten van derden mag schenden, is het voor een auteur of rechthebbende bijzonder moeilijk, of bijna onmogelijk, om op te treden tegen een auteursrechteninbreuk via ChatGPT. Een bepaalde output, die gegenereerd is op basis van inbreukmakende gebruikersinput, kan immers ook op basis van niet-inbreukmakende gebruikersinput gegenereerd zijn.

Het is immers niet zo dat dezelfde output steeds het resultaat is van dezelfde gebruikersinput. Met andere woorden, dezelfde vraag kan steeds een verschillende antwoord genereren. En omgekeerd kan hetzelfde antwoord het resultaat zijn van verschillende vragen. De ChatGPT gebruiksvoorwaarden vermelden wel het indienen van een DMCA notice, namelijk een kennisgeving onder Amerikaans recht dat bepaalde inhoud inbreuk maakt op het auteursrecht van de verzoeker, maar een dergelijk verzoek lijkt eerder te slaan op de website van OpenAI dan op de gebruikersinput. Zonder de (vrijwillige of gedwongen) medewerking van OpenAI, kan een auteur of rechthebbende immers niet weten welke (potentieel) inbreukmakende gebruikersinput zich in de chatrobot bevindt, want de gebruikersinput is enkel zichtbaar voor de gebruiker die die input heeft geleverd en niet voor andere gebruikers.

De antwoorden van ChatGPT

Generatieve AI genereert op basis van de ontwikkelaarsinput en de gebruikersinput een bepaalde output. Maar wie kan er rechten doen gelden op deze door AI gegenereerde resultaten? De ChatGPT gebruiksvoorwaarden bepalen dat de gebruiker eigenaar wordt van alle rechten die gelden op de output: “[…] OpenAI hereby assigns to you all its right, title and interest in and to Output.” Dit betekent dus ook dat de gebruiker de output voor commerciële doeleinden mag gebruiken. Maar dit kan tot bijzondere of vreemde situaties leiden in de praktijk. Het is immers mogelijk dat twee gebruikers, onafhankelijk van elkaar, dezelfde output genereren.

In de veronderstelling dat het om een auteursrechtelijk beschermbare output zou gaan, wie van de twee gebruikers heeft dan het auteursrecht op die output? Misschien moet worden geconcludeerd dat beide auteurs een eigen recht hebben op weliswaar dezelfde output, op voorwaarde dat zij onafhankelijk van elkaar tot die output gekomen zijn.

Maar wat als de gegenereerd output overeenstemt met het werk van een auteur die geen gebruik heeft gemaakt van ChatGPT? Maakt dit een verschil? Stel dat ChatGPT tot exact dezelfde tekst komt als een reeds bestaande maar niet door middel van ChatGPT gegeneerde tekst (en dit los van het feit of dit het gevolg is van een fout in het AI-model, dan wel puur toeval)? Het enige verschil tussen beide auteurs is dat de ene auteur gebruik heeft gemaakt van een technisch hulpmiddel, namelijk een AI-model, en tot die output is gekomen door een bepaalde gebruikersinput, terwijl de andere auteur het werk zelf heeft geschreven op basis van zijn creatieve geest. Heeft de ene auteur dan meer recht op die output dan de andere? En speelt het een rol op welke manier ze tot die output zijn gekomen, namelijk via een onvoorspelbaar AI-model, dan wel de creatieve eigen geest? Of moet de gebruikersinput van de ChatGPT-gebruiker voldoen aan de vereisten van het auteursrecht opdat hij vervolgens ook auteursrechtelijke bescherming van de output kan claimen aangezien de output het gevolg is van de input? Of volstaat het dat de output op zich auteursrechtelijk beschermd is, los van de input? Of maakt de ChatGPT-gebruiker een inbreuk op het auteursrecht van de niet-gebruiker auteur als zijn input niet auteursrechtelijk beschermd was?

Eén van de voorwaarden voor auteursrechtelijke bescherming is immers dat het werk het resultaat moet zijn van een creatieve activiteit. Typische zaken die niet door het auteursrecht zijn beschermd zijn werken die uitsluitend door een machine worden voortgebracht (bv. satellietbeelden) of werken die niet door een mens zijn gecreëerd (bv. een selfie gemaakt door een aap).

Beide gevallen zijn hier niet van toepassing, want de output wordt niet zonder menselijk input gegenereerd. En wat is dan het verschil met twee fotografen die beide onafhankelijk van elkaar exact dezelfde foto nemen met behulp van een technisch hulpmiddel, namelijk een fototoestel in dit geval? Moeten we dit als een apart geval benaderen omdat de output bij een fototoestel perfect te voorspellen is, terwijl de output bij ChatGPT onvoorspelbaar is? En heeft die onvoorspelbaarheid een gevolg voor de auteursrechtelijke bescherming? Veel van deze vragen zijn niet zwart-wit te beantwoorden en de concrete feiten en bewijs zullen de doorslag geven.

ChatGPT is geen auteur

De gebruiker krijgt weliswaar de rechten op de output, maar hij mag niet de indruk wekken dat hij de output zelf heeft gegenereerd als dat niet zo is. De ChatGPT voorwaarden stellen: “You may not […] represent that output from the Services was human-generated when it is not”. De OpenAI Content Policy gaat hierin nog verder door de gebruiker aan te moedigen om proactief het gebruik van AI te vermelden.

Betekent dit dat je ChatGPT ook als auteur moet vermelden? Het antwoord op die vraag is negatief, want ChatGPT is immers geen natuurlijke persoon en kan dus geen auteur zijn. OpenAI of ChatGPT moeten dus niet als auteur of co-auteur worden vermeld (maar het wordt wel aangemoedigd door OpenAI). Maar wat als een ChatGPT-gebruiker enkel zijn naam vermeldt (als auteur) bij een tekst die volledig is gegenereerd door ChatGPT zonder dat hij een wijziging heeft aangebracht aan de output? Begaat die gebruiker dan een inbreuk op de ChatGPT gebruiksvoorwaarden? Moet dit worden beschouwd als het wekken van de indruk dat de tekst “human-generated” is, terwijl de tekst volledig door AI gegenereerd is? De ChatGPT gebruiker is evenmin auteur als hij geen eigen creatieve stempel gaf aan de tekst. Als de gebruiker het antwoord van ChatGPT nog aanpast, eigen creatieve keuzes maakt en zo een origineel werk creëert dat zijn persoonlijke stempel draagt, dan is de gebruiker alsnog de auteur van het werk. Alweer een feitenkwestie dus.

Ook voordat er sprake was van ChatGPT bestond deze vraag al. Zo bestaan er bijvoorbeeld verschillende hulpmiddelen om softwarecode te ontwikkelen. Er zijn gespecialiseerde websites die scripts of antwoorden bevatten voor programmeurs en zelfs AI-gebaseerde hulpmiddelen die tijdens het schrijven van code automatisch suggesties doen om de code aan te vullen.

Aansprakelijkheid

Wat als bepaalde output tot schade zou leiden, bijvoorbeeld omdat de output feitelijk onjuist is? OpenAI stelt de gebruiker volledig aansprakelijk voor het gebruik dat hij van de output maakt: “You are responsible for Content, including for ensuring that it does not violate any applicable law or these Terms.” De ChatGPT gebruiksvoorwaarden beperken ook de aansprakelijkheid van OpenAI tot maximaal 100 USD of tot het bedrag betaald in de afgelopen twaalf maanden indien dat bedrag lager zou zijn. OpenAI voorziet geen vrijwaring voor claims van derden tegen de gebruiker. Het is momenteel ook onduidelijk of de professionele betalende versie van ChatGPT in een dergelijke vrijwaring zal voorzien, hoewel toekomstige grote professionele gebruikers misschien wel zo’n vrijwaring zullen wensen.

Conclusie

De auteursrechtelijke implicaties zijn nog niet volledig duidelijk. We hebben ChatGPT uiteraard de vraag gesteld maar we kregen – u raadt het al – verschillende antwoorden op eenzelfde vraag. Misschien zit er achter ChatGPT wel een AI jurist achter de schermen die antwoordt: “Het hangt er van af!”

Update: inmiddels heeft ChatGPT wel een betaalde Plus-versie gelanceerd, maar daar lijken geen andere voorwaarden aan verbonden te zijn, bijvoorbeeld op het gebied van aansprakelijkheid.

Bron: Timelex

» Bekijk alle artikels: IT & IP, Innovation & AI

Boeken in de kijker: