De nieuwe wet op de private opsporing

Dhr. Bart De Bie (i-Force) en mr. Stijn De Meulenaer (Everest)

Webinar op donderdag 17 oktober 2024

Gebruik je AI zoals chatGPT op je werk? Dit zijn aandachtspunten om dit veilig te doen (Mr. Franklin)

Auteur: Olivier Sustronck (Mr. Franklin)

AI-tools zoals ChatGPT veranderen hoe bedrijven werken. Maar het gebruik ervan roept vragen op over veiligheid, privacy en wetgeving. Deze krachtige technologie biedt kansen én uitdagingen. Generatieve AI-tools kunnen zeker nuttig zijn en tijd besparen (als het antwoord juist is tenminste) maar je moet ook rekening houden met de juridische en technische risico’s zoals GDPR, auteursrechten en beveiliging. Door hier goed mee om te gaan, bescherm je je bedrijf én kun je innoveren.

Juridische risico’s van AI

Schenden van intellectueel eigendom

Schenden van intellectueel eigendom is een belangrijk aspect om rekening mee te houden bij het gebruik van AI-tools zoals ChatGPT. Deze tools hebben de mogelijkheid om teksten, beelden of code te genereren die gebaseerd wordt op de data waarop de toepassing getraind is. In die trainingsdata kunnen auteursrechtelijk beschermde werken zijn opgenomen. Indien de gegenereerde tekst hier niet ver genoeg van afwijkt loop je het risico om auteursrechten te schenden van de auteur van deze teksten.

Lekken van bedrijfsgeheimen

Een ander potentieel risico van het gebruik van AI is het lekken van bedrijfsgeheimen. AI-systemen leren van de grote hoeveelheden data en gebruiken hiervoor veelal (zeker bij gratis toepassingen) ook de data die ingegeven wordt door de gebruikers zelf. Zo is het mogelijk dat de inhoud van je vraag of een opgeladen document gebruikt wordt om antwoorden te genereren voor andere gebruikers. Dit kan ernstige gevolgen hebben, vooral als het gaat om vertrouwelijke informatie of persoonsgegevens. Het is daarom van cruciaal belang om geen gevoelige informatie in te geven, vragen te anonimiseren, de voorwaarden goed nalezen en eventueel een veiligere betalende account te nemen waarbij de ingegeven gegevens niet gebruikt worden om het AI-model te trainen.

Beschermen van persoonsgegevens

Daarnaast is het beschermen van persoonsgegevens een belangrijk aandachtspunt bij het gebruik van AI. Aangezien AI-systemen enorme hoeveelheden persoonlijke gegevens verwerken en hiervan leren, rijzen er vragen over privacy en de naleving van de Algemene Verordening Gegevensbescherming (GDPR). Het is van groot belang om een duidelijk beleid te implementeren omtrent welke gegevens kunnen gebruikt worden binnen de AI-toepassingen. Ook moet er aandacht voor zijn dat er steeds een verwerkingsgrond is om deze gegevens te gebruiken. Zo zal veelal uitdrukkelijke toestemming nodig zijn om persoonsgegevens te gebruiken voor AI-toepassingen.

Ook voor het gebruik van generatieve AI die foto’s, video’s en geluidsopnames genereert op basis van input van ‘echte’ mensen moet hier bijkomend aandacht voor zijn om deze personen voldoende te informeren en uitdrukkelijk om toestemming te vragen.

Onverstandig gebruik van AI

Heb er aandacht voor om de inhoud van de berichten goed na te lezen en te controleren op correctheid alvorens te gebruiken. Generatieve AI zoals ChatGPT is altijd erg overtuigend in haar antwoorden maar soms slaat zij de bal inhoudelijk ook helemaal mis. Zo zijn er reeds meerdere gevallen gekend van advocaten die ChatGPT gebruikten om conclusies te schrijven maar was de rechtspraak waarnaar verwezen werd volledig verzonnen door de AI.

Hoe bescherm je je bedrijf?
Maak een AI-beleid

Om de risico’s van AI-gebruik in je bedrijf te beheersen, is een duidelijk AI-beleid nodig. Hierin staat duidelijk opgenomen op welke manier AI-tools kunnen ingezet worden binnen de onderneming, welke inhoud er ingegeven van worden en op welke manier de antwoorden moeten gecontroleerd worden alvorens te publiceren. Ook kan er een manier opgenomen worden om AI-tools goed te keuren binnen een onderneming. Het is namelijk niet de bedoeling dat iedere werknemer zomaar accounts gaat aanmaken op tools zonder dat deze gecontroleerd worden op kwaliteit, conformiteit met de GDPR en veiligheid.

Train je medewerkers

Zorg dat je team weet wat de risico’s zijn van generatieve AI en hoe ze veilig met AI moeten omgaan. Geef trainingen over de mogelijkheden én risico’s van AI-tools. Informeer hen over hoe ze moeten omgaan met persoonsgegevens in deze tools, hoe ze gevoelige informatie beschermen en auteursrechten respecteren. Maak duidelijk welke tools kunnen gebruikt worden en op welke manier een tool intern goedgekeurd kan worden.

Kies de juiste AI-tools

Niet alle AI-tools zijn even veilig, GDPR-proof of geschikt voor bedrijven. Onderzoek goed welke tools passen bij jouw behoeften en veiligheidseisen. Kijk naar zaken als databeveiliging, privacy-instellingen en mogelijkheden om de output te controleren. Veelal zijn de betalende tools veiliger en is de kans groter dat de data die ingegeven wordt niet gebruikt zal worden om het model te trainen. Implementeer een goedkeuringsproces voor AI-tools binnen de onderneming en communiceer op een duidelijke manier welke tools goedgekeurd zijn en onder welke voorwaarden deze kunnen gebruikt worden.

Houd AI in de gaten

Blijf AI-gebruik in je bedrijf monitoren. Controleer regelmatig of medewerkers zich aan de regels houden. Pas het beleid aan als dat nodig is. Zo blijf je flexibel en veilig werken met AI.

Conclusie

AI biedt geweldige kansen voor bedrijven, maar brengt ook risico’s met zich mee. Door bewust en verantwoord met AI om te gaan, kun je de voordelen benutten en de nadelen beperken. Maak een duidelijk AI-beleid, train je team en kies de juiste tools. Zo zet je AI veilig en effectief in voor jouw bedrijf.

Bron: Mr. Franklin

» Bekijk alle artikels: IT & IP, Privacy & Gegevensbescherming