Mogen medewerkers chatbots zoals ChatGPT en Copilot gebruiken op het werk of niet? De Autoriteit Persoonsgegevens adviseert bedrijven en organisaties om hierover afspraken te maken.
Medewerkers gebruiken op hun werk al chatbots zoals ChatGPT en Copilot. Dat blijkt uit onderzoek van Salesforce onder duizend Nederlanders. Van de respondenten zegt 43 procent AI op het werk zonder toestemming te gebruiken. “Dat is een enorm hoog percentage, maar het laat ook zien hoe graag mensen het zichzelf makkelijk willen maken met behulp van AI,” zegt Reinier van Leuken, senior director product management bij Salesforce.
ChatGPT in de rechtbank
Ook een rechter in Nederland heeft onlangs voor het eerst gebruik gemaakt van ChatGPT in een uitspraak. Dat meldden diverse media, waaronder Tweakers, de Volkskrant en het FD. Een kantonrechter in Nijmegen gebruikte het AI-taalmodel in een rechtszaak tussen twee huiseigenaren om het rendementsverlies van de aanklager te bepalen. De aanklager stelt dat het rendement van zijn zonnepanelen zal dalen door de nieuwe dakopbouw van zijn buurman.
“De kantonrechter schat, mede met ChatGPT, de gemiddelde levensduur van zonnepanelen uit 2009 op 25 à 30 jaar; die levensduur wordt daarom hier op 27,5 jaar gesteld”, staat in de uitspraak. De rechter gebruikte ook ChatGPT om de gemiddelde prijs voor elektriciteit per kilowattuur te achterhalen, om het rendementsverlies van de aanklager te bepalen. De verwachte schade lag lager dan de vergoeding die de aanklager van zijn buurman kreeg.
‘Opvallend’
Universitair hoofddocent privaatrecht Anna van Duin van de Universiteit van Amsterdam noemt het vonnis ‘opvallend’. Volgens Van Duin is ChatGPT ‘totaal ongeschikt’ voor waarheidsvinding. “Kennelijk moeten rechters hiervoor op cursus.” Ook Rachel Rietveld, docent en onderzoeker gespecialiseerd in AI en recht, noemt de uitspraak ‘zorgwekkend’. Volgens Rietveld is ChatGPT ‘een statistisch model’ dat woorden voorspelt en zich slecht leent voor de rechtsspraak.
Datalekken
Ook andere beroepsgroepen maken gebruik van chatbots. Dat is niet zonder risico, meldt de Autoriteit Persoonsgegevens (AP). De toezichthouder heeft afgelopen tijd meerdere meldingen binnengekregen van datalekken doordat medewerkers persoonsgegevens van patiënten of klanten deelden met een chatbot. Door het invoeren van persoonsgegevens in chatbots kunnen de bedrijven die de chatbot aanbieden ongeoorloofd toegang krijgen tot die persoonsgegevens.
Bij een van de datalekken waarvan de AP een melding kreeg, had een medewerker van een huisartsenpraktijk tegen de afspraken in medische gegevens van patiënten ingevoerd in een AI-chatbot. Die gegevens zomaar delen met een techbedrijf is een grote schending van de privacy van de mensen om wie het gaat. Ook kreeg de toezichthouder een melding binnen van een telecombedrijf, waar een medewerker een bestand met adressen van klanten had ingevoerd in een AI-chatbot.
‘Maak afspraken’
De Autoriteit Persoonsgegevens roept bedrijven op om duidelijke afspraken te maken met hun werknemers over het gebruik van chatbots. “Als organisaties het gebruik toestaan moeten zij aan medewerkers duidelijk maken welke gegevens zij wel en niet mogen invoeren. Organisaties zouden ook met de aanbieder van een chatbot kunnen regelen dat die de ingevoerde gegevens niet opslaat. Als het toch mis gaat is een melding aan de AP en aan de slachtoffers in veel gevallen verplicht, aldus de toezichthouder.
Volgens Van Leuken zijn richtlijnen, kaders en training cruciaal om veilig met AI-chatbots op het werk om te gaan. “Voor bedrijven is het belangrijk te investeren in diensten waarmee ze beveiligings- en privacyafspraken kunnen maken. Gebruik een veilige, door het bedrijf goedgekeurde chatbot die zorg draagt voor bescherming van gegevens, bijvoorbeeld door gevoelige data te maskeren voordat deze gebruikt wordt door AI,” aldus Van Leuken.
Download het rapport AI- & Algoritmerisico’s Nederland – voorjaar 2024
Naschrift: De American Bar Association (ABA) heeft richtlijnen opgesteld voor het gebruik van generatieve AI door advocaten. De richtlijnen richten zich op de plicht van advocaten om zichzelf te informeren over de risico’s en voordelen van het gebruik van generatieve AI voor hun werk. Vorig jaar werden in New York twee advocaten betrapt op het gebruik van citaten om gerechtelijke uitspraken te vervalsen die waren gegenereerd door ChatGPT.
Bronnen:
Let op: gebruik AI-chatbot kan leiden tot datalekken | Autoriteit Persoonsgegevens
Onze mensen over … chatbots – Universiteit van Amsterdam (uva.nl)
‘Houd niet alleen je chatbot, maar ook de gebruiker onder controle’ (anp.nl)