Al eerder schreven we over onze eerste ervaringen met ChatGPT. Nadat de Italiaanse toezichthouder ChatGPT meteen verbood, gingen we eens verder op onderzoek. Met opmerkelijke conclusies: ChatGPT is een gevaar voor privacy.
Redenen voor de Italiaanse toezichthouder om de chatbot te verbieden
De Italiaanse privacy waakhond heeft per direct ChatGPT verboden. Zij voeren daarvoor de volgende redenen aan.
Ten eerste ontbreekt een grondslag voor het massaal verwerken van data. Open AI, de moeder van ChatGPT heeft wel een privacyverklaring maar ik kon er geen grondslag voor de grootschalige verwerking in vinden. Op zich is dat al voldoende: zonder grondslag is de verwerking niet-wettelijk.
Maar dat vindt de toezichthouder nog niet voldoende. Ze merkt ook op dat OpenAI onvoldoende informatie geeft aan gebruikers en geïnteresseerden over welke data allemaal verzameld worden.
Ook mist ze leeftijdsverificatie voor kinderen onder de 13. De minimum leeftijd die ChatGPT hanteert maar dus op geen enkele wijze controleert.
De Italianen wijzen ook op het datalek dat ChatGPT veroorzaakt heeft. Bij dat lek werden e-mail adressen, factuuradressen, gedeeltelijke creditcardgegevens en een geschiedenis van ingevoerde prompts van gebruikers zichtbaar voor andere gebruikers.. OpenAI verklaarde daar later over dat het datalek was ontstaan in de Redis client open-source library. Volgens OpenAI is dit voorgevallen bij rond de 1,2% van de gebruikers gebeurd.
ChatGPT maakt grote inbreuk op privacy
Het door de italiaanse toezichthouder gememoreerde datalek is een feitelijk datalek dat meteen zichtbaar was bij andere gebruikers. Maar ook zonder incident kunnen er met wat moeite veel persoonsgegevens uit de chatbot worden gehaald.
Al in juni 2021 slaagden een aantal onderzoekers er in om persoonlijke data uit de door een chatbot gegenereerde teksten te halen. Het betrof een experiment met GPT-2, de voorganger van GPT-3 waar ChatGPT op gebaseerd is. Ook GPT-2 is een taalmodel dat is getraind op stukjes van het openbare internet.
De onderzoekers waren in staat om honderden letterlijke tekstreeksen uit de trainingsgegevens van het model te extraheren. Zij slaagden er dus in om de oorspronkelijk teksten uit de door de chatbot gegenereerde tekst te halen Deze geëxtraheerde voorbeelden omvatten (openbare) persoonlijk identificeerbare informatie (namen, telefoonnummers en e-mailadressen ), IRC-conversaties, code en 128-bits UUID’s (een ID dat wordt gebruikt in de software-architectuur)
Daarbij geven ze aan het zorgwekkend te vinden dat hun onderzoek uit wees dat grotere modellen kwetsbaarder zijn dan kleinere modellen.
Kortom de gegenereerd teksten kunnen indirect herleid worden tot een groot scala aan persoonsgegevens. Het bovenstaande experiment toont aan dat GPT-2 een bedreiging voor de privacy is. OpenAI heeft nergens kenbaar gemaakt dat dit voor GPT-3 beter geregeld is. ChatGPT is een gevaar voor privacy
Ook GPT-3 genereert persoonsgegevens
Wat mij niet lukte bij het schrijven van het artikel over ChatGPT was om informatie te krijgen over mijzelf. Dat lukte de schrijfster van een artikel voor de MIT Technology Review wel, maar dan over haar baas.
Nadat ze GPT-3 vragen had gesteld over haar baas, “de tool me vertelde dat Mat een vrouw en twee jonge dochters heeft (correct, afgezien van de namen) en in San Francisco woont. (juist). Het vertelde me ook dat het niet zeker was of Mat een hond heeft: “[Uit] wat we op sociale media kunnen zien, lijkt het erop dat Mat Honan geen huisdieren heeft. Hij heeft getweet over zijn liefde voor honden in het verleden, maar hij lijkt er zelf geen te hebben.'(Onjuist.).”
Een deel van de informatie was correct, maar een deel was pure fantasie, waarschijnlijk een vorm van associatie. Dus in dezelfde zin, als iemand voortdurend schrijft over misdaad- of moordnieuws, kan de naam van deze persoon in verband worden gebracht met strafbare feiten, waardoor reputatieschade wordt toegebracht. ChatGPT is een gevaar voor privacy
Conclusie
De Italiaanse privacywaakhond heeft ChatGPT verboden. De motivering van het verbod maakt duidelijk: ChatGPT is een gevaar voor privacy. Het Amerikaanse onderzoek en het artikel van de verslaggever in de MIT Technology Review onderbouwen deze bedreiging. Daarmee wil ik zeker niet deze fascinerende ontwikkeling afwijzen, maar een gezond tegenwicht vanuit Privacy en gegevensbescherming lijkt me goed.
Ik ben benieuwd of en hoe de andere Europese toezichthouders gaan reageren.