
När norske Arve Hjalmar Holmen sökte information om sig själv i ChatGPT möttes han av en fabricerad historia om att han skulle ha mördat två av sina barn och försökt döda ett tredje. Det skriver organisationen NOYB i ett pressmeddelande.
OpenAIs populära chatbot ChatGPT ger regelbundet falsk information om privatpersoner utan att erbjuda möjlighet till korrigering, enligt NOYB. I många fall kan dessa så kallade ”hallucinationer” allvarligt skada en persons rykte, skriver organisationen.
”Somliga tror att ’det finns ingen rök utan eld’. Att någon kan läsa detta och tro att det är sant är vad som skrämmer mig mest”, säger Arve Hjalmar Holmen, som utsattes för AI-hallucineringen enligt organisationens pressmeddelande.
Enligt NOYB var anklagelserna mot norrmannen särskilt allvarliga eftersom ChatGPT blandade verkliga fakta om hans liv – som hemort och antalet barn samt deras kön – med den påhittade berättelsen om barnamord och ett påstått 21-årigt fängelsestraff.
GDPR kräver korrekt information
Joakim Söderberg, dataskyddsjurist på NOYB, betonar att GDPR är tydlig med att personuppgifter måste vara korrekta. Användare har rätt att få felaktiga uppgifter ändrade.
”Man kan inte bara sprida falsk information och sedan lägga till en liten varning om att allt du säger kanske inte stämmer”, säger Söderberg enligt pressmeddelandet.
Detta är inte ett isolerat fall. ChatGPT ska tidigare ha anklagat personer för korruption och övergrepp mot barn, vilket har resulterat i stämningar mot OpenAI, enligt NOYB. Företaget har reagerat genom att lägga till en varning om att programmet kan producera felaktiga resultat.
AI-företaget saknar lösning
OpenAI hävdar att de inte kan korrigera felaktiga data utan bara ”blockera” viss information på vissa förfrågningar, men den felaktiga informationen kvarstår i systemet. Detta strider mot dataskyddsförordningens princip om uppgifters korrekthet enligt artikel 5(1)(d) i GDPR, menar NOYB.
”AI-företag kan inte bara ’gömma’ falsk information från användare medan de internt fortfarande behandlar falsk information. AI-företag bör sluta agera som om GDPR inte gäller dem, när den tydligt gör det”, säger Kleanthi Sardeli, dataskyddsjurist på NOYB.
Sedan incidenten har OpenAI uppdaterat sin modell. ChatGPT söker nu även på internet efter information om personer när den blir tillfrågad om vem de är. För Holmen betyder det att ChatGPT har slutat sprida felaktig information om honom som mördare. De felaktiga uppgifterna kan dock fortfarande finnas kvar i AI-modellens dataset.
Klagomålet har lämnats in till norska Datatilsynet, där NOYB begär att OpenAI ska radera det förtalande innehållet och finjustera sin modell för att eliminera felaktiga resultat.