Il popolarissimo chatbot di OpenAI, ChatGPT, fornisce regolarmente informazioni false sulle persone senza offrire alcun modo per correggerle. In molti casi, queste cosiddette "allucinazioni" possono danneggiare seriamente la reputazione di una persona: In passato, ChatGPT ha accusato falsamente persone di corruzione, abuso di minori - o addirittura di omicidio. Quest'ultimo è stato il caso di un utente norvegese. Quando ha cercato di scoprire se il chatbot avesse qualche informazione su di lui, ChatGPT ha inventato con sicurezza una storia falsa che lo ritraeva come un assassino condannato. Chiaramente non si tratta di un caso isolato. noyb ha quindi presentato la sua seconda denuncia contro OpenAI. Consentendo consapevolmente a ChatGPT di produrre risultati diffamatori, l'azienda viola chiaramente il principio di accuratezza dei dati previsto dal GDPR.

Allucinazioni dell'IA: da errori innocenti a bugie diffamatorie. La rapida ascesa di chatbot di intelligenza artificiale come ChatGPT è stata accompagnata da voci critiche che avvertono le persone che non possono mai essere sicure della correttezza dei risultati. Il motivo è che questi sistemi di intelligenza artificiale si limitano a prevedere la parola successiva più probabile in risposta a una richiesta. Di conseguenza, i sistemi di intelligenza artificiale hanno regolarmente allucinazioni. Ciò significa che inventano storie. Sebbene questo possa essere abbastanza innocuo o persino divertente in alcuni casi, può anche avere conseguenze catastrofiche per la vita delle persone. I media hanno riferito più volte di scandali di molestie sessuali inventati, false accuse di corruzione e presunte molestie su minori - che hanno già portato a cause legali contro OpenAI. OpenAI ha reagito con un piccolo disclaimer in cui si dice che potrebbe produrre risultati falsi.
Joakim Söderberg, avvocato specializzato in protezione dei dati presso noyb: "Il GDPR è chiaro. I dati personali devono essere accurati. E se non lo sono, gli utenti hanno il diritto di farli modificare per riflettere la verità. Mostrare agli utenti di ChatGPT un piccolo disclaimer sul fatto che il chatbot può commettere errori chiaramente non è sufficiente. Non si possono diffondere informazioni false e alla fine aggiungere un piccolo disclaimer dicendo che tutto ciò che si è detto potrebbe non essere vero"
ChatGPT ha creato un falso assassino e un'incarcerazione. Purtroppo, questi incidenti non appartengono al passato. Quando l'utente norvegese Arve Hjalmar Holmen ha voluto scoprire se ChatGPT avesse qualche informazione su di lui, si è trovato di fronte a una storia dell'orrore inventata: ChatGPT ha presentato il denunciante come un criminale condannato che ha ucciso due dei suoi figli e ha tentato di uccidere il suo terzo figlio. Come se non bastasse, la storia falsa includeva elementi reali della sua vita personale. Tra questi c'erano il numero effettivo e il sesso dei suoi figli e il nome della sua città natale. Inoltre, ChatGPT ha dichiarato che l'utente è stato condannato a 21 anni di carcere. Dato il mix di dati personali chiaramente identificabili e informazioni false, si tratta senza dubbio di una violazione del GDPR. Secondo l'articolo 5, paragrafo 1, lettera d), le aziende devono assicurarsi che i dati personali che producono sulle persone siano accurati.

Arve Hjalmar Holmen, ricorrente: "Alcuni pensano che 'non c'è fumo senza arrosto'. Il fatto che qualcuno possa leggere questa pubblicazione e credere che sia vera è ciò che mi spaventa di più"."
Conseguenze potenzialmente di vasta portata. Purtroppo, sembra anche che OpenAI non sia interessata né in grado di correggere seriamente le informazioni false in ChatGPT. noyb ha presentato il suo primo reclamo relativo all'allucinazione nell'aprile 2024. All'epoca, avevamo chiesto di rettificare o cancellare la data di nascita errata di un personaggio pubblico. OpenAI ha semplicemente sostenuto di non poter correggere i dati. Invece, può solo "bloccare" i dati su determinate richieste, ma le informazioni false rimangono comunque nel sistema. Sebbene il danno arrecato possa essere più limitato se i dati personali falsi non vengono condivisi, il GDPR si applica ai dati interni tanto quanto a quelli condivisi. Inoltre, l'azienda sta cercando di aggirare i suoi obblighi di accuratezza dei dati mostrando agli utenti di ChatGPT una clausola di esclusione di responsabilità secondo cui lo strumento "può commettere errori" e che dovrebbero "controllare le informazioni importanti" Tuttavia, non è possibile aggirare l'obbligo legale di garantire l'accuratezza dei dati personali trattati tramite un disclaimer.
Kleanthi Sardeli, avvocato specializzato in protezione dei dati presso la noyb: "L'aggiunta di una clausola di esclusione della responsabilità per il mancato rispetto della legge non fa scomparire la legge". Inoltre, le aziende di IA non possono semplicemente "nascondere" agli utenti le informazioni false, mentre internamente continuano a elaborarle. Le aziende di IA dovrebbero smetterla di comportarsi come se il GDPR non si applicasse a loro, quando invece è chiaramente così. Se le allucinazioni non vengono fermate, le persone possono facilmente subire danni alla reputazione"
ChatGPT è ora ufficialmente un motore di ricerca. Dopo l'incidente di Arve Hjalmar Holmen, OpenAI ha aggiornato il suo modello. ChatGPT ora cerca su Internet anche informazioni sulle persone, quando gli viene chiesto chi sono. Per Arve Hjalmar Holmen, questo significa fortunatamente che ChatGPT ha smesso di dire bugie su di lui come assassino. Tuttavia, i dati errati potrebbero ancora far parte del set di dati del LLM. Per impostazione predefinita, ChatGPT inserisce nel sistema i dati dell'utente per l'addestramento. Ciò significa che non c'è modo per l'individuo di essere assolutamente sicuro che questi dati possano essere completamente cancellati in base allo stato attuale delle conoscenze conoscenza sull'IA, a meno che l'intero modello di IA non venga riqualificato. Convenzionalmente, OpenAI non rispetta nemmeno il diritto di accesso ai sensi dell'articolo 15 del GDPR, il che rende impossibile per gli utenti accertarsi di ciò che elaborano nei loro sistemi interni. Questo fatto, comprensibilmente, provoca ancora angoscia e paura per il denunciante.
Reclamo presentato in Norvegia. noyb ha quindi presentato un reclamo al Datatilsynet norvegese. Consentendo consapevolmente al suo modello di intelligenza artificiale di creare risultati diffamatori sugli utenti, OpenAI viola il principio dell'accuratezza dei dati ai sensi dell'articolo 5, paragrafo 1, lettera d), del GDPR. noyb chiede al Datatilsynet di ordinare a OpenAI di cancellare i risultati diffamatori e di perfezionare il suo modello per eliminare i risultati imprecisi. Infine, noyb suggerisce che l'autorità di protezione dei dati imponga una multa amministrativa per prevenire violazioni simili in futuro.