El popularísimo chatbot de OpenAI, ChatGPT, da regularmente información falsa sobre las personas sin ofrecer ninguna forma de corregirla. En muchos casos, estas "alucinaciones" pueden dañar gravemente la reputación de una persona: En el pasado, ChatGPT acusó falsamente a personas de corrupción, abuso de menores - o incluso de asesinato. Este último fue el caso de un usuario noruego. Cuando trató de averiguar si el chatbot tenía información sobre él, ChatGPT se inventó una historia falsa en la que aparecía como un asesino convicto. Está claro que no es un caso aislado. noyb ha presentado su segunda denuncia contra OpenAI. Al permitir a sabiendas que ChatGPT produzca resultados difamatorios, la empresa viola claramente el principio de exactitud de los datos del GDPR.

Alucinaciones de la IA: de errores inocentes a mentiras difamatorias. El rápido ascenso de los chatbots de IA, como ChatGPT, ha ido acompañado de voces críticas que advierten de que nunca se puede estar seguro de que los resultados sean correctos. La razón es que estos sistemas de IA se limitan a predecir la siguiente palabra más probable en respuesta a una pregunta. Como resultado, los sistemas de IA suelen alucinan. Esto significa que se inventan historias. Aunque esto puede ser bastante inofensivo o incluso divertido en algunos casos, también puede tener consecuencias catastróficas para la vida de las personas. Hay muchos informes en los medios de comunicación sobre escándalos de acoso sexual inventados, falsas acusaciones de soborno y supuestos abusos sexuales a menores - que ya dieron lugar a demandas contra OpenAI. OpenAI reaccionó con un pequeño descargo de responsabilidad diciendo que puede producir resultados falsos.
Joakim Söderberg, abogado especializado en protección de datos de noyb: "El GDPR es claro. Los datos personales tienen que ser exactos. Y si no lo son, los usuarios tienen derecho a que se modifiquen para reflejar la verdad". No basta con mostrar a los usuarios de ChatGPT una pequeña advertencia de que el chatbot puede cometer errores. No puedes difundir información falsa y al final añadir un pequeño descargo de responsabilidad diciendo que todo lo que has dicho puede no ser cierto..."
ChatGPT creó un falso asesino y encarcelamiento. Por desgracia, estos incidentes no son cosa del pasado. Cuando el usuario noruego Arve Hjalmar Holmen quiso averiguar si ChatGPT tenía información sobre él, se encontró con una historia de terror inventada: ChatGPT presentaba al denunciante como un delincuente convicto que había asesinado a dos de sus hijos e intentado asesinar a su tercer hijo. Para colmo, la historia falsa incluía elementos reales de su vida personal. Entre ellos figuraban el número real y el sexo de sus hijos y el nombre de su ciudad natal. Además, ChatGPT también declaró que el usuario había sido condenado a 21 años de cárcel. Dada la mezcla de datos personales claramente identificables e información falsa, se trata sin duda de una violación del GDPR. Según el artículo 5, apartado 1, letra d), las empresas tienen que asegurarse de que los datos personales que producen sobre los individuos son exactos.

Arve Hjalmar Holmen, denunciante: "Algunos piensan que 'no hay humo sin fuego'. El hecho de que alguien pueda leer este mensaje y creer que es cierto es lo que más me asusta."
Consecuencias potencialmente de gran alcance. Por desgracia, también parece que OpenAI no está interesado ni es capaz de arreglar seriamente la información falsa en ChatGPT. noyb presentó su primera queja relacionada con la alucinación en abril de 2024. Por aquel entonces, solicitamos que se rectificara o borrara la fecha de nacimiento incorrecta de un personaje público. OpenAI simplemente argumentó que no podía corregir los datos. En su lugar, sólo puede "bloquear" datos en determinadas peticiones, pero la información falsa sigue permaneciendo en el sistema. Aunque el daño causado puede ser más limitado si los datos personales falsos no se comparten, el GDPR se aplica a los datos internos tanto como a los compartidos. Además, la empresa trata de eludir sus obligaciones de exactitud de los datos mostrando a los usuarios de ChatGPT un aviso de que la herramienta "puede cometer errores" y que deberían "comprobar la información importante" Sin embargo, no se puede eludir la obligación legal de garantizar la exactitud de los datos personales que se procesan mediante una cláusula de exención de responsabilidad.
Kleanthi Sardeli, abogada especializada en protección de datos de noyb: "Añadir una cláusula de exención de responsabilidad diciendo que no se cumple la ley no hace que la ley desaparezca". Las empresas de IA tampoco pueden limitarse a "ocultar" información falsa a los usuarios mientras internamente siguen procesando información falsa.. Las empresas de IA deben dejar de actuar como si el GDPR no se les aplicara, cuando claramente sí lo hace. Si no se pone fin a las alucinaciones, las personas pueden sufrir fácilmente daños a su reputación."
ChatGPT ya es oficialmente un motor de búsqueda. Desde el incidente relacionado con Arve Hjalmar Holmen, OpenAI ha actualizado su modelo. Ahora ChatGPT también busca en Internet información sobre personas, cuando se le pregunta quiénes son. Para Arve Hjalmar Holmen, esto significa afortunadamente que ChatGPT ha dejado de decir mentiras sobre su condición de asesino. Sin embargo, es posible que los datos incorrectos sigan formando parte del conjunto de datos de LLM. Por defecto, ChatGPT devuelve los datos de los usuarios al sistema con fines de formación. Esto significa que no hay forma de que el individuo esté absolutamente seguro de que esta salida puede ser completamente borrada de acuerdo con el estado actual del conocimiento sobre IA, a menos que se vuelva a entrenar todo el modelo de IA. Convenientemente, OpenAI tampoco cumple con el derecho de acceso en virtud del artículo 15 del GDPR, lo que hace imposible que los usuarios se aseguren de lo que procesan en sus sistemas internos. Este hecho, comprensiblemente, sigue causando angustia y temor al denunciante.
Denuncia presentada en Noruega. noyb ha presentado una denuncia ante el Datatilsynet noruego. Al permitir a sabiendas que su modelo de IA cree resultados difamatorios sobre los usuarios, OpenAI viola el principio de exactitud de los datos en virtud del artículo 5, apartado 1, letra d) del GDPR. noyb solicita a Datatilsynet que ordene a OpenAI eliminar los resultados difamatorios y ajustar su modelo para eliminar los resultados inexactos. Por último, noyb sugiere que la autoridad de protección de datos imponga una multa administrativa para evitar infracciones similares en el futuro.