W UE RODO wymaga, aby informacje o osobach fizycznych były dokładne i aby miały one pełny dostęp do przechowywanych informacji, a także informacji o ich źródle. Zaskakujące jest jednak to, że OpenAI otwarcie przyznaje, że nie jest w stanie poprawić nieprawidłowych informacji na ChatGPT. Co więcej, firma nie może powiedzieć, skąd pochodzą dane ani jakie dane ChatGPT przechowuje na temat poszczególnych osób. Firma doskonale zdaje sobie sprawę z tego problemu, ale nie wydaje się tym przejmować. Zamiast tego OpenAI po prostu twierdzi, że "faktyczna dokładność w dużych modelach językowych pozostaje obszarem aktywnych badań". Dlatego, noyb złożył dziś skargę przeciwko OpenAI do austriackiego organu ochrony danych .
ChatGPT wciąż ma halucynacje - i nawet OpenAI nie może tego powstrzymać. Uruchomienie ChatGPT w listopadzie 2022 r. wywołało bezprecedensowy szum związany ze sztuczną inteligencją. Ludzie zaczęli używać chatbota do różnych celów, w tym do zadań badawczych. Problem polega na tym, że według samego OpenAI aplikacja generuje jedynie "odpowiedzi na żądania użytkowników, przewidując kolejne najbardziej prawdopodobne słowa, które mogą pojawić się w odpowiedzi na każdy monit". Innymi słowy: Chociaż firma posiada obszerne dane szkoleniowe, obecnie nie ma sposobu, aby zagwarantować, że ChatGPT faktycznie pokazuje użytkownikom poprawne informacje. Wręcz przeciwnie, narzędzia generatywnej sztucznej inteligencji znane są z regularnego "halucynowania", co oznacza, że po prostu wymyślają odpowiedzi.
W porządku w przypadku pracy domowej, ale nie w przypadku danych dotyczących osób. Podczas gdy niedokładne informacje mogą być tolerowane, gdy uczeń korzysta z ChatGPT, aby pomóc mu w odrabianiu pracy domowej, jest to niedopuszczalne, jeśli chodzi o informacje o osobach fizycznych. Od 1995 r. prawo UE wymaga, aby dane osobowe były dokładne. Obecnie jest to zapisane w artykule 5 RODO. Osoby fizyczne mają również prawo do sprostowania na mocy art. 16 RODO, jeśli dane są niedokładne, i mogą zażądać usunięcia fałszywych informacji. Ponadto, zgodnie z "prawem dostępu" w art. 15, firmy muszą być w stanie wykazać, jakie dane posiadają na temat osób fizycznych i jakie są ich źródła.
Maartje de Graaf, prawnik ds. ochrony danych w noyb: "Wymyślanie fałszywych informacji jest dość problematyczne samo w sobie. Ale jeśli chodzi o fałszywe informacje o osobach fizycznych, może to mieć poważne konsekwencje. Oczywiste jest, że firmy nie są obecnie w stanie sprawić, by chatboty takie jak ChatGPT były zgodne z prawem UE podczas przetwarzania danych dotyczących osób fizycznych. Jeśli system nie może generować dokładnych i przejrzystych wyników, nie może być wykorzystywany do generowania danych o osobach fizycznych. Technologia musi być zgodna z wymogami prawnymi, a nie odwrotnie"
Zwykłe wymyślanie danych o osobach nie wchodzi w grę. Jest to w dużej mierze problem strukturalny. Według niedawnego raportu New York Times, "chatboty wymyślają informacje w co najmniej 3 procentach przypadków - a nawet w 27 procentach". Aby zilustrować tę kwestię, możemy przyjrzeć się skarżącemu (osobie publicznej) w naszej sprawie przeciwko OpenAI. Zapytany o datę urodzin, ChatGPT wielokrotnie podawał nieprawidłowe informacje, zamiast poinformować użytkowników, że nie posiada niezbędnych danych.
Brak praw wynikających z RODO dla osób przechwyconych przez ChatGPT? Pomimo faktu, że data urodzenia skarżącego podana przez ChatGPT jest nieprawidłowa, OpenAI odrzucił jego prośbę o sprostowanie lub usunięcie danych, argumentując, że nie jest możliwe poprawienie danych. OpenAI twierdzi, że może filtrować lub blokować dane w niektórych monitach (takich jak imię skarżącego), ale nie bez uniemożliwienia ChatGPT filtrowania wszystkich informacji o skarżącym. OpenAI nie odpowiedział również odpowiednio na prośbę skarżącego o dostęp. Chociaż RODO daje użytkownikom prawo do żądania od firm kopii wszystkich danych osobowych, które są przetwarzane na ich temat, OpenAI nie ujawnił żadnych informacji o przetwarzanych danych, ich źródłach lub odbiorcach.
Maartje de Graaf, prawnik ds. ochrony danych w noyb: "Obowiązek przestrzegania wniosków o dostęp dotyczy wszystkich firm. Oczywiście możliwe jest prowadzenie ewidencji danych szkoleniowych, które zostały wykorzystane, a przynajmniej mieć pojęcie o źródłach informacji. Wydaje się, że z każdą "innowacją" kolejna grupa firm uważa, że jej produkty nie muszą być zgodne z prawem"
Jak dotąd bezowocne wysiłki organów nadzorczych. Od czasu nagłego wzrostu popularności ChatGPT, narzędzia generatywnej sztucznej inteligencji szybko znalazły się pod kontrolą europejskich organów ochrony prywatności. Między innymi włoski organ ochrony danych zajął się niedokładnością chatbota, nakładając tymczasowe ograniczenie przetwarzania danych w marcu 2023 roku. Kilka tygodni później Europejska Rada Ochrony Danych (EDPB) utworzyła grupę zadaniową ds. ChatGPT w celu koordynacji działań krajowych. Dopiero okaże się, dokąd to doprowadzi. Na razie OpenAI wydaje się nawet nie udawać, że może przestrzegać unijnego RODO.
Złożono skargę. noyb zwraca się teraz do austriackiego organu ochrony danych (DSB) o zbadanie przetwarzania danych przez OpenAI i środków podjętych w celu zapewnienia dokładności danych osobowych przetwarzanych w kontekście dużych modeli językowych firmy. Ponadto zwracamy się do DSB o nakazanie OpenAI zastosowania się do wniosku skarżącego o dostęp i dostosowania przetwarzania danych do GDPR. Wreszcie, noyb zwraca się do organu o nałożenie grzywny w celu zapewnienia zgodności z przepisami w przyszłości. Jest prawdopodobne, że sprawa ta zostanie rozpatrzona w ramach współpracy UE.