ChatGPT poskytuje nepravdivé informácie o ľuďoch a OpenAI ich nedokáže opraviť

This page has been translated automatically. Read the original or leave us a message if something is not right.
Artificial Intelligence
 /  Mon, 29. 04. 2024 - 07:00

V EÚ sa podľa GDPR vyžaduje, aby informácie o fyzických osobách boli presné a aby mali úplný prístup k uloženým informáciám, ako aj k informáciám o zdroji. Spoločnosť OpenAI však prekvapujúco otvorene priznáva, že nie je schopná opraviť nesprávne informácie v službe ChatGPT. Okrem toho spoločnosť nedokáže povedať, odkiaľ údaje pochádzajú a aké údaje ChatGPT o jednotlivých osobách uchováva. Spoločnosť si je tohto problému dobre vedomá, ale zdá sa, že ju to nezaujíma. Namiesto toho spoločnosť OpenAI jednoducho tvrdí, že "faktická presnosť vo veľkých jazykových modeloch zostáva oblasťou aktívneho výskumu". Preto, noyb dnes podala sťažnosť proti spoločnosti OpenAI na rakúsky úrad pre ochranu údajov.

User asking ChatGPT "Can I have GDPR rights, please?". ChatGPT answers "No!".

ChatGPT má stále halucinácie - a ani OpenAI to nedokáže zastaviť. Spustenie ChatGPT v novembri 2022 vyvolalo nevídaný humbuk okolo umelej inteligencie. Ľudia začali chatbota používať na najrôznejšie účely vrátane výskumných úloh. Problémom je, že podľa samotnej OpenAI aplikácia generuje len "odpovede na požiadavky používateľov predpovedaním ďalších najpravdepodobnejších slov, ktoré by sa mohli objaviť ako odpoveď na jednotlivé výzvy". Inými slovami: Hoci má spoločnosť k dispozícii rozsiahle tréningové údaje, v súčasnosti nie je možné zaručiť, že ChatGPT skutočne zobrazuje používateľom vecne správne informácie. Naopak, generatívne nástroje umelej inteligencie sú známe tým, že pravidelne "halucinujú", čo znamená, že si jednoducho vymýšľajú odpovede.

V poriadku pre domáce úlohy, ale nie pre údaje o jednotlivcoch. Zatiaľ čo nepresné informácie možno tolerovať, keď študent používa ChatGPT na pomoc s domácou úlohou, je to neprijateľné, keď ide o informácie o jednotlivcoch. Od roku 1995 sa v právnych predpisoch EÚ vyžaduje, aby boli osobné údaje presné. V súčasnosti je to zakotvené v článku 5 GDPR. Jednotlivci majú tiež právo na opravu podľa článku 16 GDPR, ak sú údaje nepresné, a môžu požiadať o vymazanie nepravdivých informácií. Okrem toho podľa "práva na prístup" v článku 15 musia byť spoločnosti schopné preukázať, ktoré údaje o fyzických osobách uchovávajú a aké sú ich zdroje.

Maartje de Graaf, právnička pre ochranu údajov v spoločnosti noyb: "Vymýšľanie nepravdivých informácií je samo osebe dosť problematické. Keď však ide o nepravdivé informácie o fyzických osobách, môže to mať vážne dôsledky. Je jasné, že spoločnosti v súčasnosti nie sú schopné zabezpečiť, aby chatboty, ako je ChatGPT, pri spracúvaní údajov o fyzických osobách spĺňali právne predpisy EÚ. Ak systém nedokáže poskytnúť presné a transparentné výsledky, nemôže sa používať na generovanie údajov o fyzických osobách. Technológia musí dodržiavať právne požiadavky, nie naopak."

Jednoduché vymýšľanie údajov o jednotlivcoch nie je možné. Toto je do veľkej miery štrukturálny problém. Podľa nedávnej správy New York Times si "chatboty vymýšľajú informácie najmenej v 3 % prípadov - a až v 27 % prípadov". Na ilustráciu tohto problému sa môžeme pozrieť na sťažovateľa (verejnú osobu) v našom prípade proti OpenAI. Na otázku o jeho narodeninách ChatGPT opakovane poskytol nesprávne informácie namiesto toho, aby používateľom oznámil, že nemá potrebné údaje.

Žiadne práva podľa GDPR pre osoby zachytené ChatGPT? Napriek tomu, že dátum narodenia sťažovateľa, ktorý poskytla spoločnosť ChatGPT, je nesprávny, spoločnosť OpenAI odmietla jeho žiadosť o opravu alebo vymazanie údajov s odôvodnením, že údaje nie je možné opraviť. Spoločnosť OpenAI tvrdí, že môže filtrovať alebo blokovať údaje pri určitých výzvach (napríklad meno sťažovateľa), ale nie bez toho, aby zabránila spoločnosti ChatGPT filtrovať všetky informácie o sťažovateľovi. Spoločnosť OpenAI tiež primerane neodpovedala na žiadosť sťažovateľa o prístup. Hoci GDPR dáva používateľom právo požiadať spoločnosti o kópiu všetkých osobných údajov, ktoré sa o nich spracúvajú, spoločnosť OpenAI neposkytla žiadne informácie o spracúvaných údajoch, ich zdrojoch ani príjemcoch.

Maartje de Graaf, právnička v oblasti ochrany údajov v spoločnosti noyb: "Povinnosť vyhovieť žiadosti o prístup sa vzťahuje na všetky spoločnosti. Je jednoznačne možné viesť záznamy o školiacich údajoch, ktoré boli použité, aspoň mať predstavu o zdrojoch informácií. Zdá sa, že s každou "inováciou" si ďalšia skupina spoločností myslí, že jej produkty nemusia byť v súlade so zákonom."

Zatiaľ bezvýsledné snahy dozorných orgánov. Od náhleho nárastu popularity ChatGPT sa generatívne nástroje umelej inteligencie rýchlo dostali pod drobnohľad európskych orgánov na ochranu súkromia. Taliansky úrad na ochranu údajov sa okrem iného zaoberal nepresnosťou chatbota, keď v marci 2023 uložil dočasné obmedzenie spracúvania údajov. O niekoľko týždňov neskôr Európsky výbor pre ochranu údajov (EDPB) zriadil pracovnú skupinu pre ChatGPT s cieľom koordinovať vnútroštátne úsilie. Zatiaľ nie je jasné, kam to povedie. Zatiaľ sa zdá, že OpenAI ani nepredstiera, že by mohla dodržiavať GDPR EÚ.

Podaná sťažnosť. noyb teraz žiada rakúsky úrad na ochranu údajov (DSB), aby prešetril spracovanie údajov spoločnosťou OpenAI a opatrenia prijaté na zabezpečenie správnosti osobných údajov spracúvaných v súvislosti s veľkými jazykovými modelmi spoločnosti. Okrem toho žiadame DSB, aby nariadil spoločnosti OpenAI vyhovieť žiadosti sťažovateľa o prístup a zosúladiť jej spracúvanie s GDPR. V neposlednom rade noyb žiada orgán, aby uložil pokutu na zabezpečenie dodržiavania predpisov v budúcnosti. Je pravdepodobné, že tento prípad sa bude riešiť prostredníctvom spolupráce s EÚ.

Share