Halucinácie AI: ChatGPT vytvoril falošného vraha detí

This page has been translated automatically. Read the original or leave us a message if something is not right.
Artificial Intelligence
 /  Thu, 20. 03. 2025 - 07:00

Veľmi populárny chatbot ChatGPT od spoločnosti OpenAI pravidelne poskytuje nepravdivé informácie o ľuďoch bez toho, aby ponúkol možnosť ich opravy. V mnohých prípadoch môžu tieto takzvané "halucinácie" vážne poškodiť povesť osoby: V minulosti ChatGPT falošne obvinil ľudí z korupciu, zneužívanie detí - alebo dokonca vraždy. Posledný prípad sa týkal nórskeho používateľa. Keď sa pokúsil zistiť, či o ňom chatbot má nejaké informácie, ChatGPT si sebavedomo vymyslel falošný príbeh, ktorý ho zobrazoval ako odsúdeného vraha. Toto zjavne nie je ojedinelý prípad. noyb preto podala druhú sťažnosť na spoločnosť OpenAI. Tým, že spoločnosť vedome umožnila ChatGPT vytvárať hanlivé výsledky, jednoznačne porušila zásadu presnosti údajov podľa GDPR.

Header ChatGPT Murderer Complaint

Halucinácie umelej inteligencie: od nevinných omylov po ohováračské lži. Rýchly vzostup chatbotov s umelou inteligenciou, ako je ChatGPT, sprevádzali kritické hlasy upozorňujúce ľudí, že si nikdy nemôžu byť istí, či je výstup vecne správny. Dôvodom je, že tieto systémy AI iba predpovedajú ďalšie najpravdepodobnejšie slovo v reakcii na výzvu. V dôsledku toho systémy AI pravidelne halucinujú. To znamená, že si jednoducho vymýšľajú príbehy. Hoci to môže byť v niektorých prípadoch celkom neškodné alebo dokonca zábavné, môže to mať aj katastrofálne dôsledky pre životy ľudí. V médiách sa objavili viaceré správy o tom, že vymyslených škandáloch sexuálneho obťažovania, falošných obvineniach z podplácania a údajnom obťažovaní detí - ktoré už vyústili do žalôb proti OpenAI. Spoločnosť OpenAI reagovala malým vyhlásením o odmietnutí zodpovednosti, v ktorom sa uvádza, že môže produkovať falošné výsledky.

Joakim Söderberg, právnik pre ochranu údajov v spoločnosti noyb: "Nariadenie GDPR je jasné. Osobné údaje musia byť presné. A ak nie sú, používatelia majú právo na ich zmenu tak, aby odrážali pravdu. Ukázať používateľom ChatGPT drobnú výhradu, že chatbot môže robiť chyby, zjavne nestačí. Nemôžete len tak šíriť nepravdivé informácie a na záver pridať malú výhradu, že všetko, čo ste povedali, jednoducho nemusí byť pravda..."

ChatGPT vytvoril falošného vraha a uväznenie. Bohužiaľ, tieto incidenty nie sú minulosťou. Keď chcel nórsky používateľ Arve Hjalmar Holmen zistiť, či o ňom má ChatGPT nejaké informácie, bol konfrontovaný s vymysleným hororovým príbehom: ChatGPT predstavila sťažovateľa ako odsúdeného zločinca, ktorý zavraždil dve svoje deti a pokúsil sa zavraždiť svojho tretieho syna. Aby toho nebolo málo, falošný príbeh obsahoval skutočné prvky z jeho osobného života. Medzi nimi bol skutočný počet a pohlavie jeho detí a názov jeho rodného mesta. Okrem toho ChatGPT tiež vyhlásil, že používateľ bol odsúdený na 21 rokov väzenia. Vzhľadom na kombináciu jasne identifikovateľných osobných údajov a falošných informácií ide nepochybne o porušenie nariadenia GDPR. Podľa článku 5 ods. 1 písm. d) musia spoločnosti zabezpečiť, aby osobné údaje, ktoré o jednotlivcoch vytvárajú, boli presné.

ChatGPT output

Arve Hjalmar Holmen, sťažovateľ: "Niektorí si myslia, že "niet dymu bez ohňa". Najviac ma desí skutočnosť, že niekto si môže prečítať tento výstup a veriť, že je pravdivý."

Potenciálne ďalekosiahle dôsledky. Žiaľ, zdá sa tiež, že OpenAI nemá záujem ani schopnosť vážne opraviť nepravdivé informácie v ChatGPT. noyb podala svoju prvú sťažnosť týkajúcu sa halucinácií v apríli 2024. Vtedy sme žiadali opraviť alebo vymazať nesprávny dátum narodenia verejnej osoby. Spoločnosť OpenAI jednoducho argumentovala, že nemôže opraviť údaje. Namiesto toho môže len "zablokovať" údaje pri určitých výzvach, ale nepravdivé informácie stále zostávajú v systéme. Hoci spôsobené škody môžu byť obmedzenejšie, ak sa nepravdivé osobné údaje nezdieľajú, nariadenie GDPR sa vzťahuje na interné údaje rovnako ako na zdieľané údaje. Okrem toho sa spoločnosť snaží obísť svoje povinnosti týkajúce sa presnosti údajov tým, že používateľom ChatGPT zobrazuje vyhlásenie, že nástroj "môže robiť chyby" a že by mali "skontrolovať dôležité informácie" Zákonnú povinnosť zabezpečiť presnosť spracúvaných osobných údajov však nemôžete obísť prostredníctvom vyhlásenia o odmietnutí zodpovednosti.

Kleanthi Sardeli, právnička v oblasti ochrany údajov v spoločnosti noyb: "Pridaním vyhlásenia o odmietnutí zodpovednosti, že nedodržiavate zákon, zákon nezmizne. Spoločnosti zaoberajúce sa umelou inteligenciou tiež nemôžu pred používateľmi len "skrývať" nepravdivé informácie, pričom interne stále spracúvajú nepravdivé informácie. Spoločnosti zaoberajúce sa umelou inteligenciou by sa mali prestať správať, akoby sa na ne nariadenie GDPR nevzťahovalo, hoci sa na ne jednoznačne vzťahuje. Ak sa halucinácie nezastavia, ľudia môžu ľahko utrpieť poškodenie reputácie."

ChatGPT je teraz oficiálne vyhľadávačom. Od incidentu týkajúceho sa Arveho Hjalmara Holmena spoločnosť OpenAI aktualizovala svoj model. ChatGPT teraz vyhľadáva informácie o ľuďoch aj na internete, keď sa ho pýtajú, kto sú. Pre Arveho Hjalmara Holmena to našťastie znamená, že ChatGPT prestala klamať o tom, že je vrah. Nesprávne údaje však stále môžu zostať súčasťou súboru údajov LLM. V predvolenom nastavení, ChatGPT vkladá údaje používateľov späť do systému na účely školenia. To znamená, že neexistuje spôsob, ako si môže byť jednotlivec úplne istý, že tento výstup môže byť úplne vymazaný podľa aktuálneho stavu znalostí o umelej inteligencii, pokiaľ sa celý model umelej inteligencie nepreškolí. Príhodné je, že OpenAI nespĺňa ani právo na prístup podľa článku 15 GDPR, čo používateľom znemožňuje uistiť sa, čo spracúvajú vo svojich interných systémoch. Táto skutočnosť pochopiteľne stále vyvoláva u sťažovateľa úzkosť a strach.

Sťažnosť podaná v Nórsku. noyb preto podala sťažnosť na nórsky úrad Datatilsynet. Tým, že spoločnosť OpenAI vedome umožňuje svojmu modelu umelej inteligencie vytvárať hanlivé výstupy o používateľoch, porušuje zásadu presnosti údajov podľa článku 5 ods. 1 písm. d) GDPR. noyb žiada, aby Datatilsynet nariadil spoločnosti OpenAI vymazať hanlivé výstupy a doladiť svoj model tak, aby odstránil nepresné výsledky. Nakoniec, noyb navrhuje, aby orgán na ochranu údajov uložil správnu pokutu s cieľom zabrániť podobným porušeniam v budúcnosti.

Share