AI-harhat: ChatGPT loi väärennetyn lapsimurhaajan

This page has been translated automatically. Read the original or leave us a message if something is not right.
Artificial Intelligence
 /  Thu, 20.03.2025 - 07:00

OpenAI:n erittäin suosittu chatbot, ChatGPT, antaa säännöllisesti vääriä tietoja ihmisistä tarjoamatta mitään mahdollisuutta korjata niitä. Monissa tapauksissa nämä niin sanotut "hallusinaatiot" voivat vahingoittaa vakavasti henkilön mainetta: Aiemmin ChatGPT syytti ihmisiä virheellisesti seuraavista asioista korruptiosta, lasten hyväksikäytöstä - tai jopa murhasta. Jälkimmäinen tapahtui erään norjalaisen käyttäjän kohdalla. Kun hän yritti selvittää, oliko chatbotilla tietoa hänestä, ChatGPT keksi itsevarmasti valetarinan, jossa hänet kuvattiin tuomituksi murhaajaksi. Tämä ei selvästikään ole yksittäistapaus. noyb on siksi tehnyt toisen valituksen OpenAI:ta vastaan. Antamalla ChatGPT:n tuottaa tietoisesti herjaavia tuloksia yritys rikkoo selvästi GDPR:n tietojen oikeellisuusperiaatetta.

Header ChatGPT Murderer Complaint

Tekoälyharhat: viattomista virheistä herjaaviin valheisiin. ChatGPT:n kaltaisten tekoäly-chatbottien nopeaan nousuun liittyi kriittisiä ääniä, jotka varoittivat ihmisiä siitä, että he eivät voi koskaan olla varmoja siitä, että tuotos on asiallisesti oikea. Syynä on se, että nämä tekoälyjärjestelmät vain ennustavat seuraavan todennäköisimmän sanan vastauksena kehotukseen. Tämän seurauksena tekoälyjärjestelmät säännöllisesti hallusinoivat. Tämä tarkoittaa, että ne vain keksivät tarinoita. Vaikka tämä voi olla melko harmitonta tai jopa huvittavaa joissakin tapauksissa, sillä voi olla myös katastrofaalisia seurauksia ihmisten elämälle. Tiedotusvälineissä on useita raportteja keksityistä seksuaalisen häirinnän skandaaleista, vääriä lahjussyytöksiä ja väitetystä lasten hyväksikäytöstä - jotka ovat jo johtaneet kanteisiin OpenAI:ta vastaan. OpenAI reagoi siihen pienellä vastuuvapauslausekkeella, jossa sanotaan, että se voi tuottaa vääriä tuloksia.

Joakim Söderberg, tietosuojavaltuutettu noyb: "GDPR on selkeä. Henkilötietojen on oltava tarkkoja. Ja jos ne eivät ole sitä, käyttäjillä on oikeus saada ne muutettua vastaamaan totuutta. ChatGPT:n käyttäjille ei selvästikään riitä, että heille näytetään pieni vastuuvapauslauseke siitä, että chatbot voi tehdä virheitä. Et voi vain levittää väärää tietoa ja lisätä lopuksi pienen vastuuvapauslausekkeen, jossa sanotaan, että kaikki sanottu ei vain välttämättä pidä paikkaansa..."

ChatGPT loi väärennetyn murhaajan ja vangitsemisen. Valitettavasti nämä tapaukset eivät ole menneisyyttä. Kun norjalainen käyttäjä Arve Hjalmar Holmen halusi selvittää, oliko ChatGPT:llä tietoja hänestä, hän joutui kohtaamaan keksityn kauhutarinan: ChatGPT esitti kantelijan tuomittuna rikollisena, joka murhasi kaksi lastaan ja yritti murhata kolmannen poikansa. Kaiken kukkuraksi väärennetty tarina sisälsi todellisia elementtejä hänen henkilökohtaisesta elämästään. Niiden joukossa olivat hänen lastensa todellinen lukumäärä ja sukupuoli sekä hänen kotikaupunkinsa nimi. Lisäksi ChatGPT ilmoitti, että käyttäjä tuomittiin 21 vuodeksi vankilaan. Kun otetaan huomioon selvästi tunnistettavien henkilötietojen ja väärennettyjen tietojen sekoitus, kyseessä on epäilemättä yleisen tietosuoja-asetuksen rikkominen. Direktiivin 5 artiklan 1 kohdan d alakohdan mukaan yritysten on varmistettava, että niiden tuottamat henkilötiedot yksilöistä ovat paikkansapitäviä.

ChatGPT output

Arve Hjalmar Holmen, kantelija: "Jotkut ajattelevat, että "ei ole savua ilman tulta". Minua pelottaa eniten se, että joku voi lukea tämän tuotoksen ja uskoa sen olevan totta."

Mahdollisesti kauaskantoiset seuraukset. Valitettavasti näyttää myös siltä, että OpenAI ei ole kiinnostunut eikä kykene vakavasti korjaamaan vääriä tietoja ChatGPT:ssä. noyb jätti ensimmäisen valituksen, joka koskee hallusinaatiota huhtikuussa 2024. Tuolloin pyysimme oikaisemaan tai poistamaan julkisuuden henkilön väärän syntymäajan. OpenAI yksinkertaisesti väitti, ettei se voi korjata tietoja. Sen sijaan se voi vain "estää" tiedot tietyissä kehotteissa, mutta väärä tieto pysyy edelleen järjestelmässä. Vaikka aiheutettu vahinko voi olla vähäisempi, jos vääriä henkilötietoja ei jaeta, tietosuoja-asetusta sovelletaan sisäisiin tietoihin yhtä lailla kuin jaettuihin tietoihin. Lisäksi yritys yrittää kiertää tietojen oikeellisuutta koskevia velvoitteitaan näyttämällä ChatGPT:n käyttäjille vastuuvapauslausekkeen, jonka mukaan työkalu "voi tehdä virheitä" ja että heidän pitäisi "tarkistaa tärkeät tiedot" Lakisääteistä velvollisuutta varmistaa käsittelemiensä henkilötietojen oikeellisuus ei kuitenkaan voi kiertää vastuuvapauslausekkeella.

Kleanthi Sardeli, tietosuojalakimies noyb: "Vastuuvapauslausekkeen lisääminen siitä, että et noudata lakia, ei saa lakia katoamaan. Tekoälyyritykset eivät myöskään voi vain "piilottaa" vääriä tietoja käyttäjiltä, kun ne sisäisesti käsittelevät edelleen vääriä tietoja. Tekoälyalan yritysten olisi lakattava käyttäytymästä niin kuin tietosuoja-asetusta ei sovellettaisi niihin, vaikka se selvästi koskee. Jos harhakuvitelmia ei lopeteta, ihmiset voivat helposti kärsiä mainehaittaa."

ChatGPT on nyt virallisesti hakukone. Arve Hjalmar Holmenia koskevan tapauksen jälkeen OpenAI on päivittänyt malliaan. ChatGPT etsii nyt myös internetistä tietoa ihmisistä, kun siltä kysytään, kuka he ovat. Arve Hjalmar Holmenin kannalta tämä tarkoittaa onneksi sitä, että ChatGPT on lakannut valehtelemasta siitä, että hän on murhaaja. Virheelliset tiedot saattavat kuitenkin edelleen olla osa LLM:n tietokokonaisuutta. Oletusarvoisesti, ChatGPT syöttää käyttäjätiedot takaisin järjestelmään harjoittelua varten. Tämä tarkoittaa, että yksilö ei voi olla täysin varma siitä, että tämä tuotos voidaan poistaa kokonaan nykytilan mukaan tietämystä tekoälystä, ellei koko tekoälymallia kouluteta uudelleen. Sopivasti OpenAI ei myöskään noudata yleisen tietosuoja-asetuksen 15 artiklan mukaista oikeutta tutustua tietoihin, minkä vuoksi käyttäjät eivät voi varmistua siitä, mitä he käsittelevät sisäisissä järjestelmissään. Tämä seikka aiheuttaa ymmärrettävästi edelleen ahdistusta ja pelkoa kantelijalle.

Norjassa jätetty kantelu. noyb on siksi tehnyt kantelun Norjan Datatilsynetille. OpenAI rikkoo yleisen tietosuoja-asetuksen 5 artiklan 1 kohdan d alakohdan mukaista tietojen oikeellisuuden periaatetta antamalla tekoälymallinsa tietoisesti luoda käyttäjiä herjaavia tuotoksia. noyb pyytää Datatilsynetiä määräämään OpenAI:n poistamaan herjaavat tuotokset ja hienosäätämään malliaan epätarkkojen tulosten poistamiseksi. Lopuksi, noyb ehdottaa, että tietosuojaviranomaisen tulisi määrätä hallinnollinen sakko vastaavien rikkomusten estämiseksi tulevaisuudessa.

Share