Meta ogłosiła, że od 27 maja będzie wykorzystywać dane osobowe użytkowników Instagrama i Facebooka z UE do szkolenia swoich nowych systemów sztucznej inteligencji. Zamiast pytać konsumentów o zgodę, Meta opiera się na rzekomym "uzasadnionym interesie", aby po prostu zasysać wszystkie dane użytkowników. Nowa dyrektywa UE w sprawie dochodzenia roszczeń zbiorowych zezwala kwalifikowanym podmiotom, takim jak noyb na wydawanie nakazów sądowych w całej UE. Jako pierwszy krok, noyb wysłał teraz formalną propozycję ugody w formie tak zwanego pisma o zaprzestaniu i zaniechaniu do firmy Meta. Inne grupy konsumenckie również podejmują działania. Jeśli nakazy zostaną złożone i wygrane, Meta może być również odpowiedzialna za szkody dla konsumentów, które mogą zostać wniesione w oddzielnym pozwie zbiorowym UE. Odszkodowania mogą sięgać miliardów. Podsumowując, Meta może stanąć w obliczu ogromnego ryzyka prawnego - tylko dlatego, że opiera się na systemie "opt-out" zamiast "opt-in" do szkolenia AI.

- noyblist o zaprzestaniu i zaniechaniu do Meta Ireland
- Raport Reutersa na temat listu Noyb o zaprzestaniu i zaniechaniu działalności
- Komunikat prasowy niemieckiego VZ NRW w sprawie wstępnego nakazu sądowego dla Niemiec
- Groteskowe oświadczenie Mety w sprawie wstępnego nakazu niemieckiego VZ NRW
- Poprzednie skargi Noyb na plany szkoleniowe Meta w zakresie sztucznej inteligencji
Meta AI nie jest zgodna z RODO. Aby wykorzystywać dane osobowe, firmy muszą przestrzegać jednej z sześciu podstaw prawnych zgodnie z art. 6 ust. 1 RODO. Jedną z nich jest zgoda opt-in, co oznacza, że użytkownicy mogą zdecydować się na udzielenie "swobodnie udzielonej, konkretnej, świadomej i jednoznacznej" "tak" na przetwarzanie ich danych - lub powiedzieć "nie", a nawet milczeć. Firmy mogą jednak również powoływać się na tzw "uzasadniony interes do przetwarzania danych osobowych. Na przykład złodziej nie wyrazi zgody na filmowanie go przez kamerę CCTV - ale bank może nadal mieć "uzasadniony interes" w posiadaniu kamer CCTV. Zamiast pozwolić użytkownikom na wybór między powiedzeniem "Tak" lub "Nie", Meta twierdzi, że ma taki "uzasadniony interes", aby po prostu wziąć ich dane do szkolenia AI. Pozostawia to użytkownikom jedynie prawo do sprzeciwu (rezygnacji) na mocy art. 21 RODO. Jednak Meta ogranicza nawet to (ustawowe) prawo, twierdząc, że ma ono zastosowanie tylko wtedy, gdy ludzie zrezygnują przed rozpoczęciem szkolenia.
Meta prawdopodobnie nie będzie również w stanie przestrzegać innych praw wynikających z RODO (takich jak prawo do bycia zapomnianym, prawo do sprostowania nieprawidłowych danych lub zapewnienia użytkownikom dostępu do ich danych w systemie sztucznej inteligencji). Ponadto Meta dostarcza modele AI (takie jak Llama) jako oprogramowanie open-source, które każdy może pobrać i używać. Oznacza to, że Meta nie może oddzwonić ani zaktualizować modelu po jego opublikowaniu.
Max Schrems: "Europejski Trybunał Sprawiedliwości orzekł już, że Meta nie może powoływać się na "uzasadniony interes" w kierowaniu reklam do użytkowników. W jaki sposób miałaby mieć "uzasadniony interes" w zasysaniu wszystkich danych do szkolenia AI? Podczas gdy ocena "uzasadnionego interesu" jest zawsze testem wieloczynnikowym, wszystkie czynniki wydają się wskazywać w złym kierunku dla Mety. Meta po prostu twierdzi, że jej interes w zarabianiu pieniędzy jest ważniejszy niż prawa użytkowników."
Proste rozwiązanie: Zapytać użytkowników o zgodę! Podczas gdy Meta próbuje namalować obraz, że zgodność z RODO uniemożliwiłaby szkolenie AI w UE (zobacz ich absurdalny komunikat prasowy dla Niemiec), rozwiązanie prawne w ramach RODO jest proste: Meta musiałaby po prostu poprosić użytkowników o zgodę (zamiast sprzeciwu) na wykorzystanie ich danych osobowych do szkolenia AI. Biorąc pod uwagę, że Meta ma ogromną liczbę użytkowników, posiadanie 10% lub więcej zgody na takie szkolenie byłoby już wystarczające do nauki języków UE i tym podobnych. Gdyby Meta jasno określiła warunki szkolenia (np. anonimizacja itp.), prawdopodobnie użytkownicy udostępniliby swoje dane. Całkowitym absurdem jest jednak twierdzenie, że Meta potrzebuje danych osobowych każdego która korzysta z Facebooka lub Instagrama w ciągu ostatnich 20 lat, aby trenować sztuczną inteligencję. Większość innych dostawców sztucznej inteligencji (takich jak OpenAI lub francuski Mistral) nie ma dostępu do danych z mediów społecznościowych i nadal konkuruje z systemami sztucznej inteligencji Meta.
Max Schrems: " Ta walka dotyczy zasadniczo tego, czy pytać ludzi o zgodę, czy po prostu pobierać ich dane bez niej. Meta rozpoczyna wielką walkę tylko po to, by mieć system opt-out zamiast opt-in. Zamiast tego opierają się na rzekomym "uzasadnionym interesie", aby po prostu wziąć dane i z nimi uciec. Nie jest to ani legalne, ani konieczne. Absurdalne twierdzenia Meta, że kradzież danych osobowych wszystkich osób jest niezbędna do szkolenia AI, są śmieszne. Inni dostawcy sztucznej inteligencji nie wykorzystują danych z sieci społecznościowych - i generują nawet lepsze modele niż Meta."
Zabezpieczenie roszczeń i potencjalne pozwy zbiorowe. Jako podmiot kwalifikowany na mocy nowej dyrektywy UE w sprawie zbiorowego dochodzenia roszczeń, noyb może wnieść nakaz zaprzestania bezprawnych praktyk przez firmę taką jak Meta. Takie sprawy mogą być wnoszone w różnych jurysdykcjach, nie tylko w siedzibie Meta w Irlandii. Jeśli nakaz zostanie wydany przez właściwy sąd, Meta będzie musiała nie tylko zaprzestać przetwarzania danych, ale także usunąć wszelkie nielegalnie wyszkolone systemy sztucznej inteligencji. Jeśli dane z UE zostaną "zmieszane" z danymi spoza UE, cały model sztucznej inteligencji będzie musiał zostać usunięty. Każdy nakaz zatrzymałby również zegar określający, jak długo ludzie mogą wnosić roszczenia odszkodowawcze ("przedawnienie"). Oznacza to, że z każdym dniem, w którym Meta będzie nadal wykorzystywać europejskie dane do szkolenia sztucznej inteligencji, zwiększy się liczba potencjalnych roszczeń odszkodowawczych ze strony użytkowników. RODO zezwala na szkody niematerialne, które zwykle liczone są w setkach lub tysiącach na użytkownika.
Oprócz zwykłego nakazu sądowego, każdy uprawniony podmiot może również wnieść pozew o zadośćuczynienie (podobny do amerykańskiego pozwu zbiorowego) w celu odzyskania takich odszkodowań dla dużych grup użytkowników. noyb lub jakikolwiek inny Kwalifikowany Podmiot (zob aktualna lista UE) miałby lata na złożenie takiego pozwu, jeśli Meta nie zmieni swojego kursu. Jeśli szkody niematerialne wyniosłyby tylko 500 euro na użytkownika, wyniosłyby one około 200 miliardów euro dla około 400 milionów aktywnych miesięcznie użytkowników Meta w Europie.
Max Schrems: "Obecnie oceniamy nasze możliwości złożenia nakazów sądowych, ale istnieje również opcja późniejszego pozwu zbiorowego o zadośćuczynienie za szkody niematerialne. Jeśli pomyślimy o ponad 400 milionach europejskich użytkowników Meta, którzy mogliby domagać się odszkodowania w wysokości około 500 euro, to możemy sobie policzyć. Jesteśmy bardzo zaskoczeni, że Meta podjęłaby takie ryzyko tylko po to, by uniknąć pytania użytkowników o zgodę"
Nakazy sądowe w innych jurysdykcjach UE. Podczas gdy reakcja na rażące naruszenie GDPR przez Metę szybko się rozwija, noyb rozumie, że różne grupy w UE analizują opcje sporów sądowych. Niemieckie organizacje konsumenckie (kierowane przez Verbraucherzentrale w Nadrenii Północnej-Westfalii, "VZ NRW") już upubliczniły swój zamiar podjęcia działań. Należy się również spodziewać, że wiele osób może wystąpić przeciwko firmie Meta w związku z wykorzystaniem ich danych do szkolenia AI.
Max Schrems: "Spodziewalibyśmy się, że wykorzystanie danych z mediów społecznościowych do szkolenia AI wywoła wiele sporów sądowych w całej UE. Nawet samo zarządzanie tymi sporami będzie ogromnym zadaniem dla firmy Meta"
Organy ochrony danych wydają się tego nie akceptować. Krajowe organy ochrony danych (OOD) powinny - teoretycznie - podejmować działania egzekucyjne w przypadku nieprzestrzegania RODO. Jednak w klimacie, w którym UE mocno dąży do ograniczenia regulacji i zwiększenia "innowacyjności" za wszelką cenę, obserwujemy teraz, że organy ochrony danych w niektórych krajach UE w dużej mierze działają jako posłaniec dla Mety: Wiele organów ochrony danych właśnie "poinformowało" ludzi, że powinni pilnie zrezygnować ze szkolenia Meta w zakresie sztucznej inteligencji. To zrzuca odpowiedzialność na użytkowników zamiast na Metę. Meta twierdzi również publicznie, że "zaangażowała się" z organami regulacyjnymi UE w sprawie wykorzystywania danych z mediów społecznościowych do szkolenia AI. Jednak jeśli chodzi o noyb organy ochrony danych w dużej mierze milczały na temat legalności szkolenia AI bez zgody. Wydaje się zatem, że Meta po prostu i tak poszła naprzód - podejmując kolejne ogromne ryzyko prawne w UE i depcząc prawa użytkowników.
Max Schrems: "Z tego, co słyszeliśmy, Meta "zaangażowała się" we współpracę z władzami, ale nie doprowadziło to do żadnego "zielonego światła". Wygląda na to, że Meta po prostu idzie naprzód i ignoruje organy ochrony danych UE. Władze z kolei wydają się po prostu milczeć, mówiąc użytkownikom, aby się chronili. Jesteśmy świadkami, jak organy ochrony danych tracą coraz bardziej na znaczeniu, a organizacje pozarządowe muszą podejmować działania przed sądami"