Prezes UODO zawiadamia prokuraturę w sprawie przerobienia zdjęcia nauczycielki
W mediach społecznościowych ktoś umieścił pod postem nauczycielki jej zdjęcie przerobione w taki sposób, że jest na nim naga. Prezes UODO w zawiadomieniu do Prokuratury Rejonowej Warszawa-Śródmieście wskazał, że w jego ocenie doszło do naruszenia art. 107 ustawy o ochronie danych osobowych.
Nauczycielka, której wizerunek został zmanipulowany, o zdarzeniu napisała: „moje zdjęcie zostało przerobione (ROZEBRANE) za pomocą AI przez jakiegoś obleśnego typa a następnie umieszczone w internecie. Czuję się paskudnie, czuję się skrzywdzona i nawet mówienie sobie, że przecież to nie było moje ciało, niewiele pomaga”.
Nie jest to pierwsza interwencja prezesa UODO Mirosława Wróblewskiego w sprawie tzw. deepfakeów. Dotychczas Prezes UODO podjął się między innymi obrony praw uczennicy szkoły podstawowej, której zdjęcie koledzy przerobili z użyciem narzędzi AI, a potem rozsyłali je w swoim gronie (Prezes UODO interweniuje u Prokuratora Generalnego w sprawie wygenerowania nagiego zdjęcia uczennicy).
Jak stanowi art. 107 ust. 1 ustawy o ochronie danych osobowych, kto przetwarza dane osobowe, choć ich przetwarzanie nie jest dopuszczalne albo do ich przetwarzania nie jest uprawniony, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat dwóch.
Taki czyn stanowi przestępstwo powszechne, ścigane z urzędu, z oskarżenia publicznego. Niedopuszczalnym przetwarzaniem danych jest w takim przypadku przetwarzanie danych bez podstawy prawnej, gdy nie występuje żadna z przesłanek legalizacyjnych przetwarzania danych określonych w RODO (art. 6 i 9). W szczególności, nie uzyskano zgody osoby, której dane dotyczą na przetwarzanie jej danych osobowych w jednym lub większej liczbie określonych celów.
Wygenerowanie wizerunku pokrzywdzonej w takim kontekście, w jakim uczynił to sprawca czynu, jest szkodliwe społecznie i zasługuje na reakcję ze strony właściwych organów ścigania. Działanie sprawcy nie tylko godzi w prywatność pokrzywdzonej, ale również rodzi ryzyko naruszenia jej elementarnych interesów życiowych. Niepokojące są także reakcje internautów na post pokrzywdzonej, w którym zwróciła uwagę na swój problem.
Należy również zwrócić uwagę na sam charakter deepfakeów i ich wyjątkową szkodliwość.
W polskim porządku prawnym dotychczas nie stworzono definicji legalnej, która opisywałaby przedmiotowe zjawisko, co wymusza odniesienie do legislacji unijnej. Definicja deepfakeów, którą należy się posiłkować, zawarta została w artykule 3 pkt 60 Rozporządzenia o sztucznej inteligencji (AI Act), zgodnie z którym są to: „wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”.
W przedmiotowej sprawie doszło do zmanipulowania wizerunku pokrzywdzonej bez jej zgody, przy wykorzystaniu jej ogólnodostępnych zdjęć przy wykorzystaniu narzędzi Sztucznej Inteligencji. Takie zjawisko jest odrębną kategorią deepfakeów, która została opisana w literaturze, a w szczególności w publikacji „Deepfakes i nadużycia na tle seksualnym – prawo wobec wyzwań syntetycznych mediów” (M. Łabuz, dr hab. M. Małecki, adw. dr K. Mania, Obserwatorium Demokracji Cyfrowej 2025), jako non-consensual synthetic intimate imagery (NSII).
Jak wskazują autorzy publikacji, „NSII jest dominującym przejawem wykorzystania deepfakes w formie wideo – stanowi ponad 90% z nich. W blisko 100% przypadków NSII w formie deepfakes dotyka kobiet, co prowadzi do wiktymizacji tysięcy z nich na całym świecie, a także przyczynia się do wzmacniania stereotypów płciowych oraz uprzedmiotowienia kobiet, wywierając trudny do skwantyfikowania wpływ na społeczeństwo”.
DKN.5101.170.2026