photo
18.09.2025

Potrzebne jest prawo chroniące ludzi przed negatywnym wpływem deepfake’ów

W polskim porządku prawnym niezbędne jest wprowadzenie przepisów prawa, które będą bezpośrednio odnosić się do rozpowszechniania szkodliwych treści w postaci deepfake’ów, zapewniając ofiarom możliwość skutecznego i szybkiego dochodzenia ochrony swoich praw.

Taki postulat Mirosław Wróblewski, prezes UODO przedstawił w wystąpieniu do wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego. Prezes UODO zwraca uwagę, że obecne regulacje nie są dostosowane do specyfiki oraz możliwości technologii deepfake i treści generowanych przez sztuczną inteligencję, a także ich możliwości negatywnego odziaływania na ludzi.

Rozwój technologii deepfake mnoży zagrożenia

Zmiany prawne są konieczne, gdyż technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są. Sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę.

Wśród zagrożeń, jakie niesie ze sobą technologia deepfake Prezes UODO wymienia wykorzystywanie wizerunku danej osoby bez jej wiedzy i zgody oraz kradzież tożsamości (ułatwia podszywanie się pod inne osoby). Technologia ta może posłużyć także do szantażu i nękania, gdyż umożliwiaukazanie osoby w sytuacjach, które w rzeczywistości nie miały miejsca.

Prezes UODO zwrócił uwagę, że deepfake’i mogą posłużyć również do preparowania dowodów sądowychorazstanowić zagrożenie dla bezpieczeństwa  narodowego lub bezpieczeństwa systemów informacji podmiotów publicznych i prywatnych. Deepfake może być wykorzystywany do manipulacji politycznej (w szczególności podczas prowadzenia kampanii wyborczych), polaryzacji społecznej, zamieszek czy konfliktów z użyciem przemocy.

Inny przykładem może być omijanie systemów bezpieczeństwa, takich jak systemy uwierzytelniania biometrycznego.

W to wszystko wpisuje się również kontekst różnych form ataków ze strony Federacji Rosyjskiej.

Prezes UODO przywołał też przypadki dotychczas zgłaszanych mu nadużyć spowodowanych stosowaniem technologii deepfake:

  • sprawa skargowa dotycząca zamieszczania na portalach społecznościowych fałszywych informacji odnoszących się do dziennikarki, osoby aktywnej publicznie – o jej śmierci, o tym, że została pobita przez męża czy że trafiła do więzienia. W tej sprawie Prezes UODO wydał na podstawie RODO zakaz przetwarzania danych na 3 miesiące (maksymalny termin przewidziany prawem), postępowanie w tej sprawie prowadzi irlandzki organ nadzorczy.
  • sprawa wygenerowania przez uczniów szkoły podstawowej fałszywego zdjęcia nagiej koleżanki. W tej sprawie Prezes UODO zawiadomił Policję o możliwości popełnienia przestępstwa, jednak Policja odmówiła zajęcia się sprawą.
  • sygnały od lekarzy, którzy padli ofiarą oszustów korzystających z technologii deepfake. Ich wizerunki i autorytet zostały wykorzystane w nieprawdziwych reklamach, w których medycy rzekomo zachęcali do przyjmowania określonych preparatów.

Prawo nie zapewnia dostatecznej ochrony

Obecne prawo tylko w pewnym obszarze chroni wykorzystywanie wizerunku. Przepisy ustawy o prawie autorskim i prawach pokrewnych wymagają zgody na rozpowszechnianie wizerunku, a Kodeks cywilny reguluje ochronę dóbr osobistych, w tym wizerunku i głosu. Z kolei RODO traktuje wizerunek jako dane osobowe wymagające ochrony. Jeśli weźmiemy pod uwagę Kodeks karny to wykorzystanie deepfake może wypełniać znamiona np. czynu zabronionego kradzieży tożsamości (art. 190a § 2), zmuszania do określonego zachowania (art. 191), rozpowszechnienia wizerunku nagiej osoby bez zgody (art. 191a), publicznej prezentacji lub produkcji, rozpowszechniania, przechowywania i posiadania treści pornograficznych (art. 202), zniesławienia lub zniewagi (art. 212 i 216) lub oszustwa (art. 286).

Prezes UODO zaznaczył, że żadna z wymienionych regulacji prawnych nie zapewnia narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, np. poprzez szybkie usuwanie nielegalnych materiałów. Tymczasem skutki tych nadużyć we współczesnym świecie zdominowanym przez internet i media społecznościowe są niezwykle dotkliwe, identyfikowanie twórców deepfake’ów często bardzo utrudnione, a procedury sądowe trwają zbyt długo.

Dlatego prezes Mirosław Wróblewski w swoim wystąpieniu do wicepremiera Krzysztofa Gawkowskiego zwrócił się o zainicjowanie prac, których celem będzie wprowadzenie w polskim porządku prawnym przepisów, które będą regulować odpowiedzialność prawną za rozpowszechnianie fałszywych treści w postaci deepfake’ów, a także zapewnią skuteczną ochronę danych osobowych.

Różne możliwości

Prezes UODO przedstawił przykładowe rozwiązania prawne niektórych państw dotyczące ochrony prawnej przed szkodliwymi deepfake’ami oraz plany zmian legislacyjnych, jakie mają niektóre z nich. Przykładowo Dania przygotowuje projekt nowelizacji prawa autorskiego, który doprowadziłyby do tego, że obywatele mogliby żądać usunięcia deepfake’ów z platform online oraz dochodzić odszkodowania za naruszenia.

Zasugerował też wzięcie pod uwagę zobowiązania platform technologicznych/internetowych/społecznościowych do instalowania systemów automatycznego i skutecznego wykrywania oraz oznaczania deepfake’ów. Zachęcił do wspierania działań oddolnych, polegających na wypracowaniu standardów oraz dobrych praktyk w zakresie weryfikacji autentyczności treści, oznaczania fałszywych materiałów czy reagowania na zgłoszenia użytkowników.

Zachęcamy do zapoznania się ze szczegółami wystąpienia Prezesa UODO, które zamieszczamy poniżej.

DPNT.413.31.2025

Podmiot udostępniający: Departament Komunikacji Społecznej
Wytworzył informację:
user Karol Witowski
date 2025-09-18
Wprowadził informację:
user Edyta Madziar
date 2025-09-18 10:09:50
Ostatnio modyfikował:
user Edyta Madziar
date 2025-09-18 13:12:55

Materiały do pobrania

Pobierz plik DPNT.413.31.2025 wystąpienie Prezesa UODO w sprawie ochrony przed deepfake [plik PDF; 255 KB]
Podmiot udostępniający: Departament Orzecznictwa i Legislacji
Wytworzył informację:
user Monika Krasińska
date 2025-09-18 11:16:46
Wprowadził informację:
user Edyta Madziar
date 2025-09-18 11:16:46