photo
28.01.2026

Kongres Ochrony Danych i Nowych Technologii – relacja

28 stycznia 2026 r. w Muzeum Historii Polski w Warszawie odbył się Kongres Ochrony Danych i Nowych Technologii, zorganizowany przez Urząd Ochrony Danych Osobowych oraz Krajową Izbę Radców Prawnych.

Wydarzenie to było okazją do uczczenia jubileuszowej, XX. edycji Dnia Ochrony Danych Osobowych. To święto ochrony danych obchodzone jest co roku 28 stycznia dla uczczenia rocznicę otwarcia do podpisu Konwencji Rady Europy nr 108 – pierwszego prawnie wiążącego instrumentu międzynarodowego chroniącego prywatność w erze cyfrowej.

Kongres Ochrony Danych i Nowych Technologii zgromadził przedstawicieli administracji publicznej, środowisk prawniczych, naukowych, biznesowych oraz ekspertów zajmujących się ochroną danych osobowych, nowymi technologiami i sztuczną inteligencją.

Celem Kongresu była wymiana doświadczeń oraz dyskusja nad aktualnymi i przyszłymi wyzwaniami związanymi z ochroną danych osobowych w dobie dynamicznego rozwoju technologii cyfrowych, w tym sztucznej inteligencji, automatyzacji procesów oraz rosnących zagrożeń cybernetycznych.

Spis treści 

 

Otwarcie Kongresu

Wydarzenie otworzyli przedstawiciele instytucji publicznych, w tym Prezes Urzędu Ochrony Danych Osobowych.

Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych podczas wystąpienia otwierającego Kongres zwrócił uwagę na zmieniającą się rolę Prezesa UODO – od organu nadzorczego koncentrującego się na stosowaniu RODO ku instytucji stabilizującej nową architekturę prawa cyfrowego UE. Podkreślił, że wdrożenie europejskich aktów cyfrowych – w tym AI Act, DGA, EHDS czy DSA – wymaga spójnego ujęcia kompetencji i koordynacji działań regulatorów, a priorytetem jest przeciwdziałanie fragmentaryzacji wdrożeń, nakładaniu się kompetencji i rozbieżnym interpretacjom”, które mogłyby osłabić ochronę praw jednostki.

- „Sztuczna inteligencja stawia przed nami nowe wyzwania w zakresie ochrony danych osobowych, ponieważ systemy AI przetwarzają coraz większe zbiory danych, w tym często szczególne kategorie danych, przy jednoczesnych trudnościach w zapewnieniu wymaganej przez RODO przejrzystości przetwarzania oraz rzetelnej oceny ryzyka dla praw i wolności osób, których dane dotyczą” – powiedział Mirosław Wróblewski.

Prezes UODO zaznaczył, że RODO pozostaje fundamentem ochrony prawnej, a standardy ochrony danych muszą być konsekwentnie respektowane także w procesach automatycznego przetwarzania.

Włodzimierz Chróścik, prezes Krajowej Rady Radców Prawnych, podkreślił, że ochrona danych osobowych jest dziś trwale wpisana w działania organizacji, a wyzwania – także technologiczne – różnią się od tych sprzed dekady. Zwrócił uwagę m.in. na rosnące znaczenie danych biometrycznych oraz na potrzebę budowania rozwoju technologii w sposób odpowiedzialny, w oparciu o standardy bezpiecznego korzystania z narzędzi AI.

Małgorzata Kidawa-Błońska, Marszałek Senatu RP wskazała, że Kongres gromadzi środowiska współodpowiedzialne za rozwój cyfrowej Polski, a rozmowa o przyszłości – pełnej szans i zagrożeń – wymaga podejmowania rozwiązań bez zwłoki. Podkreśliła również, że cyberbezpieczeństwo jest jednym z fundamentów bezpieczeństwa państwa i każdego obywatela, zachęcając przy tym do współpracy na rzecz wysokiej jakości przepisów.

Wiceprezes Rady Ministrów i Minister Cyfryzacji dr Krzysztof Gawkowski zaznaczył, że w świecie powszechnej technologii i urządzeń zbierających dane, prywatność nie jest luksusem, lecz warunkiem zaufania do usług cyfrowych i państwa. Wskazał na potrzebę praktycznej współpracy instytucji oraz podkreślił, że państwo powinno działać z wyprzedzeniem, aby skutecznie chronić obywateli, pamiętając, że za każdym rekordem w bazie danych stoi konkretny człowiek.

Dr Krzysztof Gawkowski odniósł się także do potrzeby istnienia takich regulacji jak RODO, które zdaniem niektórych osób jest zbędna z uwagi na to, że ludzie sami ujawniają informacje na swój temat.  

- „Prywatność nie polega na tym, że nic nie ujawniamy. Prywatność polega na tym, że mamy wybór. A ochrona danych istnieje po to, by ten wybór był realny – powiedział dr Krzysztof Gawkowski.

Prezes Naczelnego Sądu Administracyjnego prof. Jacek Chlebny zwrócił uwagę na wpływ postępu technologicznego na funkcjonowanie sądownictwa administracyjnego m.in. poprzez większą transparentność i dostępność informacji. Podkreślił jednocześnie, że stosowanie nowych technologii nie może osłabiać konstytucyjnego prawa do sądu, a obywatel powinien zachować realny wybór formy kontaktu z sądem. Wskazał także, że otwarcie na wykorzystanie AI jest nieuniknione, ale wiąże się z nowymi wyzwaniami, szczególnie tam, gdzie rozstrzygnięcia sądowe wymagają najwyższego poziomu gwarancji.

Program merytoryczny – panele i sesje

Regulacje ochrony danych osobowych i sztucznej inteligencji w największych gospodarkach świata: UE, Chinach i USA. Stan aktualny i kierunki rozwoju

Dyskusję podczas tego panelu rozpoczęto od kwestii ochrony danych małoletnich w internecie, w szczególności w kontekście dostępu do mediów społecznościowych. Uczestnicy wskazywali, że mimo trudności w egzekwowaniu przepisów, regulowanie tego obszaru pozostaje konieczne. Jak podkreśliła dr hab. Agnieszka Piskorz-Ryń, prof. UKSW, brak pełnej szczelności rozwiązań nie oznacza, że nie należy ich stosować.

W dalszej części omówiono różnice w podejściu do regulowania zjawiska deepfake. Wskazano, że w Chinach regulacje służą daleko idącej kontroli informacji ze względów bezpieczeństwa państwowego, podczas gdy w Stanach Zjednoczonych brak kompleksowych przepisów powoduje interwencje głównie w przypadku zagrożeń dla procesów politycznych lub treści o charakterze seksualnym. Odnosząc się do podejścia europejskiego, dr Michał Czerniawski zauważył, że obowiązek oznaczania treści generowanych przez AI może paradoksalnie osłabić transparentność, jeśli oznaczone będzie „wszystko”.

Panel podsumowano wskazaniem, że regulacje chińskie i europejskie bywają do siebie zbliżone w formie, jednak zasadniczo różni je kontekst polityczny i kulturowy.

Dekada stosowania RODO i wnioski na przyszłość

Panel ten poświęcony był podsumowaniu dziesięciu lat stosowania RODO oraz wyzwaniom, jakie stoją dziś przed organizacjami w kontekście dynamicznie zmieniającego się otoczenia regulacyjnego i technologicznego.

W dyskusji zwrócono uwagę, że organizacje coraz częściej „skaczą od regulacji do regulacji”, co utrudnia budowanie spójnych modeli biznesowych. Podkreślano, że wdrażanie rozwiązań opartych na sztucznej inteligencji bez wcześniejszego uporządkowania kwestii ochrony danych osobowych prowadzi do realnych ryzyk, zwłaszcza w obszarze profilowania.

Wskazano również, że nie wystarczy być zgodnym z RODO wyłącznie „na papierze” – dokumentacyjna zgodność nie przekłada się automatycznie na rzeczywistą ochronę danych. Klienci, partnerzy i pracownicy coraz częściej oczekują realnych standardów bezpieczeństwa oraz świadomości, że ich dane są przetwarzane w sposób odpowiedzialny i zgodny z prawem.

Podkreślono, że dojrzałość organizacji w obszarze ochrony danych oznacza nie tylko identyfikowanie zagrożeń, ale także podejmowanie realnych działań, zamiast ich ignorowania lub odkładania na później.

Data governance – czy można zapewnić zgodność i zachować innowacyjność?

Panel dotyczył roli data governance w łączeniu zgodności regulacyjnej z rozwojem innowacji. Podkreślano, że kluczowe znaczenie ma zrozumienie technologii, które pozwala właściwie identyfikować i oceniać ryzyka związane z przetwarzaniem danych.

Andrzej Burzyński z KNF zwrócił uwagę, że rosnące wykorzystanie AI wynika w dużej mierze z jej popularności, wskazując, że „złe dane wypierają dobre”, ponieważ jest ich więcej. Wskazał, że halucynacje modeli są konsekwencją jakości danych, na których systemy AI są trenowane.

Paneliści zgodzili się, że deregulacja w obszarze danych jest obecnie mało prawdopodobna ze względu na dynamiczny rozwój technologii. Podkreślono również, że innowacje same w sobie nie porządkują procesów ani danych - tu podstawą pozostaje staranność w ich weryfikacji.

AI – przyszłość regulacyjna

Dyskusję otworzył prof. dr hab. Włodzisław Duch, wskazując, że regulacje dotyczące sztucznej inteligencji mają przede wszystkim zapobiegać szkodom, choć równie istotne pozostaje pytanie o cele, jakie poprzez nie chcemy osiągnąć.

Dr Damian Flisak zwrócił uwagę, że największe ryzyka związane z AI to te, których jeszcze nie znamy. Podkreślił przy tym, że technologia ta znajduje się obecnie na bardzo wczesnym etapie rozwoju.

W trakcie panelu omawiano europejskie podejście regulacyjne do dużych, transgranicznych korporacji technologicznych. Wskazywano na napięcie pomiędzy antropocentrycznym podejściem Unii Europejskiej a interesami globalnego biznesu, co sprawia, że regulacje AI są dziś jednym z najbardziej intensywnie lobbowanych obszarów. Zwrócono również uwagę na niedostateczną reprezentację strony społecznej w procesach legislacyjnych.

Uczestnicy dyskusji podkreślili też znaczenie algorytmizacji oraz odpowiedzialnego wykorzystania AI nie tylko w kontekście ochrony człowieka, lecz także wpływu technologii na środowisko i planetę.

Deepfake jako zagrożenie systemowe – wyzwania dla państwa, rynku i społeczeństwa

W tej części Kongresu uczestnicy skupili się na zjawisku deepfake’ów i na jego rosnącej skali oraz konsekwencjach dla bezpieczeństwa państwa, rynku cyfrowego i praw jednostki, w szczególności dzieci i młodzieży. Dyskusja pokazała, że deepfake przestał być marginalnym problemem technologicznym, a stał się realnym narzędziem przestępczym, wykorzystywanym zarówno do osiągania zysków finansowych, jak i do przemocy rówieśniczej oraz seksualnej.

Prezes UODO Mirosław Wróblewski zwrócił uwagę, że – jak ujawniła agencja Reuters – „przeważająca część wpływów z reklam na świecie jest dziś generowana dzięki technologii deepfake”, co pokazuje skalę ekonomicznego wymiaru tego zjawiska. Podkreślił również, że deepfake coraz częściej dotyczy przemocy rówieśniczej, wskazując na niedawną sprawę uczennicy, której wizerunek został zmanipulowany przy użyciu narzędzi AI.

Rafał Brzoska, założyciel i CEO InPost, podkreślił, że deepfake to zorganizowana machina, która wykorzystuje wizerunek znanych osób, żeby zarabiać na reklamach, zaznaczając jednoznacznie, że jest to przestępstwo. W jego ocenie brak realnej odpowiedzialności platform cyfrowych stanowi poważne zagrożenie, a anonimowość w sieci nie może chronić osób łamiących prawo. Wskazał, że tam, gdzie istnieje autoryzacja użytkowników, zjawisko deepfake’ów praktycznie nie występuje, apelując o weryfikację treści jeszcze przed ich publikacją. Odnosząc się do odpowiedzialności globalnych platform, przywołał słowa z komiksu i filmu „Spiderman”: „With great power comes great responsibility”.

Katarzyna Staciwa, koordynatorka ds. badań i rozwoju w PKDP, zwróciła uwagę na szczególnie dramatyczny wymiar deepfake’ów w kontekście wykorzystania seksualnego dzieci. Jak podkreśliła, dziś jedno zdjęcie można przerobić w taki sposób, że uzyskuje się z niego ośmiosekundowy filmik, co pokazuje, jak niska jest bariera wejścia i jak ogromna jest skala zagrożenia. Jednocześnie wyraziła uznanie dla działań Prezesa UODO, podkreślając odwagę instytucjonalną potrzebną w ochronie małoletnich w środowisku cyfrowym.

Etyka, dane osobowe i nowe technologie w służbie zawodów zaufania publicznego. Szanse i ryzyka dla samorządów zawodowych i ich członków

Dyskusja w tym panelu dotyczyła wyzwań etycznych i prawnych związanych z wykorzystaniem nowych technologii w zawodach zaufania publicznego.

Paneliści podkreślili, że choć nowe technologie odgrywają coraz większą rolę w zawodach zaufania publicznego, to w centrum tych działań zawsze musi pozostawać człowiek. Nowoczesne narzędzia mogą wspierać wykonywanie zawodu, jednak odpowiedzialność za decyzje, zwłaszcza w przypadku lekarzy i prawników, nie może zostać całkowicie przeniesiona na systemy technologiczne, co ma bezpośredni związek z etyką zawodową.

- „Trudno oddzielić etykę od ochrony prywatności. A jeśli mówimy o danych osobowych, to w oczywisty sposób chronimy je o wiele skuteczniej, jeśli odwołujemy się do etyki.” - podkreśliła Monika Krasińska, dyrektor Departamentu Prawa i Nowych Technologii UODO.

Jak chronić prawa osób małoletnich w środowisku cyfrowym?

Panel ten poświęcony był aktualnym wyzwaniom związanym z ochroną dzieci i młodzieży w internecie. Uczestnicy dyskusji wskazywali, że w debacie publicznej coraz częściej pojawiają się tematy takie jak deepfake, cyberprzemoc, regulacje wynikające z DSA oraz postulaty podwyższania granicy wiekowej dla użytkowników mediów społecznościowych. Jednocześnie podkreślano, że prawo i edukacja często nie nadążają za tempem rozwoju technologii.

W dyskusji zwrócono uwagę na zmianę języka debaty – pojęcie „hejt” coraz częściej zastępowane jest terminem „cyberprzemoc”, co pozwala precyzyjniej opisywać zagrożenia i adekwatniej na nie reagować. Podkreślano również, że dzieci otrzymują dostęp do technologii wcześniej, niż są przygotowane na związane z nimi ryzyka, a rodzice często nie mają wystarczających narzędzi, by je w tym zakresie wspierać.

Posłanka Monika Rosa, przewodnicząca Sejmowej Komisji do Spraw Dzieci i Młodzieży, zaznaczyła, że jako społeczeństwo weszliśmy w świat cyfrowy z przekonaniem, iż rozwiąże on wiele problemów, a intensywne korzystanie z technologii przez dorosłych naturalnie przekłada się na zachowania dzieci.

- „Skuteczna ochrona małoletnich wymaga nie tylko regulacji prawnych, lecz także refleksji nad naszymi własnymi nawykami i odpowiedzialnością dorosłych” – zaznaczyła Monika Rosa.

W dyskusji podkreślono także potrzebę precyzyjnego nazywania czynów popełnianych wobec dzieci w sieci jako przestępstw oraz większej odpowiedzialności platform cyfrowych za projektowanie usług dostępnych dla małoletnich.

Nowe technologie w zatrudnieniu

Panel poświęcono relacji między kodeksem pracy, RODO i AI Act w kontekście wykorzystywania nowych technologii w zatrudnieniu. Dyskusja koncentrowała się na tym, jakie obowiązki spoczywają na pracodawcach, gdy sięgają po algorytmy i narzędzia oparte na sztucznej inteligencji, zarówno w rekrutacji, jak i w monitorowaniu pracy.

Dr hab. Marlena Sakowska-Baryła, prof. Uniwersytetu Łódzkiego i członkini Społecznego Zespołu Ekspertów przy Prezesie UODO podkreśliła, że algorytmy nigdy nie tworzą nowej rzeczywistości funkcjonującej poza prawem, jednak ich stosowanie generuje nowe problemy prawne. Zaznaczyła, że wykorzystywanie algorytmów w środowisku pracy powinno odbywać się z dużą ostrożnością, ponieważ wiąże się z wysokim ryzykiem. Wskazała również, że narzędzia oparte na nowych technologiach są często wdrażane bez należytego uwzględnienia obowiązujących regulacji prawnych.

Paneliści byli zgodni, że sztuczna inteligencja w zatrudnieniu powinna pełnić rolę wspierającą, a nie decyzyjną. Podstawowym obowiązkiem pracodawcy pozostaje rzetelna analiza ryzyka, wymagana zarówno przez RODO, jak i AI Act, niezależnie od tego, czy technologia dotyczy rekrutacji, oceny pracy czy kontroli w miejscu pracy.

Wykorzystanie AI a RODO w działalności polskich organizacji – wyzwania i potrzeby sektorowe

Panel otworzyła prezentacja „Raportu Strategicznego – Badanie potrzeb organizacji w zakresie wykorzystania sztucznej inteligencji i ochrony danych osobowych”, przygotowanego przez Społeczny Zespół Ekspertów przy Prezesie UODO. Z raportu wynika, że ponad 40 proc. badanych organizacji nie korzysta obecnie z rozwiązań opartych na AI, a największe wyzwania dotyczą stosowania przepisów prawa, zarządzania danymi oraz obaw etycznych i reputacyjnych.

Dr hab. Ireneusz Wochlik, członek Społecznego Zespołu Ekspertów przy Prezesie UODO, zwrócił uwagę, że tylko niewielka część organizacji faktycznie kontroluje dane wykorzystywane w procesach AI, co zwiększa ryzyko naruszeń.

Eliza Turkiewicz z Departamentu Rynku Cyfrowego w Konfederacji Lewiatan, podkreśliła potrzebę jasnej i zrozumiałej komunikacji oraz przygotowania klarownych wytycznych przez organy nadzorcze.

Technologie kwantowe – cyberbezpieczeństwo, ochrona prywatności i szanse rozwojowe dla Polski

Dyskusja w tej części Kongresu  była poświęcona wpływowi technologii kwantowych na bezpieczeństwo danych i ochronę prywatności.

Prof. dr hab. Michał Tomza podkreślił, że technologie kwantowe nie oznaczają jedynie większej szybkości obliczeń, lecz zupełnie nowe możliwości, w tym potencjał do dekryptażu danych zabezpieczonych tradycyjnymi metodami szyfrowania.

Podczas panelu wskazywano, że zagrożenia związane z rozwojem technologii kwantowych są realne i mogą się zmaterializować w perspektywie najbliższych lat, obejmując nie tylko klasyczną kryptografię, ale także rozwiązania oparte na blockchainie. Jednocześnie podkreślono, że kryptografia kwantowa daje nowe, bardzo wysokie standardy bezpieczeństwa, oparte na unikalnym modelu komunikacji.

Cyfrowy EHDS

Panel poświęcono Europejskiej Przestrzeni Danych o Zdrowiu (EHDS) jako nowemu modelowi wymiany danych medycznych. Omówiono jego znaczenie dla systemu ochrony zdrowia, innowacji oraz ochrony prywatności pacjentów.

Zwrócono uwagę na etyczny wymiar ochrony danych oraz potrzebę zapewnienia pacjentom realnego poczucia bezpieczeństwa w systemie ochrony zdrowia.

Aneta Sieradzka, członkini Społecznego Zespołu Ekspertów przy Prezesie UODO, podkreśliła, że „pacjenci są dawcami danych osobowych”, a kluczowe znaczenie ma autonomia pacjenta oraz jasne zasady przetwarzania danych, szczególnie genetycznych.

Wskazano również, że EHDS może usprawnić dostęp do danych i obniżyć koszty systemowe, pod warunkiem prowadzenia otwartej dyskusji i budowania zaufania społecznego.

Ochrona danych w dobie cyberprzestępczości

Podczas panelu dr inż. Radosław Nielek, dyrektor NASK, wskazał na gwałtowny wzrost skali cyberincydentów, podkreślając, że w ubiegłym roku do NASK trafiło ponad 650 tys. zgłoszeń dotyczących m.in. prób oszustw finansowych i phishingu, często prowadzonych za pośrednictwem platform internetowych.

Uczestnicy podkreślili, że skuteczna ochrona danych wymaga nie tylko rozwoju infrastruktury technicznej, ale przede wszystkim podnoszenia kompetencji cyfrowych i świadomości użytkowników. Wskazywano również na zagrożenia związane z atakami ransomware, w tym kradzieżą, szyfrowaniem danych i szantażowaniem administratorów, a także na ryzyka wynikające z niekontrolowanego wykorzystywania narzędzi opartych na sztucznej inteligencji w organizacjach.

Zaznaczono, że działania podejmowane w celu zapewnienia cyberbezpieczeństwa muszą uwzględniać różne podstawy prawne przetwarzania danych osobowych, w tym szczególne regulacje dotyczące bezpieczeństwa państwa, przy jednoczesnym poszanowaniu praw osób, których dane dotyczą.

Cyberincydenty a naruszenia ochrony danych osobowych

W tym panelu Andrzej Zieliński, naczelnik w Departamencie Kontroli i Naruszeń w UODO, przedstawił przykłady ataków phishingowych, którymi zajmował się Urząd, zwracając uwagę m.in. na znaczenie uwierzytelniania wieloskładnikowego. Zaznaczył też, że każdy system jest tak słaby, jak jego najstarsza aktualizacja.

Dyskutowano również o obowiązku informowania osób dotkniętych naruszeniem, podkreślając konieczność dostosowania komunikatu do odbiorcy, w tym do dzieci. Omówiono także rozwiązania systemowe, które w jednym miejscu za pośrednictwem systemu S46 umożliwią za zgłaszanie do Prezesa Urzędu naruszenia ochrony danych osobowych przez podmioty objęte krajowym systemem cyberbezpieczeństwa, które używają tego systemu.

Inteligentne miasta

Panel poświęcono wyzwaniom związanym z cyberbezpieczeństwem infrastruktury miejskiej, w szczególności w kontekście ograniczeń finansowych czy potrzeb kompetencyjnych z obszaru IT. Podkreślono, że te czynniki mają bezpośredni wpływ na poziom bezpieczeństwa systemów wykorzystywanych w miastach.

Zwrócono uwagę, że ataki na infrastrukturę krytyczną – taką jak zakłady komunikacyjne czy wodociągowe – mogą nie tylko sparaliżować funkcjonowanie miast, ale również stanowić realne zagrożenie dla zdrowia i życia mieszkańców. Jak wskazał dr hab. Dariusz Szostek, prof. Uniwersytetu Śląskiego, dyrektor Międzyuczelnianego Centrum Cyber Science, atak prowadzący do wycieku danych jest mniej niebezpieczny niż ingerencja cyberprzestępców w systemy wodociągowe, mogąca skutkować skażeniem wody.

Paneliści podkreślili także, że mimo trudności organizacyjnych i finansowych samorządy od dłuższego czasu przygotowują się do wdrożenia dyrektywy NIS2.

Deregulacja – szanse i wyzwania dla ochrony danych

Rozmowa skupiła się na propozycjach deregulacyjnych istniejących rozwiązań prawnych oraz ich konsekwencjach dla systemu ochrony danych osobowych. Uczestnicy tej debaty zastanawiali się nad tym, czy proponowane przepisy są adekwatne, odpowiadają na obecne wyzwania, czy wprowadzają one ułatwienia, nie obniżając przy tym praw jednostki.

Anna Korzecka, zastępczyni dyrektora Departamentu Prawa i Nowych Technologii UODO, podkreśliła, że ograniczanie wymogów prawnych musi respektować reguły już wypracowane, w tym orzecznictwo Trybunału Sprawiedliwości UE. Zwróciła również uwagę, że art. 23 RODO dopuszcza możliwość wprowadzania określonych ograniczeń w prawie krajowym, ale nie pozwala na całkowite wyłączanie stosowania przepisów rozporządzenia.

Paneliści rozważali również to, czy deregulacja w obszarze istniejących przepisów dotyczących ochrony danych osobowych, jak i metody jej przeprowadzania, nie przełożą się jednak na większe komplikacje w stosowaniu prawa.

Kompetencje przyszłości

W tej części uczestnicy Kongresu mieli okazję wysłuchać wykładu dr. Pawła Kowalskiego, radcy prawnego i Pełnomocnik Prezesa KRRP do spraw nowych technologii, który przedstawił praktyczne wskazówki dotyczące rozwijania kompetencji przyszłości, w szczególności w zawodach prawniczych, w kontekście korzystania z narzędzi sztucznej inteligencji. Podkreślił, że transformacja technologiczna jest nieunikniona, a umiejętne wykorzystywanie AI staje się elementem przewagi konkurencyjnej.

- „AI nie zastąpi prawników, ale prawnicy korzystający z AI zastąpią tych, którzy tego nie robią” – stwierdził dr Paweł Kowalski.

Ochrona danych osobowych w Kościołach i innych związkach wyznaniowych w epoce cyberzagrożeń i sztucznej inteligencji

Panel ten poświęcony był omówieniu m.in. wyzwań z jakimi mierzą się Kościoły, związki wyznaniowe i wierni w kontekście cyberzagrożeń i rozwoju sztucznej inteligencji.

Dr Jakub Kwaśnik, Inspektor Ochrony Danych Archidiecezji Krakowskiej omówił konkretne przykłady cyberakatków np. na parafie czy działania phishiongowe wymierzone w wiernych.

Podejście Kościoła do sztucznej inteligencji i nowych technologii przedstawił ks. prof. Piotr Kroczek, Kościelny Inspektor Ochrony Danych. Zaprezentował przy tym konkretne rozwiązania oparte o AI, z których już dziś korzysta Kościół.

Jakub Groszkowski, Główny Koordynator ds. Ochrony Danych w Kościołach i Związkach Wyznaniowych w UODO przedstawił prezentację poświęconą pozycji i umocowaniu Prezesa Urzędu Ochrony Danych Osobowych w polskim porządku prawnym. Omówił zakres kompetencji organu nadzorczego, rodzaje prowadzonych postępowań oraz działania podejmowane na podstawie art. 91 RODO.

Wskazał również na praktyczny wymiar współpracy UODO z Kościołami i innymi związkami wyznaniowymi, w tym porozumienia dotyczące wymiany informacji, działań edukacyjnych i szkoleniowych oraz inicjatywy wzmacniające rolę inspektorów ochrony danych osobowych.

Uroczystość wręczenia Nagrody im. Michała Serzyckiego

Ostatnim punktem Kongresu Ochrony Danych i Nowych Technologii było wręczenie nagrody im. Michała Serzyckiego. Nagrody wręczyli Mirosław Wróblewski, prezes UODO oraz Włodzimierz Chróścik, prezes Krajowej Rady Radców Prawnych.

W tym roku uhonorowani za wybitne zaangażowanie w ochronę danych osobowych, prawo do prywatności oraz działania edukacyjne i eksperckie na rzecz podnoszenia świadomości społecznej zostali:

Magdalena Bigaj, Prezeska Fundacji Instytut Cyfrowego Obywatelstwa, której działalność ekspercka i społeczna w istotny sposób przyczynia się do zwiększania świadomości zagrożeń, jakie dla najmłodszych użytkowników niosą nowe technologie, w tym m.in. niekontrolowane gromadzenie danych osobowych;

Prof. Paweł Fajgielski z Katolickiego Uniwersytetu Lubelskiego, którego działalność naukowa stanowi trwały wkład w rozwój prawa, rozwój standardów ochrony danych osobowych w Polsce;

Prof. Grażyna Szpor z Uniwersytetu Kardynała Stefana Wyszyńskiego, która należy do grona najwybitniejszych polskich prawników specjalizujących się w szeroko rozumianym prawie informatycznym. Dorobek naukowy prof. Grażyny Szpor obejmuje ponad 200 publikacji poświęconych zagadnieniom prawa informatycznego, e-administracji, cyberbezpieczeństwa oraz ochrony danych osobowych.

Nagrodę im. Michała Serzyckiego otrzymały także redakcje: Niebezpiecznik.pl, CyberDefence24.pl oraz Sekurak.pl.

Redakcje tych serwisów każdego dnia upowszechniają wiedzę na temat cyberbezpieczeństwa, ochrony danych osobowych i bezpieczeństwa państwa.

Kongres Ochrony Danych i Nowych Technologii potwierdził, że ochrona danych osobowych pozostaje fundamentem rozwoju technologii cyfrowych - od sztucznej inteligencji, przez cyberbezpieczeństwo, po nowe modele zarządzania danymi - a głównym wyzwaniem jest dziś spójność regulacyjna i odpowiedzialne wdrażanie innowacji.

Podmiot udostępniający: Departament Komunikacji Społecznej
Wytworzył informację:
user Łukasz Kuligowski
date 2026-01-28
Wprowadził informację:
user Łukasz Kuligowski
date 2026-01-28 23:01:34
Ostatnio modyfikował:
user Łukasz Kuligowski
date 2026-01-29 10:35:08