Prezes Urzędu Ochrony Danych Osobowych, Mirosław Wróblewski, zabrał głos w sprawie projektu „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku”. W przesłanych Ministerstwu Cyfryzacji uwagach UODO apeluje o wzmocnienie zapisów dotyczących ochrony danych osobowych oraz dostosowanie polityki AI do standardów unijnych. Dla managerów CX[1] i liderów cyfrowej transformacji to istotny sygnał: rozwój nowoczesnych technologii wymaga równie ambitnego podejścia do zarządzania ryzykiem prywatności i przejrzystością.
Kontekst sektorowy zamiast ogólnych zapisów
W ocenie UODO obecne założenia dokumentu są zbyt ogólnikowe, a podejście do bezpieczeństwa danych – niewystarczające. Prezes urzędu podkreśla, że skuteczna ochrona prywatności w kontekście AI wymaga rozróżnienia kontekstu sektorowego. Inne wyzwania stoją bowiem przed sztuczną inteligencją w obszarze edukacji, inne w zdrowiu, a jeszcze inne w administracji publicznej czy infrastrukturze krytycznej.
Z tego powodu polityka AI powinna obejmować nie tylko horyzontalne ramy, ale także konkretne rozwiązania dla poszczególnych sektorów, zgodne z zasadami konstytucyjnymi oraz przepisami unijnymi – w szczególności RODO, AI Act i Konwencją 108+.
Podstawy prawne i ocena skutków dla praw jednostki
UODO zwraca uwagę, że zanim państwo zacznie wdrażać systemy sztucznej inteligencji, zwłaszcza w administracji publicznej, należy przeprowadzić dokładny przegląd obowiązujących przepisów i stworzyć jasne podstawy prawne. Powinno to dotyczyć również sektora zdrowia i wymiaru sprawiedliwości, gdzie AI może przetwarzać dane wyjątkowo wrażliwe – biometryczne, genetyczne czy dotyczące karalności.
Zanim powstaną nowe regulacje, należy przeprowadzić ocenę skutków planowanych rozwiązań dla praw podstawowych. Takie podejście nie tylko zwiększa przejrzystość, ale też zapewnia społeczną akceptację technologii, co ma szczególne znaczenie w relacjach z obywatelami.
Rejestr AI w administracji – ważny krok ku przejrzystości
Jako pozytywny element dokumentu UODO wskazuje zapowiedź utworzenia publicznie dostępnego rejestru systemów AI wykorzystywanych przez administrację. Jednak, jak zaznacza prezes urzędu, sam wykaz parametrów technicznych i funkcji to za mało. Lista powinna zawierać także informacje o celu stosowania systemu, jego działaniach i konsekwencjach tych działań. Takie podejście ma na celu nie tylko kontrolę społeczną, ale również zbudowanie zaufania do wykorzystania AI przez sektor publiczny.
Rola Prezesa UODO i nowe wyzwania edukacyjne
W wystąpieniu UODO domaga się również doprecyzowania roli Prezesa Urzędu jako niezależnego organu ochrony prywatności w procesach wdrażania i nadzorowania sztucznej inteligencji. Zdaniem urzędu niezbędne jest również uwzględnienie ryzyk związanych z otwartymi danymi i pseudonimizacją oraz przyjęcie jasnych zasad klasyfikacji danych według poziomu ich wrażliwości.
Ważnym postulatem jest także rozwój działań edukacyjnych i kompetencyjnych. Edukacja w zakresie AI i ochrony danych powinna objąć wszystkich obywateli, niezależnie od wykorzystywanych technologii czy dostawców platform – także poza ekosystemami BigTech.
Wnioski dla praktyki zarządzania CX i danymi
Uwagi UODO do projektu polityki AI nie są jedynie głosem regulatora – to również konkretne wytyczne dla firm, które planują wdrażać rozwiązania z zakresu sztucznej inteligencji w obsłudze klienta, automatyzacji procesów czy analityce danych. Wymogi prawne, zwłaszcza w sektorach takich jak zdrowie, edukacja czy administracja, będą coraz bardziej restrykcyjne.
W tym kontekście managerowie CX powinni nie tylko śledzić zmiany legislacyjne, ale również budować strategie AI w oparciu o zgodność z zasadami prywatności, przejrzystości i etyki. Przyszłość sztucznej inteligencji w Polsce będzie zależała nie tylko od tempa wdrożeń, ale przede wszystkim od ich odpowiedzialności.
Na podst. inf. UODO