Urząd Ochrony Danych Osobowych (UODO) w Polsce wszczął postępowanie przeciwko OpenAI, twórcom ChatGPT[1], w celu wyjaśnienia, w jaki sposób narzędzie to przetwarza dane osobowe użytkowników. Postępowanie to jest odpowiedzią na skargę użytkownika, który zwrócił się do ChatGPT z prośbą o wyjaśnienie, jakie informacje na jego temat posiada. Spółka OpenAI nie odpowiedziała jednak na to zapytanie, co wywołało obawy dotyczące transparentności przetwarzania danych.
ChatGPT, który “nauczył się” znacznej części informacji dostępnych w Internecie do 2021 roku, a obecnie aktualizuje swoją wiedzę o dane z 2022 roku, budzi ciekawość wielu osób co do zakresu swojej wiedzy o nich. Jednak w świetle niedawnej skargi, pojawiają się pytania o prawdziwość generowanych przez niego informacji i o to, czy użytkownicy mają prawo do sprostowania ewentualnie błędnych danych.
Wiceprezes UODO, Jakub Groszkowski, podkreśla, że ochrona danych w kontekście dynamicznego rozwoju technologii AI jest wyzwaniem wymagającym. Wyznacza to potrzebę uregulowania kwestii prawnych związanych z SI, przy jednoczesnym poszanowaniu etyki i godności ludzkiej.
Podobne problemy dotyczące ChatGPT napotkał również włoski odpowiednik UODO, który na początku roku tymczasowo zablokował korzystanie z usługi z powodu obaw o nielegalne zbieranie danych użytkowników. Spółka OpenAI zareagowała, wprowadzając zmiany, w tym formularz do usuwania danych dla użytkowników z UE i zobowiązanie się do weryfikacji wieku włoskich użytkowników.
Prawnicy zwracają uwagę na trudności związane z aplikacją RODO w kontekście działania ChatGPT, zwłaszcza w kwestii obowiązku informacyjnego i prawa do bycia zapomnianym. ChatGPT generuje treści na bieżąco, często samodzielnie wypełniając luki w informacjach, co utrudnia sprostowanie danych i realizację prawa do bycia zapomnianym, szczególnie gdy dane są powszechnie dostępne w przestrzeni publicznej.
Sprawa, którą bada UODO, może być przełomowa dla zrozumienia, w jaki sposób nowe technologie, takie jak ChatGPT, powinny być regulowane w kontekście ochrony danych osobowych. Wynik tego postępowania może wpłynąć na przyszłe zasady dotyczące przetwarzania danych przez AI i określić nowe standardy dla branży.