OpenAI wydało oświadczenie, w którym potwierdziło, że program ponownie jest dostępny we Włoszech i naprawiono błąd, który umożliwił użytkownikom przeglądanie tytułów z historii chatów innych użytkowników. Tymczasem ustawodawcy z Unii Europejskiej pracują nad regulacjami, które mają na celu monitorowanie rozwoju sztucznej inteligencji i sklasyfikowanie narzędzi AI zgodnie z poziomami ryzyka.
Włoskie władze wcześniej tymczasowo zablokowały ChatGPT[1], sztuczną inteligencję stworzoną przez OpenAI, ponieważ organ nadzorujący rynek danych osobowych uznał, że działanie programu naruszało przepisy RODO dotyczące ochrony danych osobowych. Decyzja ta wywołała wiele pytań o przyszłość ChatGPT we Włoszech.
Jednakże, już kilka dni później, dyrektor generalny OpenAI, Sam Altman, ogłosił na Twitterze, że ChatGPT jest „ponownie dostępny we Włoszech”. Co istotne, media informują, że ponowne uruchomienie programu zostało uzyskane dzięki wprowadzeniu przez OpenAI zmian w sposobie przetwarzania danych oraz wdrożeniu systemu kontroli wieku, który ma zapobiegać korzystaniu z aplikacji przez osoby poniżej 13 lat.
Z kolei włoski regulator, który zablokował ChatGPT, wyjaśnił, że decyzja o wprowadzeniu tymczasowego zakazu była wynikiem naruszenia przez OpenAI przepisów dotyczących ochrony danych osobowych. Firma miała w marcu 2022 r. stwierdzić, że program zawierał błędy, które umożliwiały użytkownikom ChatGPT wgląd w historię rozmów innych użytkowników. OpenAI potwierdziło wówczas, że naprawiło błąd w bibliotece open source, który pozwalał niektórym użytkownikom przeglądać tytuły z historii chatów innych użytkowników.
Również OpenAI zwróciło uwagę na problem prywatności użytkowników. Według firmy, 1,2% użytkowników ChatGPT Plus mogło ujawnić dane osobowe innemu użytkownikowi. Firma przeprosiła za incydent i podkreśliła, że podjęła działania w celu poprawienia prywatności użytkowników.
W tle działań włoskich władz i OpenAI są też unijne regulacje dotyczące sztucznej inteligencji, nad którymi pracują ustawodawcy Unii Europejskiej. Projekt ustawy ma umożliwić monitorowanie rozwoju sztucznej inteligencji i sklasyfikowanie narzędzi AI zgodnie z poziomami ryzyka na podstawie ich możliwości. Narzędzia wysokiego ryzyka nie zostaną zakazane, ale będą podlegać surowym wymogom prawnym. W ten sposób UE chce zabezpieczyć dane osobowe i prywatność użytkowników przed nadużyciami związanymi z rozwojem sztucznej inteligencji.