Poszczególne przepisy będą jednak wprowadzane etapami, a najbliższy termin obowiązywania kluczowych przepisów to 2 lutego 2025 r., kiedy to wejdą w życie regulacje dotyczące praktyk zakazanych.

Różne poziomy regulacji dla różnych zastosowań AI

AI Act nakłada na deweloperów sztucznej inteligencji różnorodne obowiązki w zależności od ryzyka związanego z konkretnymi przypadkami użycia. Większość zastosowań AI, uznanych za niskiego ryzyka, pozostanie bez większych zmian regulacyjnych. Jednakże, pewne przypadki użycia, zwłaszcza te o wysokim ryzyku, będą podlegać surowym regulacjom lub zostaną całkowicie zakazane.

Przypadki wysokiego ryzyka

Za przypadki wysokiego ryzyka uznano m.in. biometryczne zastosowania sztucznej inteligencji oraz AI wykorzystywaną w egzekwowaniu prawa, zatrudnieniu, edukacji i infrastrukturze krytycznej. Twórcy takich aplikacji będą musieli spełnić szereg wymagań, takich jak zapewnienie wysokiej jakości danych oraz przeciwdziałanie uprzedzeniom.

Zakazy w ramach AI Act

Pierwsza faza AI Act, dotycząca praktyk zakazanych, obejmie zakazy dotyczące wykorzystywania systemów identyfikacji biometrycznej przez organy ścigania (z pewnymi wyjątkami), stosowania scoringu społecznego przez państwa członkowskie, oraz wdrażania sztucznej inteligencji, która mogłaby manipulować użytkownikami z określonych, bardziej narażonych grup społecznych.

Regulacje dla generatywnej AI

Rozporządzenie obejmuje również generatywną sztuczną inteligencję, która nie została zakwalifikowana jako system wysokiego ryzyka. Jednakże, zastosowanie rozwiązań takich jak ChatGPT będzie wymagało spełnienia pewnych wymogów związanych z przejrzystością oraz ochroną praw autorskich osób trzecich.

Porównania do RODO

AI Act może być porównywany do RODO (Ogólne rozporządzenie o ochronie danych) pod względem szerokości zakresu stosowania. Regulacje nie są ograniczone do konkretnej branży ani rodzaju usług, ale obejmują wszystkie firmy, instytucje i organizacje wykorzystujące sztuczną inteligencję w swojej działalności.