Wielomiesięczne wysiłki Komisji ds. Komunikacji i Cyfryzacji Izby Lordów, doprowadziły do stworzenia raportu, który oceniałby strategię rządu Wielkiej Brytanii, względem bezpieczeństwa AI. Dokument powstał w ramach konsultacji z dużymi firmami technologicznymi, inwestorami i środowiskiem akademickim. 

Raport zaznacza, że rząd powinien głównie koncentrować się na krótkoterminowych zagrożeniach dla społeczeństwa, skupiając się na realnych problemach, które generują LLM. Należą do nich kwestie ochronny praw autorskich i rosnącej dezinformacji w przestrzeni Internetowej. Natomiast rząd skupia się bardziej na problemach długofalowych, takich jak dehumanizacja systemu edukacji co zdaniem raportu jest przesadzone.

Oświadczenie przewodniczącego Komisji Komunikacji i Cyfryzacji Baroness'a Stowell'a.

- Szybki rozwój modeli wielkojęzycznych AI prawdopodobnie będzie miał głęboki wpływ na społeczeństwo, porównywalny z wprowadzeniem Internetu - co sprawia, że ważne jest, aby rząd miał właściwe podejście i nie przegapił okazji, zwłaszcza jeśli jest to z ostrożności w przypadku dalekich i nieprawdopodobnych zagrożeń. Musimy zająć się ryzykiem, aby móc skorzystać z możliwości - ale musimy być proporcjonalni i praktyczni. Musimy uniknąć, aby Wielka Brytania przegapiła potencjalną gorączkę złota AI.

Dynamika konkurencji AI

Raport przede wszystkim wzywa rząd do stworzenia konkurencji rynkowej, aby uchronić się przed przejęciem regulacyjnym ze strony OpenAI i Google. Dynamika konkurencji będzie miała kluczowe znaczenie dla tego, jaki nadzór regulacyjny zostanie ostatecznie wdrożony. Raport uznaje, że rząd w tej kwestii powinien podjąć działania zróżnicowane i iteracyjne. W obecnym świecie to dostawcy AI bardziej wpływają na regulację, sztucznej inteligencji niż państwa same w sobie. Dlatego rząd Wielkiej Brytanii powinien bardziej reagować w kwestii regulacji AI w swoim kraju.

Przerysowane problemy 

Debata na temat bezpieczeństwa i zagrożeń wynikających z AI została zdominowana przez narrację skupioną na katastroficznych wizjach. Raport zaznacza, że obawy rządu wobec sztucznej inteligencji są przesadzone i mają na celu odwracanie uwagi od istotniejszych problemów.

Podsumowanie raportu

Jest prawie pewne, że ryzyko egzystencjalne nie zamanifestuje się w ciągu trzech lat i najprawdopodobniej nie w ciągu następnej dekady. W miarę jak nasze zrozumienie tej technologii rośnie, a odpowiedzialny rozwój rośnie, mamy nadzieję, że obawy dotyczące ryzyka egzystencjalnego zmaleją. Rząd zachowuje obowiązek monitorowania wszystkich ewentualności - ale nie może to odwracać jego uwagi od wykorzystania możliwości i zajęcia się bardziej ograniczonymi bezpośrednimi zagrożeniami.

Raport zwraca raczej uwagę na bardziej przyziemne zagrożenia wynikające z udziału AI. Mówi o rozpowszechnianiu za jej pomocą "deepfake-ów" oraz o tworzeniu treści niebezpiecznych i gorszących.

Zaznacza raport

Narodowe Centrum Cyberbezpieczeństwa ocenia, że duże modele językowe będą 'prawie na pewno wykorzystywane do generowania sfabrykowanych treści; że hiperrealistyczne boty ułatwią rozprzestrzenianie się dezinformacji; i że kampanie deepfake prawdopodobnie staną się bardziej zaawansowane w okresie poprzedzającym kolejne ogólnokrajowe głosowanie, które ma się odbyć do stycznia 2025 r.

Według raportu wykorzystanie LLM nie wiąże się z poważnym egzystencjalnym ryzykiem. Dlatego nawołuje rząd Wielkie Brytanii do zrównoważenia strategii względem obecnych zagrożeń.

Kończy raport

Rząd skupił się zbyt daleko w kierunku wąskiego spojrzenia na bezpieczeństwo AI. Musi zrównoważyć, w przeciwnym razie nie wykorzysta możliwości LLM, nie zostanie w tyle za międzynarodowymi konkurentami i stanie się strategicznie zależny od zagranicznych firm technologicznych w zakresie krytycznej technologii.