Sztuczna inteligencja już od jakiegoś czasu wzbudza częste obawy. W wielu przypadkach usprawnia ona życie zawodowe, ochronę zdrowia, czy obsługę klienta. Jednakże często bywa ona wykorzystywana również do niestosownych celów jak: oszustwa, szerzenie propagandy, czy zakłócanie przebiegu wyborów. Dlatego w ubiegłym dniu aż 18 państw zdecydowało się na podpisanie pierwszego międzynarodowego porozumienia o ochronie AI.
Porozumienie spisane na 20-stronach dotyczy kwestii ochrony sztucznej inteligencji przed hakerami. Dokument zawiera również rekomendację dla firm, aby swoje modele udostępniały tylko po wykonaniu odpowiednich testów bezpieczeństwa. Porozumienie w swoim zapisie nie porusza również drażliwych tematów, takich jak sposoby gromadzenia danych przez AI.
Czas na zmiany w bezpieczeństwie AI…
Porozumienie nie ma charakteru wiążącego. Zawiera ono tylko ogólne zalecenia, monitorowania systemów AI, a także tworzenia zabezpieczeń umożliwiających ochronę danych osobowych klientów. Jednakże Jen Easterly dyrektor amerykańskiej Agencji ds. Cyberbezpieczeństwa zachęca państwa do stawiania ochrony AI na 1 miejscu.
– Po raz pierwszy spotkaliśmy się z potwierdzeniem, że te możliwości nie powinny dotyczyć tylko ciekawych funkcji i tego, jak szybko możemy je wprowadzić na rynek lub jak możemy konkurować, aby obniżyć koszty. Zgoda, że najważniejszą rzeczą, którą należy zrobić na etapie projektowania, jest bezpieczeństwo – mówi Jen.
Porozumienie oprócz USA i Wielkiej Brytanii podpisały również takie kraje jak: Niemcy, Czechy, Australia, oraz Polska.