Korzystanie z internetu tak samo jak wykorzystywanie sztucznej inteligencji stwarza z każdą sekundą nowe możliwości. Z założenia ma ułatwiać ludziom życie, usprawniać procesy, optymalizować koszty, pozwalać pracownikom zająć się bardziej kreatywnymi zadaniami, a nawet poprawić bezpieczeństwo. Szczególnie ten ostatni punkt jest najbardziej newralgiczny.
AI daje nam pole manewru w kwestii ochrony danych osobowych, prywatności i poufności. Z drugiej strony ile korzyści tyle również zagrożeń. Sam scenariusz, rodem science fiction, zakładający, że nowa technologia doprowadzi nas do zagłady, jest na ten moment raczej bardzo odległy. Nie ulega jednak wątpliwości, że AI może być wykorzystane do naruszenia prywatności i inwigilacji. Niebezpieczeństw jest więcej – chociażby słynny deepfake – czyli manipulowanie obrazem za pomocą AI. Za pomocą tego środka możemy wyłudzić dane czy manipulować opinią publiczną. Zasadne się zatem wydaje zwiększanie wydatków na edukację, poprawę zabezpieczeń, czy pomoc startup’om.
Inicjatywa Google AI Cyber Defence jako recepta na powstające zagrożenia
Jak podaje serwis ITReseller podczas Monachijskiej Konferencji Bezpieczeństwa Google poinformował o AI Cyber Defense Initiative. Wśród najważniejszych założeń należy wymienić: inwestycje w bezpieczeństwo, pomoc startup’om, podnoszenie kwalifikacji oraz dostarczanie narzędzi innym użytkownikom sztucznej inteligencji. Główną intencją firmy jest to, by AI generował więcej szans do zwalczania ataków hakerskich niż generował takich możliwości. W dokumencie “Secure, Empower, Advance: How AI Can Reverse the Defender’s Dilemma” podkreśla się również o konieczności wprowadzenia szeregu zmian w prawodawstwie. Podobnie jak to kiedyś miało miejsce z kryptowalutami, dzisiaj coraz to kolejne rządy zapowiadają specustawy dotyczące sztucznej inteligencji. Google zaznaczył również, że będzie się koncentrować transatlantyckiego systemu bezpieczeństwa. Przekładając powyższe tezy na liczby – Google planuje zainwestować 5 miliardów w najbliższym czasie w centra danych w Unii Europejskiej. Co więcej przewidziane są granty naukowe i wielomilionowe dotacje dla swoich mniejszych partnerów. Wśród uczestników programów Google’a znalazła się m.in. polska firma Authologic. Zajmuje się ona rozwojem narzędzi sprawdzających tożsamości.
To od nas – ludzi – będzie zależeć, czy użyjemy AI do poprawiania m.in. jakości obsługi, czy rozwoju zagrożeń. Miejmy nadzieję, że trend ten zostanie podtrzymany i będziemy rozwijać debatę o wykorzystaniu AI w bezpieczeństwie.