Zaloguj się na konto

Jako zarejestrowany użytkownik masz dostęp do dodatkowych materiałów: nagrań video, recenzji, analiz oraz raportów.

Słownik branżowy

speaker recognition

(inaczej voiceprint) to biometryczna technika identyfikacji osoby poprzez analizę jej charakterystycznych cech głosu, takich jak ton, tempo, intonacja, dykcja, czy też inne właściwości akustyczne. Technologia ta działa na podobnej zasadzie jak odciski palców, czy DNA, pozwalając na stworzenie unikalnego profilu mówcy, który może być użyty do identyfikacji, weryfikacji lub autoryzacji danej osoby. Voiceprint stosowany jest między innymi w systemach bezpieczeństwa, bankowości elektronicznej, czy centach obsługi klienta, a także w wywiadzie i służbach specjalnych.

ZGŁOŚ TEMAT

Daj nam CYNK :)

Czy prawo ochroni nas przed sztuczną inteligencją?

W czerwcu Parlament Europejski przegłosował regulacje związane ze sztuczną inteligencją, tzw. AI Act. Wiele osób zastanawia się teraz, czy dokument ten realnie chroni nas przed zagrożeniami AI? Czy jego twórcy pominęli istotne kwestie w zakresie m.in. cyberbezpieczeństwa, które szybko odczuje także rynek tradycyjnego biznesu?

Najważniejszą częścią AI Act są kategorie ryzyka związane ze stosowaniem sztucznej inteligencji – minimalne, ograniczone, wysokie oraz niedopuszczalne. Szczególne znaczenie dla rozwoju systemów AI mają dwie ostatnie. Kategoria „wysokiego ryzyka” dotyczy sytuacji, w której sztuczna inteligencja może mieć negatywny wpływ na bezpieczeństwo osób i państw (w tym bezpieczeństwo militarne) oraz prawa człowieka i jego wolności.

– Systemy wysokiego ryzyka mogą mieć krytyczny wpływ między innymi na ludzkie życie i zdrowie. Chodzi o modele do tworzenia recept czy dobierania lekarstw. Konsekwencje tego typu aktywności AI mogą być poważne. Dlatego tego rodzaju systemy z kategorii wysokiego ryzyka mają znaleźć się pod szczególną zewnętrzną kontrolą – mówi Maksymilian Arciemowicz, ekspert ds. cyberbezpieczeństwa oraz biznesowego wykorzystania sztucznej inteligencji w Capgemini Polska.

Niedopuszczalne ryzyko – zakaz w Unii Europejskiej

Z punktu widzenia bezpieczeństwa najważniejsza w AI Act jest kategoria „niedopuszczalne ryzyko”. Systemy AI przyporządkowane do tej kategorii mają być całkowicie zakazane w Unii Europejskiej. Chodzi o wyjątkowo wrażliwe dane, które mogą być wykorzystane do nadużyć w sferze bezpieczeństwa i praw obywateli. Twórcy AI Act uznali, że poznawczo-behawioralne manipulowanie ludźmi, scoring[1] (klasyfikowanie ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych), a także skanowanie twarzy w czasie rzeczywistym, są niedopuszczalną aktywnością sztucznej inteligencji. W tym ostatnim przypadku unijni urzędnicy zapowiadają pewne odstępstwa, związane głównie ze ściganiem przestępstw.

– Skanowanie twarzy jest złożonym problemem. Jeśli chodzi o ochronę prywatności to sprawa jest oczywista. Ale musimy jeszcze uwzględnić sferę bezpieczeństwa związaną z terroryzmem i walką z nim. Poza tym, dzisiaj nie tylko twarz czy tęczówka oka są zabezpieczeniem prywatności. Również chód, a nawet budowa ucha jest rozważana przez ekspertów od bezpieczeństwa jako czynnik biometryczny – komentuje Maksymilian Arciemowicz

Czego najbardziej obawiają się eksperci i ekspertki ds. bezpieczeństwa?

Najważniejszym zagadnieniem, na które zwracają uwagę osoby specjalizujące się w cyberbezpieczeństwie to sposób przetwarzania danych, które dostarczamy systemom sztucznej inteligencji. Podczas wykorzystywania narzędzi AI często wprowadzamy informacje, które są bardzo indywidualne – dotyczą naszego zawodu, biznesu, rodziny, stylu życia. Z jednej strony są naszym wkładem w rozwój tej technologii, a z drugiej strony dostarczają dane, które można wykorzystać w przeciwko nam. Osoby pracujące ze sztuczną inteligencją uważają, że AI Act nie bierze pod uwagę takiego zagrożenia naszego bezpieczeństwa.

– Konieczność szybkiego przetłumaczenia umowy z kontrahentem lub innych dokumentów firmowych zmusi nas kiedyś do skorzystania z narzędzia AI. Wszystkie dane zawarte w tych dokumentach nagle znajdą się na nieznanych nam serwerach. To prosta droga do skopiowania modelu biznesowego. Tego nie reguluje jeszcze ustawa, co sprawi, że wielu inwestorów ma ograniczone zaufanie do AI – wyjaśnia Maksymilian Arciemowicz – W Capgemini mamy bardzo jasny przekaz, jeśli chodzi o AI: obowiązuje nas transparentność. Jeżeli pracujesz jako deweloper czy deweloperka, to decyzji o tym, czy korzystać ze sztucznej inteligencji, czy nie, nie możesz podjąć samodzielnie. Na to musi zgodzić się klient. Nikt z nas nie wie, gdzie znajdą się dane, które wprowadzamy – dodaje.

To będzie rewolucja w cyberbezpieczeństwie

AI Act nie przewidziało rewolucji w cyberbezpieczeństwie, którą niesie ze sobą sztuczna inteligencja. Ta rewolucja jest dopiero przed nami i będzie miała potężny wpływ na całą branżę, także z obszaru przestępczego. Przykładem może być początkujący haker, który posiada już jakąś wiedzę, jak i gdzie się włamać. Jednak wiedza ta jest niewystarczająca. Prosi zatem ChatGPT[2] o fragment brakującego kodu i w kilka sekund go dostaje. dla młodego hakera napisanie narzędzia do tzw. backdoorów w różnych językach programowania nie będzie już problemem.

– O wiele łatwiej jest dzisiaj być także spamerem. AI pozwala na stworzenie 50 tysięcy e-maili w różnych wersjach, z różnymi słowami kluczowymi, które przejdą niezauważone przez filtry antyspamowe. Dzięki sztucznej inteligencji i informacjom, które ma na nasz temat, można stargetować atak phishingowy czy scumowy pod daną osobę. Pewną nadzieję przynosi fakt, że AI wykorzystywana jest także w systemach antyspamowych – uważa Jakub Orlik z Niebezpiecznik.pl.


Czy narzędzia sztucznej inteligencji można oszukać?

Mimo ograniczeń i zabezpieczeń, które wprowadzają twórcy narzędzi AI, zdobycie niebezpiecznej wiedzy nie jest zbyt trudne. Zwykle jest to kwestia odpowiedniego kontekstu, w którym osadzimy nasze zapytanie.

– Klasycznym przykładem jest pytanie, jak zbudować bombę? Wzbudza to oczywiste wątpliwości etyczne i dlatego dostaniemy informację zwrotną, że AI nie może pomóc w tej sprawie. Sytuacja zmieni się, gdy wejdziemy w interakcję, stworzymy odpowiedni kontekst i wytłumaczymy sztucznej inteligencji, że piszemy książkę lub pracę naukową i taka wiedza jest nam potrzebna. Wtedy informację o bombie uzyskamy. W ten sam sposób można zdobyć exploity, które będą miały za zadanie atakować użytkowników i powodować szkody. – tłumaczy Grzegorz Borowiec, konsultant ds. Bezpieczeństwa w Capgemini Polska.

Podobnie zachowają się narzędzia AI, gdy zapytamy o źródła nielegalnych wersji filmów. Pierwsza odpowiedź będzie oczywista – piractwo jest przestępstwem, itd. System „podda się”, gdy w naszym pytaniu pojawi się obawa przed piractwem. Jakich stron unikać, aby nie być piratem? To zdanie doprowadzi nas do listy serwisów z nielegalnymi materiałami.

Powyższe sytuacje niosą za sobą poważne zagrożenie. Eksperci zastanawiają się więc, czy jest możliwe zbudowanie nieoszukiwalnego modelu AI? Ich zdaniem im bardziej model będzie jak człowiek, tym bardziej będzie podatny jak człowiek na próby manipulacji. Tego nie da się zatrzymać. Trzeba będzie z tym walczyć.

Zagrożenie bezpieczeństwa – ryzyko inwestorów

Eksperci i ekspertki zauważają także inny problem, który wynika z rozwoju AI. Systemy wysokiego ryzyka muszą zapewnić odpowiednią ochronę od strony technicznej i prawnej, co podniesie koszty działalności. Konsekwencją może stać się osłabienie zaangażowania finansowego inwestorów w ten sektor technologii. Problemem dla inwestujących będzie też samo prawo. Chodzi o brak pewności, jaki będzie jego kształt za rok lub dwa.

Słownik
1. scoring. Pojęcie wywodzi się z marketingu internetowego (a dokładnie z marketing automation) i oznacza automatyczne przypisywanie określonej wcześniej liczby punktów…
2. ChatGPT. to duża sieć neuronowa, która jest modelem językowym opartym na architekturze GPT-3.5 i jest wykorzystywana do generowania odpowiedzi…
Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Artykuły na pokrewne tematy
Czytaj więcej

Chatboty i AI w bankowości

Już od kilku lat utrzymuje się trend zamykania stacjonarnych oddziałów banków, którego główną przyczyną jest migracja klientów do kanałów cyfrowych. W przyszłości w sektorze finansowym większość pracowników zostanie zwolnionych i zastąpionych robotami – prognozują eksperci. Statystyki mówią, że prace straci ok. 300 tys. osób w samych Stanach Zjednoczonych.
Czytaj więcej

Prawdziwa chmura nadciąga

Gdy inni przez wiele lat mówili o chmurze mieli na myśli usługę, do której mieli dostęp on-line bez inwestowania w serwery i pełną infrastrukturę. Teraz wydaje się, że taka chmura przypomina raczej mgłę snującą się gdzieś tuż nad ziemią. Pure Cloud więc jest prawdziwym obłokiem...
Czytaj więcej

Vonage rozszerza ofertę produktów o rozwiązania z zakresu handlu konwersacyjnego

Vonage dostawca rozwiązań komunikacji w chmurze, który wspiera przedsiębiorstwa w przyspieszeniu ich cyfrowej transformacji, poinformował dzisiaj, że nabył spółkę Jumper.ai, czołowego gracza w dziedzinie rozwiązań wielokanałowego handlu konwersacyjnego, z siedzibą w Singapurze. Przejęcie uzupełnia interfejsy API Vonage Communications o pakietową ofertę wiadomości społecznościowych z obsługą sztucznej inteligencji i handlu konwersacyjnego.