1/3 wrażliwych informacji trafia do AI

Raport Netskope Threat Labs ujawnia, że ponad jedna trzecia wrażliwych informacji biznesowych udostępnianych aplikacjom generującym sztuczną inteligencję (genAI) to regulowane dane osobowe. Generatywna sztuczna inteligencja, której wykorzystanie wzrosło ponad trzykrotnie w ciągu ostatnich 12 miesięcy, stwarza potencjalne ryzyko dla firm w postaci kosztownych naruszeń danych.

Netskope opublikował nowe badania pokazujące, że dane regulowane stanowią znaczną część wrażliwych informacji udostępnianych aplikacjom genAI. W obliczu rosnącego zagrożenia, trzy czwarte ankietowanych firm zdecydowało się na całkowite zablokowanie co najmniej jednej aplikacji genAI. Jednak mniej niż połowa organizacji wdrożyła kontrole skoncentrowane na danych, aby zapobiec udostępnianiu poufnych informacji.

Analiza Netskope ujawnia, że 96% firm korzysta obecnie z genAI, a liczba używanych aplikacji wzrosła średnio z trzech do dziesięciu w ciągu ostatniego roku. Wzrost ten przyniósł również gwałtowny wzrost udostępniania zastrzeżonego kodu źródłowego w aplikacjach genAI, co stanowi 46% wszystkich udokumentowanych naruszeń polityki danych.

Mimo rosnących zagrożeń, wiele firm podejmuje proaktywne kroki w celu zarządzania ryzykiem. 65% przedsiębiorstw wdraża coaching użytkowników w czasie rzeczywistym, co pomaga w kierowaniu interakcjami użytkowników z aplikacjami genAI. Netskope podaje, że skuteczny coaching skłonił 57% pracowników do zmiany swoich działań po otrzymaniu alertów.

– Zabezpieczenie korzystania z generatywnej sztucznej inteligencji wymaga dalszych inwestycji i większej uwagi. Przedsiębiorstwa muszą zdawać sobie sprawę, że wyniki genAI mogą nieumyślnie ujawnić poufne informacje, propagować dezinformację, a nawet wprowadzać złośliwe treści – powiedział James Robinson, Chief Information Security Officer w Netskope.

Dodatkowe dane z raportu wskazują, że ChatGPT[1] pozostaje najpopularniejszą aplikacją, używaną przez ponad 80% przedsiębiorstw. Microsoft Copilot wykazał najbardziej dramatyczny wzrost wykorzystania od czasu jego uruchomienia w styczniu 2024 r., osiągając 57%. Z kolei 19% organizacji nałożyło całkowity zakaz na GitHub CoPilot.

Raport Netskope wyraźnie wskazuje na konieczność dalszego zarządzania ryzykiem związanym z rosnącym wykorzystaniem generatywnej sztucznej inteligencji, aby chronić dane, reputację i ciągłość biznesową firm.

Słownik
1. ChatGPT. to duża sieć neuronowa, która jest modelem językowym opartym na architekturze GPT-3.5 i jest wykorzystywana do generowania odpowiedzi…
Add a comment

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *