Sztuczna inteligencja w walce z mową nienawiści

W dzisiejszym cyfrowym świecie każdy ma prawo do wyrażania swoich opinii, ale nikt nie ma prawa do szerzenia nienawiści. Zaawansowane technologie, farmy trolli i fałszywe profile, rozprzestrzeniają się po Europie z niepokojącą prędkością.

Jednak to zwykli użytkownicy internetu, wyładowujący swoje frustracje w sieci, są często źródłem największej ilości hejtu. Niemoderowana dyskusja online staje się siedliskiem toksycznej nienawiści, którą skutecznie może zwalczać jedynie sztuczna inteligencja.

Według raportu Digital 2023: Global Overview Report, blisko 90% populacji Europy korzysta z internetu, a w Polsce liczba ta wynosi prawie 36 milionów osób, co stanowi ponad 88% całej populacji. Z badań przeprowadzonych przez IRCenter wynika, że bezpośredniego hejtu w polskim internecie doświadczyło 37% respondentów. Raport CBS wskazuje, że co drugi Polak (50%) uważa, że w społeczeństwie istnieje przyzwolenie na obrażanie innych.

Podobne problemy dotykają Słowaków, gdzie 91,2% społeczeństwa aktywnie korzysta z internetu. Słowacka aplikacja TrollWall AI, służąca do filtrowania nienawistnych komentarzy na platformach społecznościowych, przeanalizowała ponad 400 stron i profili na Facebooku, obejmując w dwóch fazach 7,5 miliona komentarzy. Analiza wykazała, że średni odsetek nienawistnych wpisów wynosi 13%, a na niektórych stronach z zakresu polityki, sportu czy kultury może być jeszcze wyższy.

Tomáš Halász, pionier w dziedzinie moderowania dyskusji internetowych przy użyciu sztucznej inteligencji i twórca aplikacji TrollWall AI, wyjaśnia:

– Definiujemy hejt na podstawie międzynarodowych definicji mowy nienawiści, czyli angielskiego wyrażenia hate speech. Chodzi o wrogie wypowiedzi wobec osoby lub grupy osób na podstawie ich tożsamości, cech charakterystycznych czy przynależności rasowej, wyznania, orientacji seksualnej. Warto dodać do tego wulgaryzmy i toksyczny język, czyli to, co w rozwiniętym społeczeństwie nie jest uważane za przyzwoite. – komentuje Tomáš Halász

Badania dowodzą, że aktywna moderacja przy użyciu sztucznej inteligencji ma pozytywny wpływ na poziom dyskusji online. Włączenie narzędzi AI, które odfiltrowują nienawistne wpisy, doprowadziło do spadku poziomu hejtu z 13% do zaledwie 2%.

Hejt w cyberprzestrzeni jako problem społeczny

Cyberspecjaliści zauważają, że trolli charakteryzuje pozorna obojętność, brak reakcji na sprzeciw i ukrywanie tożsamości za pseudonimami oraz zmyślonymi danymi. Język nienawiści w internecie to przejaw społecznej patologii, która przeniknęła z rzeczywistości do świata wirtualnego. Hejt może mieć poważne konsekwencje, szczególnie dla firm, gdzie negatywne komentarze mogą prowadzić do bojkotu marki i spadku jej wartości rynkowej.

Jan Krála, menedżer mediów społecznościowych podczas kampanii prezydenckiej w Czechach Petra Pavla, podkreśla znaczenie TrollWall AI:

– Jeszcze zanim nasz kandydat na prezydenta zyskał popularność, spędzaliśmy kilka godzin dziennie na sprawdzaniu komentarzy. System ustawiania słów kluczowych na Facebooku był niefunkcjonalny i zawodny. TrollWall uwolnił nam ręce i mogliśmy skupić się na dyskusji, a nie na hejterach. – komentuje Jan Krála.

Moderacja za pomocą sztucznej inteligencji

Moderacja manualna staje się niewystarczająca w obliczu rosnącej ilości treści do moderacji. Długotrwałe czytanie nienawistnych komentarzy może mieć negatywne konsekwencje psychologiczne dla moderatorów. Jednak w Polsce, od I kwartału 2024 roku działa aplikacja TrollWall AI, która ukrywa toksyczne komentarze 24 godziny na dobę, 7 dni w tygodniu. Narzędzie zyskało popularność w Czechach i Słowacji, gdzie korzystają z niego nawet głowy państw, Peter Pavel i Zuzana Čaputová.

Aplikacja nie wpływa negatywnie na zasięgi i widoczność marki w mediach społecznościowych, działając płynnie w czasie rzeczywistym.

Sztuczna inteligencja automatycznie ukrywa wulgarne, agresywne i pełne nienawiści komentarze oraz groźby. Toksyczne wpisy nie są usuwane, bo dla autorów, czasem i dla ich znajomych, są nadal widoczne. Dla pozostałych są jednak niedostępne, co podnosi poziom dyskusji, do której dołącza więcej uprzejmych osób. Administrator widzi wpisy, może sprawdzić decyzje sztucznej inteligencji i kiedy uzna to za stosowne, może przywrócić kontrowersyjne posty – podsumowuje Tomáš Halász.

Implementacja sztucznej inteligencji w moderacji treści w internecie staje się niezbędnym narzędziem w walce z mową nienawiści, przywracając zdrową i konstruktywną atmosferę w dyskusjach online.

Add a comment

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *