Sztuczna Inteligencja jest ciągłym przedmiotem niekończących się dyskusji. Obecnie na świecie panuje euforia spowodowana jej dynamicznym rozwojem. Rynki finansowe na zachodzie śrubują rekordy. Zachodni giganci wydają miliardy na inwestycje w AI. Wynika to z faktu, że wykorzystujemy AI do automatyzacji procesów, obliczania baz danych, czy przerzucaniu na nią najbardziej pracochłonnych obowiązków. Działy obsługi klienta masowo wymieniają pracowników za słuchawką na voiceboty czy czatboty. Codziennie niemal powstają pomysły na nowe zastosowanie sztucznej inteligencji w życiu codziennym. Jaki jest więc problem?

To, czym będzie się posiłkować AI, będzie determinować jej zachowania

Z założenia przecież sztuczna inteligencja w odróżnieniu od człowieka nie powinna przejawiać emocji. Inaczej rzecz ujmując, nie powinna zatem mieć czynników charakterystycznych dla rasizmu i seksizmu. Problem polega na tym, że AI wciąż przecież przyjmuje nowe informacje, dane - co za tym idzie również stereotypy. Jeżeli AI będzie otrzymywać np. dane wyłącznie ze środowiska konserwatywnego (albo jakiegokolwiek innego) - to istnieje spore ryzyko, że będzie również w ten sposób myśleć. Już teraz niektóre nieobiektywnie nauczone roboty przejawiają np. wyższość rasową.

Nawet największe modele językowe wykazują skłonność do ukrytego rasizmu

Co prawda te najbardziej rozwinięte sztuczne inteligencje jak np. ChatGPT mają tak gigantyczny dostęp do informacji, że powinny zachować większą neutralność. Niejednokrotnie słyszeliśmy, że jakaś wersja np. wirtualnego robota została cofnięta do faz testów po szokujących odkryciach w postaci np. niechęci do społeczności LGBT. Jak podaje serwis TheGuardian: "zespół badaczy technologii i lingwistyki ujawnił w tym tygodniu, że duże modele językowe, takie jak ChatGPT z OpenAI i Gemini z Google, krążą rasistowskie stereotypy na temat osób posługujących się afroamerykańskim językiem wernakularnym, czyli AAVE, angielskim dialektem stworzonym i używanym przez czarnoskórych Amerykanów". Tutaj jednak powstaje zasadnicza różnica. Nie chodzi o to, że ChatGPT przejawiał np. niechęć do czarnoskórych. Mamy tutaj przykład wyspecjalizowanej grupy, która posługuje się konkretnie różniącym się dialektem. Na pozór dla przeciętnego odbiorcy jest to przecież zjawisko niewidoczne.

Jakie zatem zagrożenie kryje to odkrycie?

Jak podają w serwisie odkrycie naukowców może dowodzić faktu, że ludzie posługujący się dialektem AAVE będą mieli gorsze szanse np. na rynku pracy. Często przedsiębiorstwa już wykorzystują AI do procesów rekrutacji. Niektórzy, tak jak w tym wypadku, mogą mieć mniejsze szanse tylko dlatego, że nieświadomie nie wpisują się w osobiste przekonania algorytmu AI.