Mroczne sekrety OpenAI

ChatGPT wykorzystuje w każdej chwili miliony danych, aby odpowiadać nam na różnorakie problemy i pytania. Niestety część osób często bardzo młodych wykorzystuje go w niestosowny sposób, zadając mu pytania wulgarne lub obsceniczne. Dlatego, aby przefiltrować wszelkie nieakceptowalne frazy, OpenAI musiało zatrudnić do tego kilka set dodatkowych osób. Padło niestety na tanich pracowników z Kenii, którym OpenAI wypłacało głodowe sumy pieniędzy.

OpenAI jest obecnie jednym z najszybciej rozwijających się dostawców sztucznej inteligencji na świecie. ChatGPT[1] zbiera milionowe zyski, a przedsiębiorstwo coraz bardziej idzie w kierunku tworzenia społeczności poprzez budowę GPT Store. Jednakże poprzednie dwa lata u światowego potentata pozostawiają ciemną plamę na historii swojego produktu. O, której teraz opowiem…

OpenAI podpisuje umowy z kenijską spółką Sama

Wszystko zaczyna się w roku 2021 w Kenii. Gdzie dochodzi do podpisania 3 umów o łącznej wartości 200 000 dolarów pomiędzy OpenAI a spółką Sama. Przedmiotem umowy było oznaczanie tekstowych opisów mowy nienawiści, przemocy i napaści seksualnej przez pracowników Sama. Kenijczycy mieli za zadanie opisywać niewłaściwe frazy w zbiorach danych ChatGPT za stawkę 1,5 dolara za godzinę pracy.

OpenAI stworzyło taki system filtracji i zabezpieczeń, gdyż ich poprzednia wersja czata GPT[2]-3 była bardzo podatna na brutalne, rasistowskie i seksistowskie uwagi. Działo się to za sprawą zbioru danych, na których został oparty chatbot, a były to miliardy treści z całego internetu. OpenAI osiągnęło niebywałe możliwości swojego chatbota za sprawą tak dużego zbioru danych, ale było zmuszone do odfiltrowania go z niewłaściwych treści. Zadanie nie było jednak zbyt łatwe, dlatego OpenAI wykorzystało do pomocy firmę zewnętrzną.

Potentat z doliny krzemowej, aby zbudować tak skuteczny system zabezpieczeń posłużył się “podręcznikami firm od mediów społecznościowych”. Pomysł był dziecinnie prosty. OpenAI musiało tylko nakarmić chatbota treściami pełnymi przemocy, seksu i mowy nienawiści, aby narzędzie mogło je poznać i w przyszłości filtrować tego typu zapytania ze strony użytkowników.

Śledztwo TIME

Portal TIME przeprowadził w tej sprawie śledztwo. W ramach, którego przewertował setki wewnętrznych dokumentów Sama i OpenAI, a także przeprowadził anonimowe wywiady z czterema pracownikami Sama. Kenijska firma, która chwali się tym, że pomogła wyjść z ubóstwa ponad 50 tys. osobom, miała płacić za filtrowanie AI od 1,32 do 2 dolarów za godzinę. Co jest absurdalną kwotą w porównaniu z trudami pracy, której podejmowali się Kenijczycy.

Pomimo fundamentalnej roli, jaką odgrywają specjaliści od wzbogacania danych, coraz większa liczba badań ujawnia niepewne warunki pracy, z jakimi borykają się ci pracownicy. Może to wynikać z wysiłków mających na celu ukrycie zależności sztucznej inteligencji od tej dużej siły roboczej podczas świętowania wzrostu wydajności technologii. Poza zasięgiem wzroku jest także poza umysłem. – czytamy w oświadczeniu Partnership on AI.

Mimo wszelkich zawirowań OpenAI przyznało w oficjalnych komunikatach udział Sama nad tworzeniem ChatGPT. Nie wiadomo, natomiast ile jeszcze firm outsourcingowych brało udział w karmieniu chatbota kontrowersyjnymi treściami.

– Naszą misją jest zapewnienie korzyści całej ludzkości ze sztucznej inteligencji i ciężko pracujemy, aby zbudować bezpieczne i użyteczne systemy sztucznej inteligencji, które ograniczają stronniczość i szkodliwe treści. Klasyfikacja i filtrowanie szkodliwych [tekstów i obrazów] to niezbędny krok w minimalizowaniu ilości treści zawierających przemoc i seksualność zawartych w danych szkoleniowych oraz w tworzeniu narzędzi wykrywających szkodliwe treści. – mówi rzecznik prasowy spółki OpenAI.

Wbrew wszelkim dokonaniom generatywnej sztucznej inteligencji w XXI wieku, warto mieć na uwadze również ciemną stronę rzeczywistości. Praca nad AI często oparta jest na ukrytej pracy ludzi z biednego południa, mającej charakter wyzysku. Gdy my bawimy się nowymi funkcjami ChatGPT, tam na biednym południu pracownik za doskonalenie AI dostaje 15 zł dziennie. Często wykonując tragiczną i odbijającą się na psychice pracę…

Przerażająca praca 

Pracę wykonywały trzy zespoły po 10 pracowników w każdym. Poszczególne zespoły zajmowały się inną tematyką fraz. Jak podaje TIME, pracownicy w ciągu dziewięciogodzinnej zmiany mieli przeczytać i oznaczyć od 150 do 250 fragmentów tekstu o pojemności od 100 do 1000 słów. Pracownicy, z którymi rozmawiał portal TIME, stwierdzili, że praca jest przerażająca. Treści, które mieli do filtrowania, zawierały sceny gwałtów, zoofili i mowy nienawiści. Jako przykład dziennikarz Time wskazał przypadek koszmarów jednego z pracowników Samy, który miał koszmary po przeczytaniu opisu mężczyzny odbywającego stosunek z psem na oczach dziecka.

To była tortura. Przez cały tydzień będziesz czytał wiele takich stwierdzeń. Zanim nadejdzie piątek, nie możesz już myśleć o tym obrazie. – mówił w rozmowie z Time jeden z pracowników spółki Sama.

Firma Sama nie zapewniła również pracownikom z Kenii odpowiedniego wsparcia psychicznego. Sesje z doradcami do ds. dobrego samopoczucia w większości przypadków były kompletnie nieprzydatne, rzadkie i nieumiejętnie prowadzone. Dodatkowo w większości odbywały się one wyłącznie w sesjach grupowych, a prośby o indywidualne spotkania z doradcami były odrzucane przez kierownictwo firmy. 

Przedsiębiorstwo Sama zaniedbań się wypiera i przedstawia sprawę w trochę innym świetle. Rzecznik firmy stwierdził w oświadczeniu, że “niepoprawne” jest stwierdzenie, że pracownicy mieli tylko dostęp do sesji grupowych. Gdyż zaznacza on, że terapeuci byli dostępni w każdej chwili i mogli prowadzić rozmowy zarówno indywidualne, jak i grupowe na prośbę pracowników. Sama wypowiedziała się także na temat stawek, jakie były uzgodnione z pracownikami. Umowa określała stawkę godzinową 12,50 dolara od OpenAI dla firmy. Natomiast pracownicy faktycznie otrzymywali stawki w wysokości od 1,46 do 3,74 dolara za godzinę po opodatkowaniu.

– Stawka 12,50 dolara za projekt obejmuje wszystkie koszty, takie jak wydatki na infrastrukturę, wynagrodzenie i świadczenia dla współpracowników oraz ich w pełni oddanych analityków ds. zapewniania jakości i liderów zespołów. – wyjaśniał rzecznika firmy Sama. 

Rzecznik OpenAI stwierdził również w swoim oświadczeniu, że to Kenijska firma miała pełnię praw w zarządzaniu płatnościami i zapewnieniu godnych warunków bytowych i pracy swoim pracownikom.

Stanowisko rzecznika OpenAI:

Bardzo poważnie podchodzimy do zdrowia psychicznego naszych pracowników i wykonawców. Z naszego wcześniejszego zrozumienia wynikało, że [w Sama] oferowane są programy odnowy biologicznej i doradztwo indywidualne, pracownicy mogą zrezygnować z jakiejkolwiek pracy bez kary, kontakt z treściami dla dorosłych będzie ograniczony, a wrażliwe informacje będą przetwarzane przez specjalnie przeszkolonych pracowników aby to zrobić.

Podczas etykietowania danych w firmie Sama dochodziło czasami dziwacznych przypadków. Jedna z pracownic Sama miała kiedyś przeczytać tekst o pomocniku Batmana, Robinie, który doznał aktu “gwałtu” ze strony jednego ze złoczyńców. Jak się jednak okazało, był to tylko gwałt pozorowany za obopólną zgodą (a cały materiał pochodził z jednej witryny erotycznej). Pracownica sama zgłosiła sprawę do OpenAI, gdyż nie wiedziała jak oznaczyć taką treść: czy jako przemoc seksualną, czy wręcz przeciwnie. Nie doczekała się jednak nigdy na odpowiedź od OpenAI.

Koniec współpracy z OpenAI 

W 2022 roku następuje rozpad relacji pomiędzy OpenAI, a spółką Sama. W lutym 2022 roku Sama pogłębiło współpracę na krótko z OpenAI. Porozumienie miało dotyczyć etykietowania obrazów o charakterze seksualnym i brutalnym i wysyłaniu ich do OpenAI. Miało to zapewnić większe bezpieczeństwo chatbotom i uwrażliwić je na nietaktowne dane. Część z materiałów była również nielegalna w USA. Sama wysłała do potentata z Doliny Krzemowej 1400 obrazów, których treść jeży włosy na głowie. Jak wynika z dokumentacji partia, zawierała obrazy “C3” (gwałty, zoofilię, niewolnictwo), “C4” – (pedofilię) i “V3” (zwłoki, przemoc, obrażenia fizyczne). Za obrazy OpenAI zapłaciło kenijskiej firmie łącznie 787,50 dolarów.

Kilka tygodni później Sama anulowała całą swoją pracę dla OpenAI ze względu na kontrowersje. Firma oświadczyła, że jej umowa nie zawierała nic o przesyłaniu nielegalnych treści i to OpenAI już po jej zawarciu wydało dodatkowe instrukcje w sprawie transferu nielegalnych obrazów.

Oświadczenie rzecznika spółki Sama:

Zespół Afryki Wschodniej od razu zgłosił zastrzeżenia naszym kierownictwu. Sama natychmiast zakończyła pilotażową klasyfikację obrazów i powiadomiła, że ​​anulujemy wszystkie pozostałe [projekty] z OpenAI. Osoby pracujące z klientem nie zweryfikowały prośby odpowiednimi kanałami. Po dokonaniu przeglądu sytuacji zwolniono poszczególne osoby oraz wprowadzono nowe zasady weryfikacji sprzedaży i bariery ochronne. 

OpenAI na początku potwierdziło, że otrzymało od Sama 1400 obrazów z kategorii: C4, C3, C2, V3, V2, V1, a w następnych komunikatach wyparło się otrzymania treści, zakazanych prawem w USA.

Oświadczenie OpenAI:

Zaangażowaliśmy Sama w ramach naszych bieżących prac nad stworzeniem bezpieczniejszych systemów sztucznej inteligencji i zapobieganiem szkodliwym wynikom. Nigdy nie planowaliśmy gromadzenia treści z kategorii C4. Treści te nie są potrzebne jako dane wejściowe do naszych filtrów przedszkoleniowych i instruujemy naszych pracowników, aby aktywnie ich unikali. Gdy tylko Sama powiedziała nam, że próbowali gromadzić treści w tej kategorii, wyjaśniliśmy, że doszło do nieporozumienia w komunikacji i że nie chcemy takich treści. Po zorientowaniu się, że doszło do nieporozumienia, nie otworzyliśmy ani[3] nie obejrzeliśmy kwestionowanych treści, dlatego nie możemy potwierdzić, czy zawierały one obrazy w kategorii C4.

Mimo zakończenia współpracy pomiędzy OpenAI i Sama nadal gdzieś na biednym południu ludzie narażają swoje zdrowie psychiczne. Wertują najmroczniejsze otchłanie Internetu z dark webem włącznie znajdując najokropniejsze rzeczy. Pracują nad tym, bo tego wymagają od nich AI, które potrzebują karmić się danymi, aby się na nie uodpornić. Są niczym my sami, którym podaje się szczepionkę z wirusem, aby organizm mógł go zwalczyć.

Robią wrażenie, ale ChatGPT i inne modele generatywne to nie magia – opierają się na ogromnych łańcuchach dostaw ludzkiej pracy i zebranych danych, z których większość nie jest przypisana i jest wykorzystywana bez zgody. Są to poważne, fundamentalne problemy, których rozwiązania OpenAI nie widzę. – podsumowuje Andrew Strait, etyk zajmujący się sztuczną inteligencją.

Słownik
1. ChatGPT. to duża sieć neuronowa, która jest modelem językowym opartym na architekturze GPT-3.5 i jest wykorzystywana do generowania odpowiedzi…
2. GPT. (inaczej Generative Pretrained Transformer) rodzaj modelu językowego opracowanego przez OpenAI. Model GPT jest oparty na architekturze Transformer, która…
3. ani. inaczej Automatic Number Identification lub caller id – numer telefonu dzwoniącego. Total 0 Shares Share 0 Tweet 0…
Add a comment

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *