Niewiele osób zdaje sobie sprawę z tego, jak wiele kosztuje postęp technologiczny. Wielkie firmy najcięższą pracę nad rozwojem takich narzędzi jak sztuczna inteligencja zlecają ludziom na drugim końcu świata, by móc łatwiej zamieść pod dywan swoje brudy. Czy poświęcenie ich życia i zdrowia to odpowiednia cena za stworzenie czatu mogącego odrobić pracę domową?
Od listopada 2022 r. coraz głośniej jest o ChacieGPT firmy OpenAI. Filmiki, jak go używać, by ułatwić sobie życie, przyspieszyć żmudne w realizacji zadania i wykonać te kreatywne, powoli zaczynają zalewać Internet. Chat wydaje się wszechmogący – potrafi napisać wypracowanie na dowolny temat, stworzyć CV i list motywacyjny, przygotować slogan czy posty, rozwiązywać zadania z programowania, ale też generować absurdalne teksty takie jak poniższy przepis na jajecznicę w stylu fraszki.
Problem tkwi jednak nie w tym, jak ChatGP tworzy treści, ale z czego je buduje. Jako źródło wiedzy ustalono dla niego wszelkie zasoby Internetu, co sprawia, iż jeżeli działałby bez ograniczeń, mógłby wygenerować treści pełne mowy nienawiści, przemocowe, pornograficzne lub nawołujące do samobójstw i okaleczeń. Aby uniknąć kreowania tego rodzaju materiałów, OpenAI postanowiło przygotować kolejną sztuczną inteligencję, mającą za zadanie wyszukiwać i blokować takie wyniki. Nie obyło się bez ofiar.
Bot nazista?
Być może jednym z powodów, dla których twórcy ChatuGPT postanowili stworzyć blokady treści, była afera związana z poprzednikiem tej sztucznej inteligencji, botem Tay. Tay został wydany w 2016 r. przez Microsofta i funkcjonował za pośrednictwem Twittera. Użytkownicy platformy mogli zadać mu dowolne pytanie i wdać się z nim w rozmowę, używając różnego rodzaju komend.
Wystarczyła chwila, by twitterowa społeczność odkryła, jak nakarmić eksperyment Microsoftu treściami pełnymi homofobii, rasizmu, a choćby nazizmu. Po jakimś czasie bot z miłego, potulnego przyjaciela stał się zwolennikiem Hitlera, który na pytanie “Czy Holocaust naprawdę miał miejsce” odpowiadał: “To była tylko ustawka”. Projekt przetrwał na platformie tylko 16 godzin.
Dochodzenie Timesa
Na początku 2023 r. brytyjski magazyn “Time” opublikował specjalny artykuł, z którego wynika, iż do stworzenia sztucznej inteligencji blokującej szkodliwe treści OpenAI wykorzystało kenijskich pracowników firmy Sama. Prawdopodobnie ludzie z Sama nie zdawali sobie sprawy, co ich czeka. W umowie zakazano im ujawniania natury swojego zlecenia. Podobnie działo się w przypadku oznaczania traumatyzujących materiałów dla Mety. Wskutek zabiegów prawnych firmy żaden z kenijskich pracowników komentujących to zadanie nie zdecydował się ujawnić swojego imienia.
Czym jednak zajmowali się zatrudnieni w Sama? Mieli oni za zadanie etykietować dane, czyli wskazywać treści, które bot ma uznawać za szkodliwe. W przypadku ChatuGPT oznaczało to lekturę tysięcy traumatyzujących tekstów o gwałtach, mordach, torturach i innego rodzaju koszmarach przez dziewięć godzin dziennie. Za godzinę pracy Kenijczycy otrzymywali od 1,32 do 2 dolarów – po przemnożeniu i przeliczeniu na złotówki jest to około 120-180 złotych na miesiąc. Za taką stawkę nie można wynająć choćby ⅕ kawalerki w Nairobi, choć ceny i tak są zdecydowanie niższe niż w Europie czy Stanach. Warto też dodać, iż mieszkańcy Kenii często są wykorzystywani jako tania siła robocza, ponieważ w kraju tym nie funkcjonuje pojęcie stawki minimalnej. Jednakże, bazując na tym, iż recepcjonista w Nairobi dostaje zwykle przynajmniej 1,5 dolara za godzinę, łatwo można zauważyć, iż ChatGPT i tak postawił na minimalne finansowanie.
Trauma zostanie
Sama miała moderować treści należące do trzech kategorii: mowy nienawiści, przemocy i przemocy seksualnej. Na początku lutego 2022 r. firma rozpoczęła kolejny projekt dla OpenAI, tym razem polegający na oznaczaniu wyłącznie obrazów pornograficznych i przedstawiających przemoc, zwłaszcza seksualną. Zlecenie to wydaje się nie mieć związku z ChatemGPT, jednak OpenAI nigdy nie ujawniło jego przedmiotu. Wydało jednak oświadczenie, iż etykietowanie treści tego typu jest niezbędne, by w przyszłości sztuczna inteligencja mogła stać się bezpiecznym narzędziem. OpenAI zapewniało, iż pracownicy zatrudnieni do etykietowania danych będą mieli dostęp do wsparcia psychologicznego. Nie było ono jednak ani pomocne, ani wystarczające. Oznaczane treści (zwłaszcza obrazy) były bardzo traumatyzujące i prawdopodobnie pozostawiły ogromny ślad na psychice moderatorów. Część z nich cierpi w tej chwili na PTSD.
Sama po kilku tygodniach zerwała więc współpracę z OpenAI. Pod koniec lutego 2022 r. firma zorganizowała spotkanie, podczas którego ustalono, iż zatrudnieni w niej ludzie nie powinni być narażani na tak obsceniczne treści. Zdecydowano też, iż Sama zaprzestanie podejmowania się takich zleceń. Okazało się jednak, iż ze względu na zakończenie współpracy część pracowników Samy została zwolniona, a inni przeniesieni na gorzej płatne stanowiska. A to tylko czubek góry lodowej – firm takich jak Sama mogą być przecież setki.
Garść kontrowersji
Sama już wcześniej zajmowała się moderowaniem obscenicznych i niemoralnych treści – współpracowała z nią chociażby Meta. Pracownicy kenijskiej firmy to zwykle ludzie bardzo biedni, którzy nie mają wyboru, więc podejmują się każdego zlecenia, jakie zostaje im zaproponowane. Informacje na temat działań Samy ujawnił jeden z zatrudnionych w niej mężczyzn, Daniel Motaung. Został on zwolniony po tym, jak próbował stworzyć związek zawodowy ze swoimi współpracownikami, żeby móc walczyć o lepsze warunki pracy i pensje. Jego sprawa została zgłoszona wymiarowi sprawiedliwości. Meta przez dwa lata próbowała wycofać się z udziału w rozprawie, jednak koniec końców kenijski sąd orzekł na korzyść Motaung.
Firmy takie jak Meta czy OpenAI nie bez powodu oskarżane są o zmuszanie moderatorów do pracy, wyzysk, uciszanie związków zawodowych i handel ludźmi. Zachodnich firm nie obchodzi, iż godzina spędzona na etykietowaniu kosztuje kenijskich pracowników ogromną traumę. Sami oceńcie, czy takie narzędzie jak ChatGPT jest warte niszczenia ich psychiki.