Gdy sztuczna inteligencja decyduje o płci lekarza czy wymazuje tożsamość mniejszości, rodzi się pytanie, czy neutralność językowa w świecie algorytmów jest w ogóle możliwa.
Technologia miała nas połączyć — zamiast tego może dzielić. Maszynowe tłumaczenia, choć szybkie i wszechobecne, przenoszą nie tylko znaczenia, ale także uprzedzenia. W epoce globalnej komunikacji i cyfrowych kontaktów tłumaczenie maszynowe stało się nieodzownym elementem życia codziennego.
Narzędzia takie jak Google Translate, DeepL, Bing Translate czy ChatGPT oferują natychmiastowy dostęp do tekstów w dziesiątkach języków. Ich działanie opiera się na zaawansowanych modelach sztucznej inteligencji, głównie głębokich sieciach neuronowych, które analizują kontekst, przewidują znaczenie i generują tłumaczenia. Mimo imponującego rozwoju, systemy te niosą ze sobą poważne zagrożenia – nie tylko dla języka, ale dla ludzi.
Za błędami technicznymi stoją bowiem konkretne mechanizmy dyskryminacyjne. NMT (neural machine translation) opiera się na danych treningowych, które nierzadko zawierają społeczne stereotypy.
Algorytmy uczą się na podstawie rzeczywistego języka – tego samego, który od dziesięcioleci utrwala uprzedzenia płciowe, kulturowe czy klasowe. Co gorsza, modele te mają tendencję do nadmiernego zapamiętywania skojarzeń, a w efekcie — do powtarzania ich bezrefleksyjnie. Tak właśnie technologia, która miała demokratyzować dostęp do informacji, staje się narzędziem podtrzymywania nierówności.
Gdy lekarz zawsze jest mężczyzną
Najbardziej widoczne uprzedzenia NMT dotyczą płci. Języki neutralne płciowo, takie jak turecki, mogą w tłumaczeniach tracić swoją inkluzywność.
Przykład: tureckie zdanie „O bir doktor ve o bir hemşire” może być przetłumaczone jako „On jest lekarzem, a ona pielęgniarką” – mimo iż oryginał nie przypisuje żadnej płci. To nie przypadek. To efekt zakodowanego seksizmu w danych, na których uczą się algorytmy.
Tego typu błędy nie tylko wypaczają znaczenie, ale także utrwalają szkodliwe stereotypy. Kiedy zawody są konsekwentnie przypisywane określonym płciom, powstaje zjawisko „szkody reprezentacyjnej” – kobiety są systematycznie pomijane jako potencjalne lekarki, naukowczynie czy inżynierki.
Z kolei „szkoda alokacyjna” oznacza niższą jakość usług dla grup, które są marginalizowane — w tym przypadku kobiet otrzymujących niedostosowane tłumaczenia.
Znikające kultury i tożsamości
Dyskryminacja w NMT nie ogranicza się do płci. Systemy te mają trudności z oddaniem złożoności kulturowej i tożsamościowej. Przykład? Japońskie zdanie „お花見に行きましょう” zostało przez jedno z popularnych narzędzi przetłumaczone jako „Chodźmy oglądać kwiaty”. Technicznie poprawne, ale kulturowo wyprane z sensu.
Brakuje tu bowiem odniesienia do tradycji „hanami” — głęboko zakorzenionej w japońskiej kulturze praktyki podziwiania kwitnących wiśni, symbolu życia, odnowy i przemijania. Takie „czyszczenie” znaczeń prowadzi do kulturowego wymazywania.
Podobnie rzecz ma się z tłumaczeniami związanymi z tożsamością LGBTQIA+. W języku francuskim lub angielskim słowo „partner” ma neutralny charakter i bywa używane jako inkluzywna alternatywa dla „mąż/żona”. Tłumaczenie na język polski może jednak automatycznie przypisać rodzaj męski – choćby jeżeli kontekst wskazuje na inną płeć.
Zmiana ta nie tylko deformuje wypowiedź, ale usuwa tożsamość osoby mówiącej, wtłaczając ją w ramy domyślnych (czytaj: heteronormatywnych) założeń. To wyraźny przykład systemowej dyskryminacji, ukrytej pod pozorem „neutralnego” tłumaczenia.
Języki, które się nie liczą
Problemem jest również marginalizacja języków mniejszościowych. Większość systemów MT osiąga wysoką skuteczność dla popularnych par językowych – np. tłumaczenia angielski-hiszpański osiągają aż 94 proc. dokładności.
Dla mniej popularnych języków, takich jak ormiański czy korsykański, skuteczność spada jendak dramatycznie — choćby do 55 proc. Tłumaczenia są nieczytelne, błędne lub całkowicie niezrozumiałe.
Systemy oparte na danych wymagają dużych, dobrze opisanych korpusów. Tymczasem dla języków mniejszościowych często nie istnieją choćby podstawowe zasoby tekstowe. Efekt? Cyfrowe wykluczenie całych społeczności.
Co gorsza, mechanizmy te utrwalają obraz dominujących kultur jako „standardu”, a wszystko, co odbiega od tej normy, traktują jako mniej ważne, zbędne lub dziwaczne.
Kiedy technologia szkodzi
Skutki tych uprzedzeń wykraczają poza problemy techniczne. Mają realny wpływ na życie ludzi i społeczeństw. W praktyce zawodowej błędne tłumaczenia dokumentów prawnych, medycznych czy urzędowych mogą prowadzić do poważnych nieporozumień i konsekwencji. Osoby niebinarne lub używające języków regionalnych narażone są na niewidzialność lub uprzedzenia.
Na poziomie społecznym uprzedzenia w MT (ang. „machine translation”) wzmacniają stereotypy i pogłębiają podziały. Równocześnie promują homogenizację kulturową, w której różnorodność językowa i tożsamościowa jest postrzegana jako przeszkoda, a nie wartość.
Taka perspektywa jest szczególnie niebezpieczna w kontekście stosunków międzynarodowych. Historia zna przypadki, w których błędne tłumaczenie jednego słowa miało katastrofalne skutki – jak interpretacja japońskiego „mokusatsu” jako „niegodne komentarza”, co wpłynęło na decyzję o zrzuceniu bomby atomowej na Hiroszimę.
Czy można naprawić maszynę?
Czy NMT może być sprawiedliwe? Pewne działania łagodzące już istnieją. Niektóre narzędzia, jak Gemini czy DeepL, oferują alternatywne wersje tłumaczeń z uwzględnieniem różnych płci.
Inne starają się rozszerzać swoje korpusy danych o teksty z języków mniejszościowych. najważniejsze znaczenie ma także nadzór ludzki – lingwiści, kulturoznawcy i eksperci od tożsamości powinni brać udział w procesie uczenia algorytmów.
Sama technologia jednak nie wystarczy. Potrzebna jest zmiana kulturowa i edukacyjna. Użytkownicy powinni być świadomi ograniczeń narzędzi, które wykorzystują na co dzień. Świadome korzystanie z MT – krytyczna analiza, porównywanie wyników, zgłaszanie błędów – może pomóc poprawiać systemy, ale i tworzyć presję na ich twórców.
Dopóki dane treningowe będą odzwierciedlać nierówności społeczne, a projektanci modeli nie uwzględnią różnorodności, NMT będzie narzędziem wykluczenia – choćby jeżeli w najlepszej wierze miało służyć komunikacji.