Czy AI zmienia nasz styl pisania, narzucając po cichu zachodnią kulturę?

instalki.pl 5 dni temu

Wyobraź sobie, iż piszesz o swoim ulubionym święcie, na przykład o Wigilii lub Święcie Niepodległości, a asystent pisania oparty na sztucznej inteligencji podpowiada Ci… „Thanksgiving”. Coraz częściej korzystamy z takich asystentów – od telefonów, przez Gmaila, po media społecznościowe – które automatycznie uzupełniają nasze zdania. Te narzędzia niewątpliwie przyspieszają pisanie, ale naukowcy z Uniwersytetu Cornell odkryli niepokojący efekt uboczny.

Ich nowe badanie pokazało, iż podpowiedzi AI potrafią wygładzać lokalne niuanse kulturowe i ujednolicać styl pisania ludzi z różnych części świata. Innymi słowy, wszyscy zaczynamy brzmieć podobnie, jakbyśmy pisali w stylu amerykańskim, co stanowi zagrożenie dla językowej różnorodności.

Gdy styl staje się zbyt podobny

Badanie przeprowadzone przez naukowców było jednym z pierwszych, które przyjrzało się temu zjawisku. Wyniki jasno wskazują, iż korzystanie z AI w pisaniu może prowadzić do kulturowych uproszczeń i homogenizacji języka. Autorzy badania alarmują, iż to niepokojący trend – zanikają unikatowe cechy stylu typowe dla różnych kultur. „Ludzie zaczynają pisać w podobny sposób, a przecież piękno świata tkwi w naszej różnorodności” – podkreślają badacze​. o ile każdy tekst będzie brzmiał tak samo, stracimy bogactwo perspektyw i lokalnych głosów.

Aby zbadać ten problem, zespół Cornell przeprowadził eksperyment z udziałem 118 osób – połowa z USA, połowa z Indii​. Uczestnicy mieli za zadanie pisać na tematy związane z kulturą (np. ulubione jedzenie, święto, znana postać). W każdej grupie połowa osób pisała samodzielnie, a druga połowa korzystała z asystenta pisania AI, który proponował krótkie autouzupełnienia zdań. Naukowcy śledzili naciśnięcia klawiszy i to, które sugestie sztucznej inteligencji były akceptowane lub odrzucane.

Co się okazało? Po zebraniu próbek tekstu stwierdzono, iż style wypowiedzi Amerykanów i Hindusów upodobniły się do siebie, szczególnie gdy w grę wchodziło wsparcie bota. Niestety, działo się to głównie kosztem unikalnego stylu pisania uczestników z Indii​. Choć asystent AI pomagał obu grupom pisać nieco szybciej, Hindusi odnotowali mniejszy przyrost produktywności, bo częściej musieli poprawiać sugestie, by dopasować je do kontekstu​. Statystyki pokazały też, iż użytkownicy z Indii chętniej klikali „Tab” przy podpowiedziach – zaakceptowali około 25% sugestii, podczas gdy Amerykanie tylko 19%​. Jednak indyjscy autorzy częściej modyfikowali te przejęte sugestie, więc ostatecznie były one dla nich mniej pomocne​. To sugeruje, iż AI nie do końca „rozumiała” ich kontekst kulturowy.

Pizza i „Christmas” zamiast lokalnych tradycji

Najbardziej wymowne są przykłady konkretnych podpowiedzi, które zdradzają zachodniocentryczne spojrzenie algorytmu. Gdy uczestnicy mieli pisać o ulubionym jedzeniu albo święcie, asystent niezmiennie sugerował amerykańskie klasyki – pizza jako potrawa i Christmas (Boże Narodzenie) jako święto​. Trudno o bardziej nietrafioną podpowiedź dla osoby z Indii obchodzącej Diwali. Podobnie, gdy indyjski uczestnik zaczął pisać nazwisko znanej osoby na literę „S” (chodziło o gwiazdora Bollywood Shah Rukh Khana), AI zaproponowała zupełnie innych celebrytów: Shaquille’a O’Neala (amerykańskiego koszykarza) lub Scarlett Johansson (hollywoodzką aktorkę).

Popularny asystent AI chatGPT / Źrodło: openai

Jak widać, asystent zachowywał się tak, jakby nie znał realiów poza USA, podsuwając sugestie oderwane od kontekstu użytkownika. Indyjscy uczestnicy zamiast wsparcia otrzymywali więc coś, co można nazwać narzucaniem obcej perspektywy. Co ciekawe, wpływ ten ujawnił się nie tylko w pojedynczych słowach, ale i w całym stylu wypowiedzi. Gdy poproszono uczestników o opisanie ważnego święta, różnice między tekstami tworzonymi z AI i bez niego były ogromne.

Osoba pisząca bez pomocy napisała barwnie i bardzo obrazowo, iż będzie „oddawać cześć bogini Lakszmi” oraz „puszczać fajerwerki i zajadać słodycze”. Natomiast podobne zadanie wykonane z pomocą sztucznej inteligencji zaowocowało opisem pozbawionym szczegółów: autor wspomniał jedynie o „jedzeniu tradycyjnego indyjskiego śniadania” i iż jest to „czas wypełniony szczęściem i ciepłem”. Podpowiedzi spłyciły bogaty obraz święta – zniknęły konkretne odniesienia do religii i zwyczajów, a pojawiły się ogólniki brzmiące uniwersalnie (a adekwatnie zachodnio). Taki wyprany z detali tekst mógłby pasować do opisu dowolnego festynu czy pikniku.

Dlaczego tak się dzieje? Główny autor badania, tłumaczy, iż użytkownicy wspierający się pomocą bota, mimowolnie zaczynają naśladować amerykański styl pisania – do tego stopnia, iż opisują własne festiwale, jedzenie i inne elementy kultury z zachodniej perspektywy​. Innymi słowy, patrzą na swoją kulturę cudzymi oczami, bo podpowiedzi językowe „podsuwają im słowa”, których sami by normalnie nie użyli.

Kolonializm AI: gdy technologia narzuca jeden styl

Naukowcy z Cornell określają to zjawisko mianem kolonializmu AI. ​To mocne określenie na sytuację, w której zachodnia kultura jest mimowolnie narzucana użytkownikom z innych części świata poprzez algorytmy. Skoro asystent podpowiada głównie amerykańskie odniesienia, użytkownik z innego regionu świata musi ciągle z nimi walczyć – kasować je, poprawiać lub ignorować. To tak, jakby technologia zakładała wyższość kultury Zachodu i próbowała wpasować wszystkich w ten sam schemat​. Badacze ostrzegają, iż może to wpływać nie tylko na to, co ludzie piszą, ale także jak myślą. jeżeli narzędzie ciągle sugeruje nam obce wzorce, z czasem możemy zacząć postrzegać je jako „normalne”, spychając własne na margines.

Czy oznacza to, iż powinniśmy zrezygnować z asystentów pisania? Niekoniecznie. Technologia sama w sobie nie jest zła – te narzędzia naprawdę potrafią ułatwić życie, poprawiając produktywność i pomagając w pisaniu. Jednak, żeby te korzyści były dostępne dla wszystkich na równych zasadach, AI musi stać się bardziej świadoma kontekstu kulturowego​. Twórcy algorytmów powinni uwzględnić różnice kulturowe, a nie skupiać się wyłącznie na języku. Powinny znać lokalne realia i wartości, a nie tylko gramatykę.

  • Przeczytaj również: Mapy Google zaroiły się od AI. Nowe funkcje robią wrażenie

Pierwsze kroki już są podejmowane. Inicjatywa Global AI Initiative szuka partnerów wśród firm technologicznych, by wspólnie opracować modele uwzględniające perspektywę globalną. Eksperci sugerują też, iż w tworzenie powinni być zaangażowani specjaliści od języków i kultur – tak, aby algorytmy uczyły się kontekstu, a nie tylko słów. Dzięki temu przyszłe systemy podpowiedzi mogłyby, zamiast narzucać jedno „słuszne” sformułowanie, uwzględniać różnorodność.

ChatGPT pomoże w zakupach. Nowe funkcje robią wrażenie
AInaukasztuczna inteligencja
Idź do oryginalnego materiału