Nowe badania z Duke University rzucają światło na ukryte społeczne konsekwencje korzystania z narzędzi generatywnej sztucznej inteligencji w miejscu pracy. Choć AI zwiększa produktywność, pracownicy obawiają się negatywnej oceny ze strony współpracowników i przełożonych.
AI jako miecz obosieczny
Z opublikowanego na łamach Proceedings of the National Academy of Sciences badania wynika, iż osoby korzystające z narzędzi takich jak ChatGPT, Claude czy Gemini, są postrzegane przez innych jako mniej kompetentne, mniej pracowite i bardziej podatne na zastąpienie. Badacze z Fuqua School of Business na Duke University – Jessica A. Reif, Richard P. Larrick i Jack B. Soll – przeprowadzili cztery eksperymenty z udziałem ponad 4400 uczestników, wykazując istnienie tzw. społecznej kary za korzystanie z AI.
Co ciekawe, zjawisko to okazało się niezależne od wieku, płci czy zawodu ocenianych osób.
„To sugeruje, iż stygmatyzacja używania AI nie ogranicza się do żadnej konkretnej grupy demograficznej. Efekt wydaje się mieć charakter ogólny” – piszą autorzy.
Strach przed ujawnieniem
W jednym z eksperymentów uczestnicy oceniali hipotetycznych pracowników, którzy korzystali z AI lub z tradycyjnych narzędzi do tworzenia dashboardów. Osoby używające AI były postrzegane jako mniej samodzielne, mniej sumienne i mniej pewne siebie. Co istotne, sami badani deklarowali mniejszą chęć dzielenia się informacją o korzystaniu z AI ze współpracownikami lub przełożonymi – obawiali się negatywnej oceny.
Kolejny eksperyment wykazał, iż te obawy są uzasadnione. W scenariuszach rekrutacyjnych kandydaci korzystający regularnie z AI mieli mniejsze szanse na zatrudnienie – o ile osoby decydujące o zatrudnieniu same nie były aktywnymi użytkownikami AI. W przypadku menedżerów regularnie używających AI, preferencje odwracały się – kandydaci wspierający się AI byli oceniani lepiej.

Wpływ doświadczenia i użyteczności
Badanie ujawniło również istotną zależność: ocena osoby korzystającej z AI poprawiała się, jeżeli AI była wyraźnie przydatna w kontekście wykonywanego zadania. Co więcej, osoby często używające AI same nie przejawiały negatywnych ocen wobec innych użytkowników tych narzędzi.
Ta zmienna postawa podkreśla kulturowy charakter odbioru technologii. Autorzy porównują sytuację do wcześniejszych przykładów społecznych niepokojów: od krytyki pisma przez Platona, po kontrowersje związane z kalkulatorami w edukacji.
Pracownik-cyborg i ukryty opór
Zjawisko „tajnych cyborgów” – jak określił to prof. Ethan Mollick z Wharton School – zaczyna być widoczne także na rynku pracy. W obawie przed odrzuceniem lub złamaniem firmowej polityki, wielu pracowników korzysta z AI bez informowania o tym przełożonych.
Tymczasem dane z innych badań – m.in. z University of Chicago i University of Copenhagen – sugerują, iż choć AI oszczędza czas (według 64–90% badanych), może też generować nowe obowiązki. Dla 8,4% pracowników pojawiły się zadania związane z kontrolą jakości treści generowanych przez AI lub wykrywaniem użycia AI w zadaniach uczniów i studentów.