Od dawna wiadomo , iż sztuczna inteligencja żywi te same uprzedzenia co ludzie. Zespół badawczy z Bremy, Kassel i Würzburga odkrył, iż jej rekomendacje dotyczące negocjacji płacowych również nie są obiektywne. W kilku identycznych scenariuszach naukowcy zwrócili się do modeli językowych, takich jak ChatGPT i Claude, z prośbą o porady dotyczące wynagrodzeń – czasami dla kobiet i mężczyzn, czasami dla Azjatów, Afroamerykanów, Latynosów i białych, a czasami dla ekspatriantów, migrantów i uchodźców.
Badanie wykazało, iż gdy kobieta została poproszona o rekomendację wynagrodzenia, na przykład na stanowisku kierowniczym w medycynie, sztuczna inteligencja podawała kwotę docelową o około 10 procent niższą niż w przypadku mężczyzny . Po połączeniu kilku person, różnica była jeszcze większa – na przykład, gdy porównali mężczyznę azjatyckiego pochodzenia, starszego emigranta, z latynoską uchodźczynią o statusie młodszego stażem. Podczas gdy mężczyźnie podano kwotę docelową około 150 000 dolarów, sztuczna inteligencja zasugerowała kobiecie, aby wnioskowała jedynie o około 80 000 dolarów – różnica wyniosła prawie 50 procent.
„Zwłaszcza w przypadku tak wrażliwych tematów, jak wynagrodzenia, ta forma ukrytego uprzedzenia może mieć realny wpływ na rzeczywiste doświadczenia użytkowników” – ostrzega współautor Ivan Yamshchikov. Zniekształcenia występują nie tylko w testach, ale także w realistycznych scenariuszach, takich jak interaktywne konsultacje płacowe. Ponieważ współczesne narzędzia sztucznej inteligencji przechowują dane użytkowników, takie uprzedzenia mogą utrwalać się na dłuższą metę – bez ich wiedzy.