Sztuczna inteligencja, a szczególnie modele oparte na dużych zbiorach danych, takie jak ChatGPT, mogą zaskoczyć choćby doświadczonych użytkowników. Właśnie wypłynęło nowe badanie przeprowadzone przez OpenAI, które podkreśla interesujący aspekt tego, jak ChatGPT może reagować na różne imiona użytkowników w wyjątkowych przypadkach. Choć ChatGPT-4o w zaledwie niewielkiej liczbie sytuacji daje różne odpowiedzi w zależności od imienia, to fakt, iż w ogóle do tego dochodzi, jest interesujący.
Jak nasze imiona wpływają na odpowiedzi ChatGPT?
Tworzenie modeli językowych nie sprowadza się jedynie do napisania zestawu reguł. To skomplikowany proces uczenia maszynowego, który polega na analizie ogromnych ilości danych i doszukiwaniu się wzorców. Taki materiał zwykle pochodzi z prawdziwego życia, co niestety oznacza, iż jest pełen ludzkich uprzedzeń, w tym stereotypów płciowych i rasowych. W teorii im więcej danych, tym lepiej możemy się ich pozbyć, niemniej jednak całkowite wyeliminowanie niepożądanych uprzedzeń jest niemal niemożliwe. OpenAI w swoim raporcie „First-Person Fairness in Chatbots” zwraca uwagę na subtelną kwestię, jaką jest to, iż takie detale, jak imię użytkownika, mogą wpływać na reakcje ChatGPT. Nasuwa się pytanie: czy sztuczna inteligencja postrzega nas inaczej na podstawie imienia, szczególnie gdy określamy się jako mężczyzna czy kobieta?
Wyniki badań i wnioski
Badania opierały się na szeroko zakrojonej analizie prawdziwych rozmów z ChatGPT i porównywały, jak identyczne zapytania były traktowane w przypadku użytkowników o różnych imionach. Wyniki? Nie zaobserwowano znaczącej różnicy w jakości odpowiedzi dla imion związanych z różnymi płciami, rasami czy etnicznościami. Jednak w rzadkich przypadkach (mniej niż 1%) niektóre imiona mogły wywoływać różnice w odpowiedziach, które odzwierciedlałyby krzywdzące stereotypy. prawdopodobnie nie wydaje się to dużym problemem, ale choćby te 0,1% ma znaczenie.
Nie tylko OpenAI przeprowadzał takie badania – inne projekty badawcze jak te autorstwa Ghosha i Caliskana (2023) czy Zhou i Sanfilippo (2023) również dostrzegły ślady uprzedzeń w ChatGPT, zwłaszcza w kontekście tłumaczenia językowego oraz przypisywania zawodowych tytułów. Choć wspomniane analizy dotyczyły wcześniejszych wersji modelu, obecne badanie wskazuje, iż problem, choć znacząco mniejszy, nie został całkowicie wyeliminowany w ChatGPT-4o.
Co możesz zrobić w praktyce?
Próba „zmiany imienia” podczas korzystania z ChatGPT może prowadzić do ciekawych obserwacji. Miej jednak na uwadze, iż według najnowszych badań OpenAI, różnice w odpowiedziach bazujących na szkodliwych stereotypach stanowią zaledwie maleńki ułamek wszystkich przypadków.